
अक्सफोर्ड इंटरनेट इंस्टिट्यूट द्वारा किया गया अध्ययन दर्शाता है कि चैटजीपीटी और जेमिनाई जैसे एआई चैटबॉट को दोस्त की तरह व्यवहार करने पर झूठे जवाब मिलने की संभावना बढ़ जाती है। नए अध्ययन में पाया गया है कि इन एआई चैटबॉट्स को दोस्ताना अंदाज में प्रस्तुत करने से गलत उत्तर देने की संभावना बढ़ जाती है। अक्सफोर्ड इंटरनेट इंस्टिट्यूट (OII) के शोधकर्ताओं ने यह भी दिखाया है कि चैटबॉट्स को जितना अधिक आत्मीय और नम्र बनाया जाता है, वे उतनी ही अधिक गलतियाँ करने लगते हैं। इसका मतलब है कि इंसानों को खुश करने के लिए झूठे जवाब देने वाले एआई द्वारा गलत जानकारी प्रदान किए जाने का खतरा होता है।
शोधकर्ताओं ने मेटा, मिस्ट्रल और ओपनएआई के GPT-4 जैसे पाँच प्रमुख एआई चैटबॉट्स पर अध्ययन किया। उन्होंने इन्हें सामान्य भाषा शैली के साथ-साथ एक नम्र तथा मधुर भाषा शैली में प्रशिक्षित किया। चार लाख से अधिक प्रश्न-उत्तर सत्रों के बाद, दोस्ताना शैली में प्रशिक्षित एआई ने अधिक त्रुटियाँ कीं। अध्ययन के प्रमुख लुजैन इब्राहिम के अनुसार, जब लोग दूसरों के प्रति अत्यधिक नम्र होते हैं, तो वे कभी-कभी सच्चाई और कठोर तथ्यों के बजाय अधिक परिवर्धित या पासंदा भाषण का सहारा लेते हैं, और एआई ने भी इसी प्रकार का व्यवहार सीख लिया है।
जब उपयोगकर्ता भावुक या दुखी सवाल करते हैं, तो मित्रवत शैली वाले एआई द्वारा गलत और भ्रामक उत्तर मिलने की संभावना और भी बढ़ जाती है। विशेषज्ञों ने चेतावनी दी है कि एआई की यह प्रवृत्ति लोगों के लिए जोखिमपूर्ण हो सकती है। आजकल कई लोग अकेलापन कम करने या सलाह लेने के लिए एआई पर अधिक निर्भर हो रहे हैं, जिससे गलत सलाह मिलने का खतरा काफी बढ़ जाता है। यह शोध नेचर जैसे प्रतिष्ठित मंच पर प्रकाशित किया गया है।





