सम्पादकीय

ChatGPT का गुप्त हथियार सहानुभूति दिखाने की क्षमता हो सकती है

Neha Dani
28 April 2023 11:31 AM GMT
ChatGPT का गुप्त हथियार सहानुभूति दिखाने की क्षमता हो सकती है
x
इसने एक सहकर्मी को भी हरा दिया, भले ही हम दोनों इंसान हैं और वास्तविक भावनाएँ हैं (या ऐसा हम सोचते हैं)।
इस साल की शुरुआत में, प्रिंसटन कंप्यूटर साइंस के प्रोफेसर अरविंद नारायणन ने अपनी लगभग चार साल की बेटी के लिए चैटजीपीटी के लिए वॉयस इंटरफेस स्थापित किया था। यह आंशिक रूप से एक प्रयोग था और आंशिक रूप से क्योंकि उनका मानना था कि एआई एजेंट एक दिन उनके जीवन का एक बड़ा हिस्सा होंगे। नारायणन की बेटी स्वाभाविक रूप से उत्सुक थी, अक्सर जानवरों, पौधों और मानव शरीर के बारे में पूछती थी, और उसने सोचा कि चैटजीपीटी उसके सवालों के उपयोगी उत्तर दे सकता है, उन्होंने कहा। उनके आश्चर्य के लिए, OpenAI द्वारा विकसित चैटबॉट ने भी सहानुभूति दिखाने में त्रुटिहीन काम किया, एक बार जब उन्होंने सिस्टम को बताया कि यह एक छोटे बच्चे से बात कर रहा है।
"जब रोशनी बंद हो जाती है तो क्या होता है?" उनकी बेटी ने पूछा। "जब रोशनी बंद हो जाती है, तो अंधेरा हो जाता है, और यह थोड़ा डरावना हो सकता है," चैटजीपीटी ने सिंथेटिक आवाज में जवाब दिया। "लेकिन घबराना नहीं! अंधेरे में सुरक्षित और आरामदायक महसूस करने के लिए आप बहुत सी चीजें कर सकते हैं।" इसके बाद उसने रात की रोशनी का उपयोग करने के बारे में कुछ सलाह दी, एक रिमाइंडर के साथ बंद किया कि "अंधेरे में थोड़ा डर लगना सामान्य है।" नारायणन की बेटी स्पष्ट रूप से आश्वस्त थी, उन्होंने एक सबस्टैक पोस्ट में लिखा।
Microsoft और Google बड़े भाषा मॉडल (LLM) तकनीक के साथ अपने खोज इंजन को बढ़ाने के लिए दौड़ रहे हैं, जो कि ChatGPT को रेखांकित करता है, लेकिन यह सोचने का अच्छा कारण है कि प्रौद्योगिकी तथ्यों के प्रदाता के रूप में एक भावनात्मक साथी के रूप में बेहतर काम करती है। यह अजीब लग सकता है, लेकिन अजीब बात यह है कि Google के बार्ड और माइक्रोसॉफ्ट के बिंग, जो चैटजीपीटी की अंतर्निहित तकनीक पर आधारित हैं, को खोज टूल के रूप में रखा जा रहा है, जब उनके पास तथ्यात्मक त्रुटियों का शर्मनाक इतिहास है: बार्ड ने जेम्स वेब टेलीस्कोप के बारे में गलत जानकारी दी थी। इसका पहला डेमो जबकि बिंग ने अपने आप में वित्तीय आंकड़ों की एक श्रृंखला पर ध्यान दिया।
जब चैटबॉट एक खोज उपकरण होता है तो तथ्यात्मक गलतियों की कीमत बहुत अधिक होती है। एआई-साथी ऐप रेप्लिका के संस्थापक यूजेनिया कुयदा के अनुसार, लेकिन जब यह एक साथी है, तो यह बहुत कम है। "यह खोज के विपरीत अनुभव को बर्बाद नहीं करेगा, जहाँ छोटी-छोटी गलतियाँ उत्पाद में विश्वास को तोड़ सकती हैं।"
मार्गरेट मिशेल, एक पूर्व Google एआई शोधकर्ता, जिन्होंने एलएलएम के जोखिमों पर एक पेपर का सह-लेखन किया है, ने कहा है कि ये खोज इंजन के रूप में "उद्देश्य के लिए उपयुक्त नहीं हैं"। एलएलएम त्रुटि प्रवण हैं क्योंकि जिस डेटा पर उन्हें प्रशिक्षित किया जाता है उसमें त्रुटियां और सत्य को सत्यापित नहीं कर सकते। उनके डिजाइनर भी सटीकता पर प्रवाह को प्राथमिकता दे सकते हैं। यही कारण है कि ये उपकरण समानुभूति की नकल करने में असाधारण रूप से अच्छे हैं। आखिरकार, वे वेब से स्क्रैप किए गए पाठ से सीख रहे हैं, जिसमें सोशल मीडिया प्लेटफॉर्म पर पोस्ट की गई भावनात्मक प्रतिक्रियाएं भी शामिल हैं। Reddit और Quora जैसे मंचों के उपयोगकर्ता। मूवी और टीवी शो स्क्रिप्ट से बातचीत, उपन्यासों से संवाद, और भावनात्मक बुद्धिमत्ता पर शोध पत्र सभी इन उपकरणों को सहानुभूतिपूर्ण बनाने के लिए पूल में चले गए। कोई आश्चर्य नहीं कि कुछ लोग चैटजीपीटी को रोबो के रूप में उपयोग कर रहे हैं -चिकित्सक। जैसा कि बताया गया है, एक व्यक्ति ने कहा कि उन्होंने इसका इस्तेमाल दूसरों पर बोझ बनने से बचने के लिए किया, जिसमें उनका स्वयं का मानव चिकित्सक भी शामिल है।
यह देखने के लिए कि क्या मैं चैटजीपीटी की सहानुभूति क्षमताओं को माप सकता हूं, मैंने इसे एक ऑनलाइन भावनात्मक खुफिया परीक्षण के माध्यम से रखा, इसे 40 बहुविकल्पीय प्रश्न दिए और प्रत्येक प्रश्न का उत्तर संबंधित पत्र के साथ देने के लिए कहा। परिणाम: इसने सामाजिक जागरूकता, संबंध प्रबंधन और आत्म-प्रबंधन की श्रेणियों में सही अंक प्राप्त करते हुए प्रश्नोत्तरी में सफलता प्राप्त की, और केवल आत्म जागरूकता में थोड़ी सी ठोकर खाई। ChatGPT ने क्विज़ पर मुझसे बेहतर किया, और इसने एक सहकर्मी को भी हरा दिया, भले ही हम दोनों इंसान हैं और वास्तविक भावनाएँ हैं (या ऐसा हम सोचते हैं)।

सोर्स: livemint

Next Story