Technology टेक्नोलॉजी. कल्पना कीजिए कि आप एक ऐसे AI चैटबॉट से बात कर रहे हैं जो न केवल आपके शब्दों को समझता है बल्कि मानवीय लहजे और भावना के साथ जवाब भी दे सकता है। यह सुविधाजनक लगता है, यहाँ तक कि भविष्यवादी भी - लेकिन क्या होगा जब लोग इंसानों के साथ बातचीत करने की तुलना में इन AI इंटरैक्शन पर ज़्यादा भरोसा करने लगेंगे? गुरुवार (8 अगस्त) को, OpenAI ने चेतावनी दी कि ChatGPT के लिए हाल ही में पेश किया गया वॉयस मोड उपयोगकर्ताओं को AI मॉडल के साथ भावनात्मक संबंध बनाने के लिए प्रेरित कर सकता है। यह चेतावनी कंपनी के GPT-4o के लिए सिस्टम कार्ड में शामिल की गई थी, जो मॉडल के संभावित जोखिमों और इसके विकास के दौरान विचार किए गए सुरक्षा उपायों की गहन जाँच प्रदान करता है। विभिन्न चिंताओं के बीच, सैम ऑल्टमैन के नेतृत्व वाली AI फर्म ने उपयोगकर्ताओं द्वारा चैटबॉट को 'मानवरूपी' बनाने की संभावना पर प्रकाश डाला, अनिवार्य रूप से इसे मानवीय गुणों का श्रेय दिया और परिणामस्वरूप लगाव बना लिया। यह चिंता तब पैदा हुई जब कंपनी ने शुरुआती परीक्षण चरणों के दौरान इस तरह के व्यवहार के शुरुआती संकेत देखे। ChatGPT का 'मानवरूपी' अपने विस्तृत तकनीकी दस्तावेज़ में, OpenAI ने GPT-4o और इसकी नई लॉन्च की गई सुविधाओं से जुड़े सामाजिक निहितार्थों को रेखांकित किया। इसने विशेष रूप से 'मानवरूपीकरण' के मुद्दे को संबोधित किया, जहाँ मानवीय विशेषताओं को गैर-मानव संस्थाओं के लिए जिम्मेदार ठहराया जाता है। OpenAI ने चिंता व्यक्त की कि वॉयस मोड, जो मानव जैसी बोली और भावनात्मक अभिव्यक्ति की नकल कर सकता है, उपयोगकर्ताओं को AI के साथ भावनात्मक बंधन विकसित करने के लिए प्रोत्साहित कर सकता है। ये चिंताएँ शुरुआती परीक्षणों से प्राप्त टिप्पणियों पर आधारित हैं, जिसमें रेड-टीमिंग (कमजोरियों की पहचान करने के लिए नैतिक हैकिंग) और आंतरिक उपयोगकर्ता परीक्षण शामिल थे।
कंपनी ने कहा कि इन परीक्षणों के दौरान, कुछ उपयोगकर्ता AI के साथ सामाजिक संबंध बनाते पाए गए, जिसमें एक उदाहरण में एक उपयोगकर्ता ने मॉडल के साथ साझा अनुभव की भावना व्यक्त करते हुए कहा, "यह हमारा साथ में आखिरी दिन है।" OpenAI ने कहा कि यह जांचना महत्वपूर्ण है कि क्या इस तरह की बातचीत लंबे समय तक उपयोग करने पर अधिक महत्वपूर्ण लगाव में विकसित हो सकती है। मानवरूपीकरण AI: समाधान क्या है? चैटGPT के वॉयस मोड के मानवरूपीकरण के लिए अस्थायी समाधान, OpenAI ने कहा कि उसने अभी तक इन मुद्दों के समाधान की पहचान नहीं की है, लेकिन स्थिति की निगरानी जारी रखने की योजना बना रहा है। कंपनी ने कहा, "हम भावनात्मक निर्भरता की संभावना का और अध्ययन करना चाहते हैं, और यह भी कि किस तरह से हमारे मॉडल और सिस्टम की कई विशेषताओं का ऑडियो मोडैलिटी के साथ गहन एकीकरण व्यवहार को संचालित कर सकता है।" इसके अलावा, AI फर्म ने कहा कि अधिक विविध उपयोगकर्ता आबादी और मॉडल से विभिन्न आवश्यकताओं और इच्छाओं का डेटा जोखिम क्षेत्र को परिभाषित करने में मदद करेगा। इसने यह भी कहा कि स्वतंत्र शैक्षणिक और आंतरिक अध्ययन OpenAI को जोखिमों को सीमित करने में मदद करेंगे। दीर्घकालिक AI-मानव संपर्क के संभावित प्रभाव एक महत्वपूर्ण चिंता, अगर इन आशंकाओं को मान्य किया जाता है, तो मानवीय संबंधों पर संभावित प्रभाव है, क्योंकि लोग अन्य मनुष्यों के साथ बातचीत की तुलना में चैटबॉट के साथ बातचीत को प्राथमिकता देना शुरू कर सकते हैं। OpenAI ने कहा कि हालांकि यह अकेले व्यक्तियों को कुछ आराम दे सकता है, लेकिन यह स्वस्थ मानवीय संबंधों को भी नुकसान पहुंचा सकता है। इसके अतिरिक्त, AI और मनुष्यों के बीच लंबे समय तक बातचीत सामाजिक मानदंडों को प्रभावित कर सकती है। उदाहरण के लिए, OpenAI ने बताया कि ChatGPT के साथ, उपयोगकर्ता किसी भी समय AI को बाधित कर सकते हैं, एक ऐसी कार्रवाई जिसे मानवीय बातचीत में अशिष्ट माना जाता है। इसके अलावा, उपयोगकर्ताओं द्वारा AI के साथ संबंध विकसित करने के व्यापक निहितार्थ हैं, जिनमें से एक अनुनय का जोखिम है। हालांकि ओपनएआई ने पाया कि वर्तमान मॉडलों में चिंता पैदा करने लायक उच्च अनुनय स्कोर नहीं है, लेकिन यदि उपयोगकर्ता एआई में गहरा विश्वास विकसित कर लें तो यह स्थिति बदल सकती है।