- Home
- /
- प्रौद्योगिकी
- /
- OpenAI ने मनुष्य...
x
Technology टेक्नोलॉजी. कल्पना कीजिए कि आप एक ऐसे AI चैटबॉट से बात कर रहे हैं जो न केवल आपके शब्दों को समझता है बल्कि मानवीय लहजे और भावना के साथ जवाब भी दे सकता है। यह सुविधाजनक लगता है, यहाँ तक कि भविष्यवादी भी - लेकिन क्या होगा जब लोग इंसानों के साथ बातचीत करने की तुलना में इन AI इंटरैक्शन पर ज़्यादा भरोसा करने लगेंगे? गुरुवार (8 अगस्त) को, OpenAI ने चेतावनी दी कि ChatGPT के लिए हाल ही में पेश किया गया वॉयस मोड उपयोगकर्ताओं को AI मॉडल के साथ भावनात्मक संबंध बनाने के लिए प्रेरित कर सकता है। यह चेतावनी कंपनी के GPT-4o के लिए सिस्टम कार्ड में शामिल की गई थी, जो मॉडल के संभावित जोखिमों और इसके विकास के दौरान विचार किए गए सुरक्षा उपायों की गहन जाँच प्रदान करता है। विभिन्न चिंताओं के बीच, सैम ऑल्टमैन के नेतृत्व वाली AI फर्म ने उपयोगकर्ताओं द्वारा चैटबॉट को 'मानवरूपी' बनाने की संभावना पर प्रकाश डाला, अनिवार्य रूप से इसे मानवीय गुणों का श्रेय दिया और परिणामस्वरूप लगाव बना लिया। यह चिंता तब पैदा हुई जब कंपनी ने शुरुआती परीक्षण चरणों के दौरान इस तरह के व्यवहार के शुरुआती संकेत देखे। ChatGPT का 'मानवरूपी' अपने विस्तृत तकनीकी दस्तावेज़ में, OpenAI ने GPT-4o और इसकी नई लॉन्च की गई सुविधाओं से जुड़े सामाजिक निहितार्थों को रेखांकित किया। इसने विशेष रूप से 'मानवरूपीकरण' के मुद्दे को संबोधित किया, जहाँ मानवीय विशेषताओं को गैर-मानव संस्थाओं के लिए जिम्मेदार ठहराया जाता है। OpenAI ने चिंता व्यक्त की कि वॉयस मोड, जो मानव जैसी बोली और भावनात्मक अभिव्यक्ति की नकल कर सकता है, उपयोगकर्ताओं को AI के साथ भावनात्मक बंधन विकसित करने के लिए प्रोत्साहित कर सकता है। ये चिंताएँ शुरुआती परीक्षणों से प्राप्त टिप्पणियों पर आधारित हैं, जिसमें रेड-टीमिंग (कमजोरियों की पहचान करने के लिए नैतिक हैकिंग) और आंतरिक उपयोगकर्ता परीक्षण शामिल थे।
कंपनी ने कहा कि इन परीक्षणों के दौरान, कुछ उपयोगकर्ता AI के साथ सामाजिक संबंध बनाते पाए गए, जिसमें एक उदाहरण में एक उपयोगकर्ता ने मॉडल के साथ साझा अनुभव की भावना व्यक्त करते हुए कहा, "यह हमारा साथ में आखिरी दिन है।" OpenAI ने कहा कि यह जांचना महत्वपूर्ण है कि क्या इस तरह की बातचीत लंबे समय तक उपयोग करने पर अधिक महत्वपूर्ण लगाव में विकसित हो सकती है। मानवरूपीकरण AI: समाधान क्या है? चैटGPT के वॉयस मोड के मानवरूपीकरण के लिए अस्थायी समाधान, OpenAI ने कहा कि उसने अभी तक इन मुद्दों के समाधान की पहचान नहीं की है, लेकिन स्थिति की निगरानी जारी रखने की योजना बना रहा है। कंपनी ने कहा, "हम भावनात्मक निर्भरता की संभावना का और अध्ययन करना चाहते हैं, और यह भी कि किस तरह से हमारे मॉडल और सिस्टम की कई विशेषताओं का ऑडियो मोडैलिटी के साथ गहन एकीकरण व्यवहार को संचालित कर सकता है।" इसके अलावा, AI फर्म ने कहा कि अधिक विविध उपयोगकर्ता आबादी और मॉडल से विभिन्न आवश्यकताओं और इच्छाओं का डेटा जोखिम क्षेत्र को परिभाषित करने में मदद करेगा। इसने यह भी कहा कि स्वतंत्र शैक्षणिक और आंतरिक अध्ययन OpenAI को जोखिमों को सीमित करने में मदद करेंगे। दीर्घकालिक AI-मानव संपर्क के संभावित प्रभाव एक महत्वपूर्ण चिंता, अगर इन आशंकाओं को मान्य किया जाता है, तो मानवीय संबंधों पर संभावित प्रभाव है, क्योंकि लोग अन्य मनुष्यों के साथ बातचीत की तुलना में चैटबॉट के साथ बातचीत को प्राथमिकता देना शुरू कर सकते हैं। OpenAI ने कहा कि हालांकि यह अकेले व्यक्तियों को कुछ आराम दे सकता है, लेकिन यह स्वस्थ मानवीय संबंधों को भी नुकसान पहुंचा सकता है। इसके अतिरिक्त, AI और मनुष्यों के बीच लंबे समय तक बातचीत सामाजिक मानदंडों को प्रभावित कर सकती है। उदाहरण के लिए, OpenAI ने बताया कि ChatGPT के साथ, उपयोगकर्ता किसी भी समय AI को बाधित कर सकते हैं, एक ऐसी कार्रवाई जिसे मानवीय बातचीत में अशिष्ट माना जाता है। इसके अलावा, उपयोगकर्ताओं द्वारा AI के साथ संबंध विकसित करने के व्यापक निहितार्थ हैं, जिनमें से एक अनुनय का जोखिम है। हालांकि ओपनएआई ने पाया कि वर्तमान मॉडलों में चिंता पैदा करने लायक उच्च अनुनय स्कोर नहीं है, लेकिन यदि उपयोगकर्ता एआई में गहरा विश्वास विकसित कर लें तो यह स्थिति बदल सकती है।
Tagsओपनएआईमनुष्यभावनात्मक संबंधोंचेतायाOpenAIhumansemotional relationshipscautionedजनता से रिश्ता न्यूज़जनता से रिश्ताआज की ताजा न्यूज़हिंन्दी न्यूज़भारत न्यूज़खबरों का सिलसिलाआज की ब्रेंकिग न्यूज़आज की बड़ी खबरमिड डे अख़बारJanta Se Rishta NewsJanta Se RishtaToday's Latest NewsHindi NewsIndia NewsSeries of NewsToday's Breaking NewsToday's Big NewsMid Day Newspaper
Ayush Kumar
Next Story