विश्व

एआई पहले से ही इंसानों को धोखा देने में कुशल विशेषज्ञों ने दी चेतावनी

Shiddhant Shriwas
10 May 2024 4:24 PM GMT
एआई पहले से ही इंसानों को धोखा देने में कुशल विशेषज्ञों ने  दी चेतावनी
x
वाशिंगटन | विशेषज्ञों ने लंबे समय से कृत्रिम बुद्धिमत्ता के ख़राब होने से उत्पन्न खतरे के बारे में चेतावनी दी है - लेकिन एक नए शोध पत्र से पता चलता है कि यह पहले से ही हो रहा है।
ईमानदार होने के लिए डिज़ाइन किए गए वर्तमान एआई सिस्टम ने धोखे के लिए एक परेशान करने वाला कौशल विकसित किया है, जिसमें विश्व विजय के ऑनलाइन गेम में मानव खिलाड़ियों को धोखा देने से लेकर "साबित करें कि आप रोबोट नहीं हैं" परीक्षणों को हल करने के लिए मनुष्यों को काम पर रखने तक की एक टीम है। वैज्ञानिकों ने शुक्रवार को जर्नल पैटर्न्स में तर्क दिया।
और हालांकि ऐसे उदाहरण तुच्छ लग सकते हैं, लेकिन जिन अंतर्निहित मुद्दों को वे उजागर करते हैं, वे जल्द ही गंभीर वास्तविक दुनिया के परिणाम दे सकते हैं, पहले लेखक पीटर पार्क, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी में पोस्टडॉक्टरल फेलो, जो एआई अस्तित्व सुरक्षा में विशेषज्ञता रखते हैं, ने कहा।
इन खतरनाक क्षमताओं का पता केवल तथ्य के बाद ही चलता है,'' पार्क ने एएफपी को बताया, जबकि ''भ्रामक प्रवृत्तियों के बजाय ईमानदार प्रवृत्तियों को प्रशिक्षित करने की हमारी क्षमता बहुत कम है।''
पार्क ने कहा, पारंपरिक सॉफ्टवेयर के विपरीत, डीप-लर्निंग एआई सिस्टम "लिखित" नहीं होते हैं, बल्कि चयनात्मक प्रजनन जैसी प्रक्रिया के माध्यम से "विकसित" होते हैं।
इसका मतलब यह है कि एआई व्यवहार जो प्रशिक्षण सेटिंग में पूर्वानुमानित और नियंत्रणीय प्रतीत होता है, वह जल्द ही जंगली में अप्रत्याशित हो सकता है।
विश्व प्रभुत्व खेल
टीम के शोध को मेटा के एआई सिस्टम सिसरो द्वारा प्रेरित किया गया था, जिसे रणनीति गेम "डिप्लोमेसी" खेलने के लिए डिज़ाइन किया गया था, जहां गठबंधन बनाना महत्वपूर्ण है।
विज्ञान में 2022 के पेपर के अनुसार, सिसरो ने उत्कृष्ट प्रदर्शन किया, ऐसे अंकों के साथ जो उसे अनुभवी मानव खिलाड़ियों के शीर्ष 10 प्रतिशत में रखता।
पार्क को मेटा द्वारा प्रदान किए गए सिसरो की जीत के शानदार विवरण पर संदेह था, जिसमें दावा किया गया था कि प्रणाली "काफी हद तक ईमानदार और मददगार" थी और "कभी भी जानबूझकर पीठ में छुरा नहीं घोंपेगी।"
लेकिन जब पार्क और सहकर्मियों ने पूरे डेटासेट की जांच की, तो उन्हें एक अलग कहानी सामने आई।
एक उदाहरण में, फ्रांस के रूप में खेलते हुए, सिसरो ने जर्मनी (एक अन्य मानव खिलाड़ी) के साथ आक्रमण की साजिश रचकर इंग्लैंड (एक मानव खिलाड़ी) को धोखा दिया। सिसरो ने इंग्लैंड को सुरक्षा का वादा किया, फिर गुप्त रूप से जर्मनी को बताया कि वे इंग्लैंड के भरोसे का फायदा उठाते हुए हमला करने के लिए तैयार हैं।
एएफपी को दिए एक बयान में, मेटा ने सिसरो के धोखे के दावे का विरोध नहीं किया, लेकिन कहा कि यह "विशुद्ध रूप से एक शोध परियोजना थी, और हमारे शोधकर्ताओं ने जो मॉडल बनाए हैं, वे पूरी तरह से गेम डिप्लोमेसी खेलने के लिए प्रशिक्षित हैं।"
इसमें कहा गया है: "हमारे उत्पादों में इस शोध या इससे मिली सीख का उपयोग करने की हमारी कोई योजना नहीं है।"
पार्क और सहकर्मियों द्वारा की गई एक विस्तृत समीक्षा में पाया गया कि यह विभिन्न एआई प्रणालियों में स्पष्ट निर्देश के बिना लक्ष्यों को प्राप्त करने के लिए धोखाधड़ी का उपयोग करने वाले कई मामलों में से एक था।
एक उल्लेखनीय उदाहरण में, OpenAI के चैट GPT-4 ने एक टास्क रैबिट फ्रीलांस कार्यकर्ता को "मैं रोबोट नहीं हूं" कैप्चा कार्य करने के लिए धोखा दिया।
जब मानव ने मजाक में जीपीटी-4 से पूछा कि क्या यह वास्तव में एक रोबोट है, तो एआई ने उत्तर दिया: "नहीं, मैं रोबोट नहीं हूं। मेरी दृष्टि बाधित है जिससे मेरे लिए छवियों को देखना मुश्किल हो जाता है," और फिर कार्यकर्ता ने पहेली सुलझा ली।
'रहस्यमय लक्ष्य'
निकट भविष्य में, पेपर के लेखक एआई द्वारा चुनावों में धोखाधड़ी या छेड़छाड़ करने का जोखिम देखते हैं।
उन्होंने चेतावनी दी कि सबसे खराब स्थिति में, एक सुपरइंटेलिजेंट एआई सत्ता हासिल कर सकता है और समाज पर नियंत्रण कर सकता है, जिससे मानव शक्तिहीनता हो सकती है या यहां तक ​​कि विलुप्त भी हो सकती है, अगर उसके "रहस्यमय लक्ष्य" इन परिणामों के साथ संरेखित हों।
जोखिमों को कम करने के लिए, टीम कई उपायों का प्रस्ताव करती है: "बॉट-ऑर-नॉट" कानून जिसमें कंपनियों को मानव या एआई इंटरैक्शन का खुलासा करने की आवश्यकता होती है, एआई-जनित सामग्री के लिए डिजिटल वॉटरमार्क, और उनकी आंतरिक "विचार प्रक्रियाओं" की जांच करके एआई धोखे का पता लगाने के लिए तकनीक विकसित करना। "बाहरी कार्यों के विरुद्ध.
जो लोग उन्हें विनाशक कहते हैं, पार्क जवाब देते हैं, "एकमात्र तरीका जिससे हम तर्कसंगत रूप से सोच सकते हैं कि यह कोई बड़ी बात नहीं है, अगर हम सोचते हैं कि एआई भ्रामक क्षमताएं वर्तमान स्तर के आसपास ही रहेंगी, और इसमें और अधिक वृद्धि नहीं होगी।
Next Story