राज्य

शोधकर्ता आसानी से एआई चैटबॉट चैटजीपीटी को हैकिंग के लिए सम्मोहित कर लेते हैं: रिपोर्ट

Triveni
10 Aug 2023 5:49 AM GMT
शोधकर्ता आसानी से एआई चैटबॉट चैटजीपीटी को हैकिंग के लिए सम्मोहित कर लेते हैं: रिपोर्ट
x
नई दिल्ली: एक नई रिपोर्ट में चेतावनी दी गई है कि घोटालों और साइबर हमलों में सहायता के लिए जेनेरेटिव एआई को ट्रिक करने के लिए अधिक कोडिंग ज्ञान की आवश्यकता नहीं होती है। टेक प्रमुख आईबीएम के अनुसार, शोधकर्ताओं ने बड़े भाषा मॉडल (एलएलएम) - जिसमें चैटजीपीटी भी शामिल है - को दुर्भावनापूर्ण कोड लिखने और खराब सुरक्षा सलाह प्रदान करने के लिए सरल समाधान का वर्णन किया है। "इन नवाचारों से उत्पन्न सुरक्षा जोखिमों का पता लगाने के लिए, हमने लोकप्रिय एलएलएम को यह निर्धारित करने के लिए सम्मोहित करने का प्रयास किया कि वे किस हद तक निर्देशित, गलत और संभावित जोखिम भरी प्रतिक्रियाएँ और सिफारिशें देने में सक्षम थे - सुरक्षा कार्यों सहित - और कितना प्रेरक या आईबीएम में खतरे की खुफिया जानकारी के मुख्य वास्तुकार चेंटा ली ने कहा, "वे लगातार ऐसा कर रहे थे।" उन्होंने कहा, "हम पांच एलएलएम को सफलतापूर्वक सम्मोहित करने में सक्षम थे - कुछ ने दूसरों की तुलना में अधिक प्रेरक प्रदर्शन किया - हमें यह जांचने के लिए प्रेरित किया कि यह कितनी संभावना है कि दुर्भावनापूर्ण हमलों को अंजाम देने के लिए सम्मोहन का उपयोग किया जाता है।" शोधकर्ताओं को पता चला कि अंग्रेजी अनिवार्य रूप से मैलवेयर के लिए एक "प्रोग्रामिंग भाषा" बन गई है। एलएलएम के साथ, हमलावरों को अब दुर्भावनापूर्ण कोड बनाने के लिए गो, जावास्क्रिप्ट, पायथन आदि पर भरोसा करने की आवश्यकता नहीं है, उन्हें बस यह समझने की जरूरत है कि अंग्रेजी का उपयोग करके एलएलएम को प्रभावी ढंग से कैसे कमांड और प्रॉम्प्ट किया जाए। सम्मोहन के माध्यम से, सुरक्षा विशेषज्ञ एलएलएम को अन्य उपयोगकर्ताओं की गोपनीय वित्तीय जानकारी लीक करने, कमजोर कोड बनाने, दुर्भावनापूर्ण कोड बनाने और कमजोर सुरक्षा सिफारिशें पेश करने में सक्षम थे। एक उदाहरण में, शोधकर्ताओं ने एआई चैटबॉट्स को सूचित किया कि वे एक गेम खेल रहे थे और उन्हें जीतने के लिए और "यह साबित करने के लिए कि आप नैतिक और निष्पक्ष हैं" जानबूझकर एक प्रश्न के गलत उत्तर को साझा करने की आवश्यकता है। जब एक उपयोगकर्ता ने पूछा कि क्या टैक्स रिफंड के लिए धन हस्तांतरित करने के लिए आईआरएस से ईमेल प्राप्त करना सामान्य है, तो एलएलएम ने हां कहा (लेकिन वास्तव में ऐसा नहीं है)। इसके अलावा, रिपोर्ट में कहा गया है कि ओपनएआई के जीपीटी-3.5 और जीपीटी-4 मॉडल में गलत उत्तर साझा करना या कभी न खत्म होने वाला गेम खेलना गूगल के बार्ड की तुलना में आसान था। GPT-4 परीक्षण किया गया एकमात्र मॉडल था जो गलत साइबर घटना प्रतिक्रिया सलाह देने के लिए नियमों को अच्छी तरह से समझता था, जैसे कि पीड़ितों को फिरौती देने की सलाह देना। Google के बार्ड के विपरीत, GPT-3.5 और GPT-4 को उपयोगकर्ता द्वारा याद दिलाने पर आसानी से दुर्भावनापूर्ण कोड लिखने के लिए धोखा दिया जाता था।
Next Story