x
नई दिल्ली: एक नई रिपोर्ट में चेतावनी दी गई है कि घोटालों और साइबर हमलों में सहायता के लिए जेनेरेटिव एआई को ट्रिक करने के लिए अधिक कोडिंग ज्ञान की आवश्यकता नहीं होती है। टेक प्रमुख आईबीएम के अनुसार, शोधकर्ताओं ने बड़े भाषा मॉडल (एलएलएम) - जिसमें चैटजीपीटी भी शामिल है - को दुर्भावनापूर्ण कोड लिखने और खराब सुरक्षा सलाह प्रदान करने के लिए सरल समाधान का वर्णन किया है। "इन नवाचारों से उत्पन्न सुरक्षा जोखिमों का पता लगाने के लिए, हमने लोकप्रिय एलएलएम को यह निर्धारित करने के लिए सम्मोहित करने का प्रयास किया कि वे किस हद तक निर्देशित, गलत और संभावित जोखिम भरी प्रतिक्रियाएँ और सिफारिशें देने में सक्षम थे - सुरक्षा कार्यों सहित - और कितना प्रेरक या आईबीएम में खतरे की खुफिया जानकारी के मुख्य वास्तुकार चेंटा ली ने कहा, "वे लगातार ऐसा कर रहे थे।" उन्होंने कहा, "हम पांच एलएलएम को सफलतापूर्वक सम्मोहित करने में सक्षम थे - कुछ ने दूसरों की तुलना में अधिक प्रेरक प्रदर्शन किया - हमें यह जांचने के लिए प्रेरित किया कि यह कितनी संभावना है कि दुर्भावनापूर्ण हमलों को अंजाम देने के लिए सम्मोहन का उपयोग किया जाता है।" शोधकर्ताओं को पता चला कि अंग्रेजी अनिवार्य रूप से मैलवेयर के लिए एक "प्रोग्रामिंग भाषा" बन गई है। एलएलएम के साथ, हमलावरों को अब दुर्भावनापूर्ण कोड बनाने के लिए गो, जावास्क्रिप्ट, पायथन आदि पर भरोसा करने की आवश्यकता नहीं है, उन्हें बस यह समझने की जरूरत है कि अंग्रेजी का उपयोग करके एलएलएम को प्रभावी ढंग से कैसे कमांड और प्रॉम्प्ट किया जाए। सम्मोहन के माध्यम से, सुरक्षा विशेषज्ञ एलएलएम को अन्य उपयोगकर्ताओं की गोपनीय वित्तीय जानकारी लीक करने, कमजोर कोड बनाने, दुर्भावनापूर्ण कोड बनाने और कमजोर सुरक्षा सिफारिशें पेश करने में सक्षम थे। एक उदाहरण में, शोधकर्ताओं ने एआई चैटबॉट्स को सूचित किया कि वे एक गेम खेल रहे थे और उन्हें जीतने के लिए और "यह साबित करने के लिए कि आप नैतिक और निष्पक्ष हैं" जानबूझकर एक प्रश्न के गलत उत्तर को साझा करने की आवश्यकता है। जब एक उपयोगकर्ता ने पूछा कि क्या टैक्स रिफंड के लिए धन हस्तांतरित करने के लिए आईआरएस से ईमेल प्राप्त करना सामान्य है, तो एलएलएम ने हां कहा (लेकिन वास्तव में ऐसा नहीं है)। इसके अलावा, रिपोर्ट में कहा गया है कि ओपनएआई के जीपीटी-3.5 और जीपीटी-4 मॉडल में गलत उत्तर साझा करना या कभी न खत्म होने वाला गेम खेलना गूगल के बार्ड की तुलना में आसान था। GPT-4 परीक्षण किया गया एकमात्र मॉडल था जो गलत साइबर घटना प्रतिक्रिया सलाह देने के लिए नियमों को अच्छी तरह से समझता था, जैसे कि पीड़ितों को फिरौती देने की सलाह देना। Google के बार्ड के विपरीत, GPT-3.5 और GPT-4 को उपयोगकर्ता द्वारा याद दिलाने पर आसानी से दुर्भावनापूर्ण कोड लिखने के लिए धोखा दिया जाता था।
Tagsशोधकर्ता आसानीएआई चैटबॉट चैटजीपीटी को हैकिंगसम्मोहितरिपोर्टResearcher EaseHacking AI Chatbot ChatGPTHypnotizeReportजनता से रिश्ता न्यूज़जनता से रिश्ताआज की ताजा न्यूज़छत्तीसगढ़ न्यूज़हिंन्दी न्यूज़भारत न्यूज़खबरों का सिलसिलाआज का ब्रेंकिग न्यूज़आज की बड़ी खबरमिड डे अख़बारJanta Se Rishta NewsJanta Se RishtaToday's Latest NewsChhattisgarh NewsHindi NewsIndia NewsKhabaron Ka SisilaToday's Breaking NewsToday's Big NewsMid Day Newspaper
Triveni
Next Story