सम्पादकीय

AI खतरे से निपटने के लिए बहुपक्षीय प्रतिक्रिया की आवश्यकता

Triveni
8 Oct 2024 10:10 AM GMT
AI खतरे से निपटने के लिए बहुपक्षीय प्रतिक्रिया की आवश्यकता
x

ब्रिटिश भौतिक विज्ञानी स्टीफन हॉकिंग ने चेतावनी दी, "जब तक हम संभावित जोखिमों के लिए तैयार रहना और उनसे बचना नहीं सीखते, तब तक AI हमारी सभ्यता के इतिहास की सबसे बुरी घटना हो सकती है।"

आर्टिफिशियल इंटेलिजेंस के खतरनाक उपयोग की ओर ध्यान आकर्षित करते हुए, जो जटिल कार्यों को पल भर में हल करने से लेकर स्वास्थ्य सेवा, वित्त, रोबोटिक्स, गेमिंग, वर्चुअल असिस्टेंट, स्वायत्त वाहनों से लेकर धोखाधड़ी का पता लगाने, एनएलपी आदि में तेजी से बढ़ते अनुप्रयोगों तक विकसित हुआ है, भारत के विदेश मंत्री एस जयशंकर ने रविवार को दुनिया को आगाह करते हुए कहा कि 'AI परमाणु हथियारों जितना ही खतरनाक है'। आज, AI इतनी तेजी से विकसित हो रहा है, खुद को सिखा रहा है, चाहे वह वीडियो गेम खेलना हो, छवियों का पुनर्निर्माण करना हो या बीमारियों का निदान करना हो।
अनजान लोगों के लिए, AI तकनीकों का एक संग्रह है जो मशीनों को मनुष्यों की तरह सीखने, सोचने, कार्य करने और समझने की अनुमति देता है। यह जटिल कार्यों को आसानी से और तेजी से कर सकता है। कई उद्योग इसकी उपयोगिताओं का दोहन करने के लिए संघर्ष कर रहे हैं। यह न केवल मानव बुद्धिमत्ता की नकल करता है, बल्कि इसकी गति और सटीकता उपयोगकर्ताओं को चकित कर रही है। कैलिफोर्निया विश्वविद्यालय, सांता बारबरा से संबद्ध शोधकर्ता टैमलिन हंट ने द साइंटिफिक अमेरिकन के लिए लिखा कि आर्टिफिशियल इंटेलिजेंस एल्गोरिदम जल्द ही तेजी से आत्म-सुधार के एक ऐसे बिंदु पर पहुंच जाएंगे जो उन्हें नियंत्रित करने की हमारी क्षमता को खतरे में डाल देगा और मानवता के लिए बहुत बड़ा संभावित जोखिम पैदा करेगा।
उन्होंने 'एआई के गॉडफादर' जेफ्री हिंटन को उद्धृत करते हुए कहा कि, 'यह देखना मुश्किल है कि आप बुरे लोगों को [एआई] का इस्तेमाल बुरी चीजों के लिए करने से कैसे रोक सकते हैं।' 1950 में, एलन ट्यूरिंग ने "कंप्यूटिंग मशीनरी एंड इंटेलिजेंस" प्रकाशित किया, जिसमें ट्यूरिंग टेस्ट पेश किया गया और एआई के रूप में जाने जाने वाले दरवाजे खोले गए। पांच दशकों तक चुप रहने के बाद, 21वीं सदी में शोध ने जोर पकड़ा, जिसमें अथाह सुपर इंटेलिजेंस टूल की गहराई से जांच की गई। 2023 में बड़े विकास हुए। Google ने ब्लेक लेमोइन को लीक के लिए निकाल दिया, जिसमें दावा किया गया था कि उसका LaMDA संवेदनशील है यानी चीजों को समझने या महसूस करने में सक्षम है। डीपमाइंड ने अल्फाटेन्सर का अनावरण किया, और इंटेल ने दावा किया कि उसका फेककैचर रियल-टाइम डीपफेक डिटेक्टर 96% सटीक था। ओपनएआई ने 30 नवंबर को चैटजीपीटी जारी किया, जिससे एआई का बड़े पैमाने पर उपयोग संभव हो सका।
निराशाजनक बात यह है कि एआई खुद को तेजी से बेहतर बना सकता है। यह पहले से ही अनजाने में सामाजिक पूर्वाग्रहों को बढ़ावा देता हुआ देखा गया है। यह पाया गया है कि यह श्वेत रोगियों की तुलना में अश्वेत रोगियों के लिए कम सटीकता वाले परिणाम देता है। अमेज़ॅन ने एक एल्गोरिदम को छोड़ दिया, क्योंकि यह पाया गया कि यह आवेदकों के रिज्यूमे में "निष्पादित" या "कैप्चर" जैसे शब्दों के आधार पर अधिक अनुकूल था। पूर्वानुमानित पुलिसिंग उपकरण अक्सर ऐतिहासिक गिरफ्तारी डेटा पर निर्भर पाए जाते हैं, जो नस्लीय प्रोफाइलिंग और अल्पसंख्यक समुदायों के असंगत लक्ष्यीकरण के मौजूदा पैटर्न को मजबूत कर सकते हैं। ये हिमशैल के सिरे मात्र हैं।
2023 में जनरेटिव एआई-आधारित फ़िशिंग हमलों और 2018 में फेसबुक के उपयोगकर्ता डेटा की हैकिंग के बाद, साइबर अपराधियों द्वारा एआई के संभावित उपयोग चिंताजनक हैं। सूचना युद्ध में एआई पहले से ही एक महत्वपूर्ण उपकरण बन चुका है। एआई का उपयोग करने वाली डीप फेक तकनीक पहले से ही एक बड़ी चुनौती है। अपने सभी विविध उपयोगों के लिए, एआई एक विध्वंसकारी शक्ति भी है। इसका उपयोग न केवल रक्षा या बिजली के क्षेत्र में महत्वपूर्ण बुनियादी ढांचे को प्रबंधित करने के लिए किया जा सकता है, बल्कि उसे कमजोर करने के लिए भी किया जा सकता है।
हम इस स्थिति में कैसे पहुँच गए कि मशीन लर्निंग टूल के रूप में शुरू की गई चीज़ के बारे में चिंता करने लगे? अब, सरकारें और सुरक्षा विशेषज्ञ इस बात पर बहस कर रहे हैं कि एआई कितनी विनाशकारी क्षमता रख सकता है, जब तक कि राष्ट्र इसके जिम्मेदार उपयोग के लिए आचार संहिता बनाने के लिए समन्वय न करें। विशेषज्ञों को चिंता है कि बिना किसी सीमा के और बिना किसी प्रतिबंध के, यह वैश्विक व्यवस्था को खतरे में डाल सकता है। अब समय आ गया है कि राष्ट्र आईसीटी के उपयोग के साथ अवैध और आपराधिक गतिविधियों को रोकने के लिए कानून बनाने और समन्वय करने के लिए एक साथ आएं। संयुक्त राष्ट्र जैसे निकायों को पहल करनी चाहिए क्योंकि कुछ ही देशों के पास एल्गोरिदम से हथियारों तक के मार्च को रोकने के लिए साधन हैं।

CREDIT NEWS: thehansindia

Next Story