कृत्रिम सामान्य बुद्धि के हाथों विलुप्त होने का डर नहीं

प्राथमिकता होनी चाहिए महामारी और परमाणु युद्ध के रूप में।"

Update: 2023-06-23 02:39 GMT
मैंने हाल ही में एक पैनल चर्चा में भाग लिया, जिसका शीर्षक बहुत ही धमाकेदार था: 'क्या विलक्षणता यहाँ है? एआई बनाम मानव: नई वास्तविकता क्या होगी?' एलोन मस्क उसी सिंगुलैरिटी पर विचार कर रहे हैं, उन्होंने कहा है कि "कृत्रिम सामान्य बुद्धि के आगमन को सिंगुलैरिटी कहा जाता है क्योंकि यह भविष्यवाणी करना बहुत कठिन है कि उसके बाद क्या होगा।" उन्होंने यह भी अनुमान लगाया कि यह हमें "बहुतायत का युग" प्रदान करेगा लेकिन "कुछ संभावना" थी कि यह "मानवता को नष्ट कर देगा।" एआई के जाने-माने 'गॉडफादर' जेफ्री हिंटन ने हाल ही में सीबीएस न्यूज के सामने कबूल किया कि सामान्य प्रयोजन एआई 20 साल या उससे कम समय में आ सकता है, 20-50 साल में नहीं, जैसा कि उन्होंने पहले सोचा था।
एआई और जेनेरेटिव एआई ज्वारीय लहर के आगमन के साथ, सिंगुलैरिटी और एजीआई (या आर्टिफिशियल जनरल इंटेलिजेंस) के बारे में बात करना फैशनेबल हो गया है। हालाँकि, यह अवधारणा बहुत पुरानी है, और संभवतः प्रतिभाशाली पॉलिमथ जॉन वॉन न्यूमैन द्वारा गढ़ी गई थी। 1950 के दशक में, न्यूमैन ने इस बारे में बात की थी कि कैसे "प्रौद्योगिकी की लगातार बढ़ती प्रगति" "दौड़ के इतिहास में कुछ आवश्यक विलक्षणता" को जन्म दे सकती है। (bit.ly/3Pja8UJ)। हाल के वर्षों में, भविष्यवादी और कंप्यूटर वैज्ञानिक रे कुर्ज़वील ने विलक्षणता का समर्थन किया है। कुर्ज़वील ने, पीटर डायमेंडिस के साथ, अमेरिका में सिंगुलैरिटी यूनिवर्सिटी की स्थापना की, जो बहुतायत, एआई जैसी घातीय प्रौद्योगिकियों और निश्चित रूप से, सिंगुलैरिटी की अवधारणाओं की वकालत करती है। (अस्वीकरण: मैंने एसयू के कार्यकारी कार्यक्रम में भाग लिया है और अब इसके लिए एक विशेषज्ञ संकाय सदस्य हूं)। 2005 में, कुर्ज़वील ने द सिंगुलैरिटी इज़ नियर लिखी; अब, शायद जेनेरिक एआई सुनामी से प्रोत्साहित होकर, वह द सिंगुलैरिटी इज़ नियरर लिख रहे हैं। रिकॉर्ड के लिए, अपनी पिछली पुस्तक में, कुर्ज़वील ने अपनी गर्दन आगे बढ़ा दी थी और घोषणा की थी कि विलक्षणता 2045 या उसके आसपास आ जाएगी। आइए देखें कि वह अब इसे कितना करीब मानते हैं।
लेकिन विलक्षणता क्या है? कृत्रिम बुद्धिमत्ता की तरह, इसकी कोई एक परिभाषा नहीं है। व्यापक रूप से यह माना जाता है कि यह वह क्षण है जब कृत्रिम बुद्धिमत्ता मानव बुद्धि से अधिक हो जाएगी, और इस प्रकार हमसे अधिक स्मार्ट हो जाएगी। एजीआई, या कृत्रिम सामान्य बुद्धि, का एक समान वर्णन है: जब एक एआई एजेंट किसी भी बौद्धिक उपलब्धि को पूरा कर सकता है जो मनुष्य कर सकते हैं। इस पर राय बंटी हुई है कि क्या हमें एजीआई या सिंगुलैरिटी को तब घटित मानना चाहिए जब एक एआई एजेंट औसत या सबसे बुद्धिमान मानव (कुर्जवील?), या सभी मनुष्यों को मिलाकर अधिक स्मार्ट हो जाता है। यह शब्द अंतरिक्ष विज्ञान और बिग बैंग सिद्धांत से लिया गया है, जो बताता है कि लगभग 14 अरब साल पहले, ब्रह्मांड एक विलक्षणता से उभरा - अनंत घनत्व और गुरुत्वाकर्षण का एक एकल बिंदु, और इससे पहले अंतरिक्ष और समय का अस्तित्व नहीं था। दिलचस्प बात यह है कि हिंदू धर्म भी विलक्षणता के समान कुछ को संदर्भित करता है, कुछ प्राचीन ग्रंथों में ब्रह्मांड और सभी चेतनाओं के बारे में एक ही बिंदु मूल से उत्पन्न होने की बात कही गई है: ओम् की आदिम ध्वनि।
इसकी उत्पत्ति और परिभाषा के बावजूद, विलक्षणता के बाद क्या होता है, जहां विचारों में तीव्र अंतर होता है। कुर्ज़वील, सैम अल्टमैन और कई बिग टेक नेताओं जैसे आशावादी इस बात पर जोर देते हैं कि एजीआई ग्लोबल वार्मिंग और परमाणु संलयन जैसी दुनिया की सबसे बड़ी समस्याओं को कैसे हल करेगा, नौकरियों में कठिन परिश्रम को खत्म करेगा और आम तौर पर दुनिया को एक बेहतर जगह बनाएगा। दूसरी ओर, युवल हरारी, मस्क और अब हिंटन की अधिक सनकी आवाजें विलक्षणता की अनियंत्रित दौड़ और इससे होने वाले अन्याय, विभाजन और विनाश के बारे में चिंता करती हैं। इस प्रकार यह काफी दिलचस्प था कि आशावादी और निराशावादी दोनों ने एक साथ मिलकर सेंटर फॉर एआई सेफ्टी द्वारा जारी एक एकल-पंक्ति के खुले पत्र पर हस्ताक्षर किए, जिसमें कहा गया था कि: "एआई से विलुप्त होने के जोखिम को कम करना अन्य सामाजिक-स्तर के जोखिमों के साथ-साथ एक वैश्विक प्राथमिकता होनी चाहिए महामारी और परमाणु युद्ध के रूप में।"

source: livemint

Tags:    

Similar News

-->