x
यह कुछ वर्षों के भीतर सामाजिक स्तर पर व्यवधान पैदा कर सकता है, हालांकि शोधकर्ता कभी-कभी यह समझाने से रोकते हैं कि यह कैसे होगा।
उद्योग के नेताओं का एक समूह चेतावनी देने की योजना बना रहा है कि वे जिस कृत्रिम बुद्धिमत्ता तकनीक का निर्माण कर रहे हैं, वह एक दिन मानवता के लिए एक संभावित खतरा पैदा कर सकती है और इसे महामारी और परमाणु युद्धों के समान सामाजिक जोखिम माना जाना चाहिए।
"एआई से विलुप्त होने के जोखिम को कम करना अन्य सामाजिक-पैमाने के जोखिमों, जैसे कि महामारी और परमाणु युद्ध के साथ एक वैश्विक प्राथमिकता होनी चाहिए," एक गैर-लाभकारी संगठन सेंटर फॉर एआई सेफ्टी द्वारा जारी किए जाने वाले एक-वाक्य के बयान को पढ़ता है। . एआई में काम करने वाले 350 से अधिक अधिकारियों, शोधकर्ताओं और इंजीनियरों ने खुले पत्र पर हस्ताक्षर किए हैं
हस्ताक्षरकर्ताओं में तीन प्रमुख एआई कंपनियों के शीर्ष अधिकारी शामिल थे: सैम ऑल्टमैन, ओपनएआई के मुख्य कार्यकारी अधिकारी; गूगल डीपमाइंड के मुख्य कार्यकारी अधिकारी डेमिस हासाबिस; और एन्थ्रोपिक के मुख्य कार्यकारी डारियो अमोदेई।
ज्योफ्री हिंटन और योशुआ बेंगियो, तीन शोधकर्ताओं में से दो, जिन्होंने तंत्रिका नेटवर्क पर अपने अग्रणी काम के लिए ट्यूरिंग अवार्ड जीता और अक्सर उन्हें आधुनिक एआई आंदोलन के "गॉडफादर" माना जाता है, ने बयान पर हस्ताक्षर किए, जैसा कि क्षेत्र के अन्य प्रमुख शोधकर्ताओं ने किया था। तीसरे ट्यूरिंग अवार्ड विजेता, यान लेकन, जो मेटा के एआई अनुसंधान प्रयासों का नेतृत्व करते हैं, ने मंगलवार तक हस्ताक्षर नहीं किए थे।)
कृत्रिम बुद्धिमत्ता के संभावित नुकसान के बारे में बढ़ती चिंता के समय यह बयान आया है। तथाकथित बड़े भाषा मॉडल में हालिया प्रगति - चैटजीपीटी और अन्य चैटबॉट्स द्वारा उपयोग की जाने वाली एआई प्रणाली के प्रकार - ने आशंका जताई है कि गलत सूचना और प्रचार फैलाने के लिए एआई का जल्द ही बड़े पैमाने पर इस्तेमाल किया जा सकता है, या यह लाखों सफेदपोश नौकरियों को खत्म कर सकता है। .
आखिरकार, कुछ का मानना है कि एआई इतना शक्तिशाली हो सकता है कि अगर इसे धीमा करने के लिए कुछ नहीं किया जाता है तो यह कुछ वर्षों के भीतर सामाजिक स्तर पर व्यवधान पैदा कर सकता है, हालांकि शोधकर्ता कभी-कभी यह समझाने से रोकते हैं कि यह कैसे होगा।
Neha Dani
Next Story