व्यापार

एलन मस्क, स्टीव वोज्नियाक ने 'नियंत्रण से बाहर एआई रेस' पर विराम लगाने का किया आह्वान

Deepa Sahu
30 March 2023 11:19 AM GMT
एलन मस्क, स्टीव वोज्नियाक ने नियंत्रण से बाहर एआई रेस पर विराम लगाने का किया आह्वान
x
एलोन मस्क, टेस्ला प्रमुख, स्टीव वोज्नियाक, एप्पल के सह-संस्थापक और इमाद मोस्टाक, स्टैबिलिटी एआई सीईओ सहित तकनीक के कुछ सबसे बड़े नाम OpenAI के नए लॉन्च किए गए मॉडल GPT-4 की तुलना में अधिक शक्तिशाली प्रशिक्षण प्रणालियों पर विराम लगाने का आह्वान कर रहे हैं। विशाल एआई प्रयोगों पर रोक लगाने का अनुरोध करने वाले एक खुले पत्र के 1,377 हस्ताक्षरकर्ताओं में तकनीकी नेता शामिल थे।
पत्र में एआई लैब्स को जीपीटी-4 से अधिक शक्तिशाली एआई सिस्टम के प्रशिक्षण को रोकने के लिए कहा गया है जिसे हाल ही में ओपनएआई द्वारा लॉन्च किया गया था। पत्र के अनुसार कारण एक अमानवीय दिमाग बनाने का जोखिम है जो अंततः मनुष्यों को मात देने की शक्ति रखता है। पत्र में आगे कहा गया है कि एआई प्रयोगशालाएं और भी अधिक शक्तिशाली दिमाग विकसित करने के लिए एक 'नियंत्रण से बाहर' दौड़ का हिस्सा बन गई हैं जो उनके रचनाकारों सहित किसी के भी नियंत्रण में नहीं आएगा।
इस पत्र पर ऊपर उल्लिखित कई हाई-प्रोफाइल नामों और अन्य शोधकर्ताओं और सीईओ और अन्य द्वारा हस्ताक्षर किए गए हैं। इस सूची में एआई के दिग्गज योशुआ बेंगियो और स्टुअर्ट रसेल, गेटी इमेजेज के सीईओ क्रेग पीटर्स, लेखक युवल नोआह हरारी, कंजेक्चर के सीईओ कॉनर लीही और पिंटरेस्ट के सह-संस्थापक इवान शार्प भी शामिल हैं।

फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा पोस्ट किया गया पत्र, मस्क द्वारा वित्त पोषित एक गैर-लाभकारी संस्था:
"मानव-प्रतिस्पर्धी बुद्धि के साथ एआई सिस्टम समाज और मानवता के लिए गहरा जोखिम पैदा कर सकता है, जैसा कि व्यापक शोध [1] द्वारा दिखाया गया है और शीर्ष एआई प्रयोगशालाओं द्वारा स्वीकार किया गया है। [2] जैसा कि व्यापक रूप से समर्थित असिलोमर एआई सिद्धांतों में कहा गया है, उन्नत एआई प्रतिनिधित्व कर सकता है पृथ्वी पर जीवन के इतिहास में एक गहरा परिवर्तन, और इसके लिए योजना बनाई जानी चाहिए और उचित देखभाल और संसाधनों के साथ प्रबंधित किया जाना चाहिए। दुर्भाग्य से, योजना और प्रबंधन का यह स्तर नहीं हो रहा है, भले ही हाल के महीनों में एआई प्रयोगशालाओं को बाहर से बंद कर दिया गया हो -अधिक शक्तिशाली डिजिटल दिमाग विकसित करने और तैनात करने के लिए नियंत्रण दौड़ जिसे कोई भी - उनके निर्माता भी नहीं - समझ सकते हैं, भविष्यवाणी कर सकते हैं या विश्वसनीय रूप से नियंत्रित कर सकते हैं।
समकालीन एआई सिस्टम अब सामान्य कार्यों में मानव-प्रतिस्पर्धी होते जा रहे हैं, और हमें खुद से पूछना चाहिए: क्या हमें मशीनों को अपने सूचना चैनलों को प्रचार और असत्य से भरने देना चाहिए? क्या हमें पूरा करने वाले सहित सभी नौकरियों को स्वचालित कर देना चाहिए? क्या हमें अमानवीय दिमाग विकसित करना चाहिए जो अंततः हमारी संख्या से अधिक, चतुर, अप्रचलित और हमें प्रतिस्थापित कर सकता है? क्या हमें अपनी सभ्यता के नियंत्रण को खोने का जोखिम उठाना चाहिए? इस तरह के फैसले अनिर्वाचित तकनीकी नेताओं को नहीं सौंपे जाने चाहिए। शक्तिशाली एआई सिस्टम केवल तभी विकसित किए जाने चाहिए जब हमें विश्वास हो जाए कि उनका प्रभाव सकारात्मक होगा और उनके जोखिम प्रबंधनीय होंगे। यह विश्वास अच्छी तरह से उचित होना चाहिए और सिस्टम के संभावित प्रभावों के परिमाण के साथ बढ़ना चाहिए। आर्टिफिशियल जनरल इंटेलिजेंस के बारे में OpenAI का हालिया बयान कहता है कि "कुछ बिंदु पर, भविष्य की प्रणालियों को प्रशिक्षित करने से पहले स्वतंत्र समीक्षा प्राप्त करना महत्वपूर्ण हो सकता है, और नए बनाने के लिए उपयोग किए जाने वाले कंप्यूटरों के विकास की दर को सीमित करने के लिए सहमत होने के सबसे उन्नत प्रयासों के लिए मॉडल।" हम सहमत। वह बिंदु अब है।
इसलिए, हम सभी एआई प्रयोगशालाओं से आह्वान करते हैं कि वे जीपीटी-4 से अधिक शक्तिशाली एआई सिस्टम के प्रशिक्षण को कम से कम 6 महीने के लिए तुरंत रोक दें। यह ठहराव सार्वजनिक और सत्यापन योग्य होना चाहिए, और इसमें सभी प्रमुख अभिनेताओं को शामिल किया जाना चाहिए। यदि इस तरह के ठहराव को जल्दी से लागू नहीं किया जा सकता है, तो सरकारों को कदम उठाना चाहिए और एक अधिस्थगन स्थापित करना चाहिए।
एआई प्रयोगशालाओं और स्वतंत्र विशेषज्ञों को उन्नत एआई डिजाइन और विकास के लिए साझा सुरक्षा प्रोटोकॉल के एक सेट को संयुक्त रूप से विकसित और कार्यान्वित करने के लिए इस ठहराव का उपयोग करना चाहिए, जो स्वतंत्र बाहरी विशेषज्ञों द्वारा कड़ाई से ऑडिट और निरीक्षण किया जाता है। इन प्रोटोकॉल को यह सुनिश्चित करना चाहिए कि उनका पालन करने वाली प्रणालियां उचित संदेह से परे सुरक्षित हैं। इसका मतलब एआई के विकास पर सामान्य रूप से विराम नहीं है, केवल खतरनाक दौड़ से कभी-कभी बड़े अप्रत्याशित ब्लैक-बॉक्स मॉडल के साथ आकस्मिक क्षमताओं के लिए एक कदम पीछे हटना है।
एआई अनुसंधान और विकास को आज की शक्तिशाली, अत्याधुनिक प्रणालियों को अधिक सटीक, सुरक्षित, व्याख्यात्मक, पारदर्शी, मजबूत, संरेखित, भरोसेमंद और वफादार बनाने पर ध्यान केंद्रित करना चाहिए।
Next Story