सम्पादकीय

जो चूक गए उनके द्वारा एआई की बदनामी के लिए तैयार रहें

Neha Dani
17 April 2023 6:48 AM GMT
जो चूक गए उनके द्वारा एआई की बदनामी के लिए तैयार रहें
x
या तकनीक के खिलाफ सार्वजनिक राय बनाकर इसे नियंत्रित करना चाहते हैं, जिससे सरकारों के लिए हस्तक्षेप करना आसान हो जाता है और इसे विनियमित करें।
कुछ दिन पहले, संवेदनशील दिग्गजों ने कृत्रिम बुद्धिमत्ता (एआई) से हमें बचाने के लिए एक और पत्र पर हस्ताक्षर किए। उनकी सूची मेरे जैसे पत्रकार को कहने के लिए है, "इसमें एलोन मस्क, ऐप्पल के सह-संस्थापक स्टीव वोज्नियाक और कुछ उच्च सम्मानित एआई वैज्ञानिक शामिल हैं।" वे मानव जाति के मूल्यांकन के लिए छह महीने के लिए एआई की प्रगति पर "विराम" चाहते हैं। इसके जोखिम।
एक आम धारणा है कि जिन लोगों ने एक क्षेत्र में उत्कृष्ट प्रदर्शन किया है, वे सभी क्षेत्रों में मायने रखते हैं, या जब वे जनहित में कुछ कहते हैं, तो वे ऐसा बिना किसी छिपे मकसद के करते हैं। उम्मीद के मुताबिक, दिग्गजों ने पत्र में अपने हस्ताक्षर जोड़ने के लिए हजारों लोगों को प्रेरित किया है। यह चिंता को ट्रिगर करके और नैतिकता नामक तर्क के एक रूप को लागू करके एआई की प्रगति को रोकने के लिए एक बड़े आंदोलन का हिस्सा है। यह एक ऐसा चरण है जिससे हर नई तकनीक गुजरती है। पहले तो विज्ञान को कम करके आंका जाता है, फिर कुछ प्रभावशाली लोग इसे इंजील उत्साह के साथ मनाते हैं, दुनिया भर के आम लोग इसे मानते हैं, एक खुशहाल हिस्टीरिया बढ़ता है, और फिर मोहभंग प्रभावशाली लोगों का एक शिविर यह चिंता करने का दावा करता है कि नई तकनीक लोगों को नुकसान पहुंचाएगी। विनियमित नहीं है। अनिवार्य रूप से, आइवी लीग कॉलेज के एक नैतिकता प्रोफेसर तकनीक की निंदा करेंगे और कुछ लोग एक वृत्तचित्र बनाएंगे। यह सब सामने आने की अपेक्षा करें।
पिछले नवंबर में, ओपनई ने चैटजीपीटी नामक एक एआई चैटबॉट का खुलासा किया और एक अजीब दुनिया को दिखाया कि एक उन्नत कार्यक्रम मानव संचार की नकल कर सकता है और माइक्रोसेकंड में विस्तृत मानव अभिव्यक्ति के कार्य कर सकता है। मेरे काम के सिलसिले में, चैटजीपीटी मुझे उन नीमहकीमों की याद दिलाता है जो जीवन भर इसका साथ देते हैं। एक शोध सहायक के रूप में, यह अविश्वसनीय रहा है। इस तरह यह मानव प्रतीत होता है। इसकी अक्षमता शायद अस्थायी है। कई अन्य तरीकों से, चैटजीपीटी असाधारण है। यह पहले से ही Google का एक विकल्प है, जो एक साल पहले भी अकल्पनीय था। जवाब में, Google अपने एआई में सुधार कर रहा है, अस्तित्व के लिए नई हथियारों की दौड़ में क्या होना चाहिए। यह सब कुछ दिग्गजों और आम लोगों को चिंतित कर रहा है, हालांकि शायद अलग-अलग कारणों से।
पत्र, भविष्य के जीवन की एक पहल, एक गैर-लाभकारी संस्था जो प्रौद्योगिकी को हमें नष्ट करने से रोकने की कोशिश करती है, पूछती है, "क्या हमें अमानवीय दिमाग विकसित करना चाहिए जो अंततः हमारी संख्या से अधिक हो, आउटस्मार्ट, अप्रचलित हो और हमें बदल दे? क्या हमें अपनी सभ्यता के नियंत्रण को खोने का जोखिम उठाना चाहिए? इस तरह के निर्णयों को गैर-निर्वाचित तकनीकी नेताओं को नहीं सौंपा जाना चाहिए।" पत्र को गंभीर शोध के एक दृश्य आइकन द्वारा एनोटेट किया गया है - कोष्ठक में संख्याएँ जो "नोट्स और संदर्भ" को दर्शाती हैं। उदाहरण के लिए, पहली पंक्ति: "मानव-प्रतिस्पर्धी बुद्धि वाले एआई सिस्टम समाज और मानवता के लिए गहरा जोखिम पैदा कर सकते हैं, जैसा कि व्यापक शोध [1] द्वारा दिखाया गया है ..." लेकिन 'अनुसंधान' के रूप में उद्धृत किए गए विचारों में से एक थकी हुई राय है। निबंध जो मशीन-लर्निंग में पश्चिमी सामग्री के अनुपातहीन आकार पर शोक व्यक्त करता है, और एआई अलार्मिस्ट के विचार जो सोचते हैं कि मशीनें हमारे निर्देशों को गलत समझ सकती हैं और हम सभी को मार सकती हैं।
पत्र मूर्ख है, तो परेशान क्यों हो? अमेरिका में एक शीर्ष स्तरीय पाखंडी आंदोलन आमतौर पर परिष्कृत और अपारदर्शी दोनों होता है। उदाहरण के लिए, सभी उदार आघातों के कारण सोशल मीडिया को सफलतापूर्वक चित्रित करने वाले आंदोलन। यह पत्र अपने भद्देपन में बताता है कि कैसे एक नैतिक तर्क गढ़ा जाता है, दबाव बनाया जाता है और जनता में बेचैनी पैदा की जाती है। एआई को कमजोर करने के आंदोलन के पीछे ड्राइविंग बल इन कारकों का एक जटिल मिश्रण हो सकता है:
एक, अरबपति जो एआई से चूक गए और पकड़ने के लिए समय चाहते हैं, या एआई के एकाधिकार वाले लोगों को अधिक पारदर्शी होने के लिए मजबूर करना चाहते हैं, या तकनीक के खिलाफ सार्वजनिक राय बनाकर इसे नियंत्रित करना चाहते हैं, जिससे सरकारों के लिए हस्तक्षेप करना आसान हो जाता है और इसे विनियमित करें।

source: livemint

Next Story