सम्पादकीय

एआई को विनियमित करने के लिए भारत को सिद्धांत-आधारित दृष्टिकोण की आवश्यकता है

Neha Dani
12 April 2023 6:47 AM GMT
एआई को विनियमित करने के लिए भारत को सिद्धांत-आधारित दृष्टिकोण की आवश्यकता है
x
कठोर कानून प्रौद्योगिकी नवाचार को धीमा कर सकते हैं, यह इन सिद्धांतों को वैधानिक रूप से रखने का इरादा नहीं रखता है
पिछले हफ्ते, कृत्रिम बुद्धिमत्ता (एआई) के चारों ओर चर्चा और हुड़दंग के बीच, कुछ उल्लेखनीय व्यक्तियों द्वारा लिखे गए एक खुले पत्र ने सभी उत्साह पर ठंडे पानी की एक बाल्टी फेंक दी। जाहिर तौर पर फ्यूचर ऑफ लाइफ इंस्टीट्यूट के एक पत्र से प्रेरित होकर, इसने आशंका जताई कि एआई देश में नौकरियों को खतरे में डाल देगा और कयामत की ओर संकेत करेगा जो कि अगर हम इसे तुरंत विनियमित नहीं करते हैं तो हम पर आफत आ जाएगी।
जैसा कि इस कॉलम के नियमित पाठकों को अब तक पता चल जाएगा, मैं एआई को लेकर आशान्वित हूं। मेरा मानना है कि यह परिवर्तनकारी तकनीक होगी जो समाज के कार्य करने के तरीके में अगला बड़ा बदलाव करेगी। जैसा कि सभी 'टेक'-टॉनिक परिवर्तनों के साथ होता है, यह हमारे काम करने के तरीकों को बदल देगा, जिससे वर्तमान में मौजूद कई नौकरियां अप्रासंगिक हो जाएंगी। लेकिन उनके स्थान पर नई नौकरियां और नए कौशल आएंगे, जिन्हें मानव जाति को उन अवसरों का अधिकतम लाभ उठाने के लिए सीखना होगा जो यह प्रदान करता है। यही कारण है कि मैं उनके निराशावाद को साझा नहीं करता।
ऐसा कहने के बाद, एआई को कैसे विनियमित किया जाना चाहिए, इस बारे में सोचना शुरू करने में निश्चित रूप से योग्यता है। इसमें कोई संदेह नहीं है कि यह एक सर्वव्यापी तकनीक बनने की राह पर है जो हमारे जीवन के विभिन्न पहलुओं में व्याप्त है। ऐसा होने पर, वर्तमान में हम जिन नियामक ढांचों पर भरोसा करते हैं, उनमें से कई बेमानी हो जाएंगे। और इससे निपटने के तरीके के बारे में सोचना शुरू करना कभी भी जल्दी नहीं होता है।
जैसा कि होता है, पिछले कुछ वर्षों में, कुछ से अधिक देशों ने ऐसा ही करने का प्रयास किया है। यूएस ऑफ़िस ऑफ़ साइंस एंड टेक्नोलॉजी पॉलिसी ने एआई के अधिकारों के बिल के लिए एक ब्लूप्रिंट जारी किया, जिसने अनुमानित रूप से लाईसेज़ फ़ेयर दृष्टिकोण अपनाया। उपयोगकर्ताओं को असुरक्षित और अप्रभावी प्रणालियों से बचाने की आवश्यकता को दोहराने के अलावा, सुनिश्चित करें कि AI सिस्टम डिज़ाइन किए गए हैं ताकि वे भेदभाव न करें और नोटिस और उपयोगकर्ता स्वायत्तता के आसपास गोपनीयता संबंधी चिंताओं को दूर करने के लिए कदम उठाएं, ब्लूप्रिंट ने स्पष्ट रूप से यह नहीं बताया कि वास्तव में AI कंपनियां क्या हैं करना पड़ेगा।
दूसरी ओर, यूरोपीय आयोग एक पूर्ण विकसित विधायी प्रस्ताव के साथ आया है जो कष्टदायी विस्तार से सूचीबद्ध करता है कि यह "उच्च जोखिम एआई सिस्टम" को कैसे विनियमित करने जा रहा है। इसमें एआई कंपनियों को जोखिमों के निरंतर पुनरावृत्त मूल्यांकन को सुनिश्चित करने की आवश्यकता शामिल है; सुनिश्चित करना कि वे प्रशिक्षण के लिए केवल त्रुटि-मुक्त डेटा-सेट का उपयोग करते हैं; और उन पर पारदर्शिता के लिए ऑडिट ट्रेल्स स्थापित करने का दायित्व थोपते हैं। यह एक यूरोपीय एआई बोर्ड स्थापित करने और एक दंड व्यवस्था स्थापित करने का भी इरादा रखता है जो सामान्य डेटा संरक्षण से भी अधिक कठोर है विनियमन (जीडीपीआर), उल्लंघन के लिए वैश्विक कारोबार के 6% तक के जुर्माने के साथ।
ये दोनों विनियामक प्रस्ताव उस चीज़ को ठीक करने का प्रयास करते हैं जो हम मानते हैं कि हम जानते हैं - हमारे वर्तमान अनुभव के आधार पर - एल्गोरिथम सिस्टम के बारे में गलत है। वे उस भेदभाव को रोकते हैं जिसे हमने इन प्रणालियों को अपराध करते देखा है क्योंकि उन्हें मानव डेटा पर प्रशिक्षित किया गया है, इसके सभी निहित पूर्वाग्रहों के साथ। और गोपनीयता के नुकसान को कम करने का प्रयास तब हो सकता है जब एआई सिस्टम हमारी जानकारी का उपयोग उन उद्देश्यों के अलावा अन्य उद्देश्यों के लिए करता है जिन्हें वे बिना सूचना के एकत्र या संसाधित करते थे।
ये ऐसे मुद्दे हैं जिन पर ध्यान देने की आवश्यकता है, लेकिन समस्या बन जाने के बाद ही समस्याओं को हल करने के लिए हमारी नियामक रणनीति को डिजाइन करने से हमें ऐसी तकनीक से निपटने में मदद नहीं मिलेगी जो एआई जितनी तेजी से विकसित होने में सक्षम है। जिस तरह उत्तरदायित्व के लिए एक पारंपरिक दृष्टिकोण को लागू करना पूरी तरह से गलत होगा।
अब तक हमने जेनेरेटिव एआई के बारे में जो देखा है, वह अप्रत्याशित आकस्मिक व्यवहार के लिए सक्षम है जिसका अक्सर प्राप्त प्रोग्रामिंग पर कोई असर नहीं पड़ता है। ये सिस्टम अनुकूली हैं, जो उनके मानव डेवलपर्स ने कल्पना की हो सकती है उससे कहीं अधिक अनुमान लगाने में सक्षम हैं। वे स्वायत्त भी हैं, ऐसे निर्णय लेते हैं जिनका अक्सर उनके मानव रचनाकारों के व्यक्त इरादों से कोई संबंध नहीं होता है। और अक्सर उनके नियंत्रण के बिना निष्पादित होते हैं। यदि हमारा विनियामक समाधान इन प्रणालियों के डेवलपर्स को इस आकस्मिक व्यवहार के लिए व्यक्तिगत रूप से उत्तरदायी ठहराना है, तो वे उन देनदारियों के डर से किसी भी आगे के विकास को बंद करने के लिए मजबूर होंगे जो उन्हें बहुत ही आकस्मिक व्यवहार के कारण भुगतना पड़ेगा जो कि इसकी ताकत है। .
क्या होगा अगर कोई दूसरा तरीका है? क्या होगा यदि हम एआई विनियमन के लिए एक चुस्त दृष्टिकोण अपनाते हैं जो क्रॉस-कटिंग सिद्धांतों के एक सेट पर आधारित है जो बहुत उच्च स्तर पर वर्णन करता है कि हम एआई सिस्टम से क्या करने की उम्मीद करते हैं (और नहीं करते हैं)? हम इन सिद्धांतों को उन सभी अलग-अलग तरीकों से लागू कर सकते हैं जिनमें एआई है, और तैनात किया जाएगा—क्षेत्रों और अनुप्रयोगों की एक विस्तृत श्रृंखला में। क्षेत्र के नियामक तब इन सिद्धांतों का उल्लेख कर सकते हैं, उनका उपयोग हाशिये पर नुकसान की पहचान करने के लिए करते हैं और प्रभावों के बहुत व्यापक होने से पहले उचित सुधारात्मक कार्रवाई करते हैं।
यह वह दृष्टिकोण है जो यूके सरकार अपने हाल ही में प्रकाशित प्रो-इनोवेशन एप्रोच टू रेगुलेटिंग एआई में ले रही है। एक नया नियामक ढांचा स्थापित करने के बजाय, यह वास्तविक अनुभव से सीखने और लगातार अनुकूलन करने के लिए डिज़ाइन किए गए एक चुस्त और पुनरावृत्त दृष्टिकोण का पालन करने का इरादा रखता है। यह स्वीकार करते हुए कि कठोर कानून प्रौद्योगिकी नवाचार को धीमा कर सकते हैं, यह इन सिद्धांतों को वैधानिक रूप से रखने का इरादा नहीं रखता है

सोर्स: livemint

Next Story