सम्पादकीय

क्या मशीनों को हमसे बेहतर खुद को समझाना चाहिए?

Neha Dani
20 April 2023 4:31 AM GMT
क्या मशीनों को हमसे बेहतर खुद को समझाना चाहिए?
x
अज्ञानता और विशेषज्ञता की भावनाएँ निकट से जुड़ी हुई हैं। यदि ऐसा है, तो क्या हम एआई सिस्टम की व्याख्यात्मकता में सुधार करके बेहतर अपनाने से समझौता कर रहे हैं?
3 जून 1997 को, ब्राजील और फ्रांस के बीच वार्म-अप मैच के दौरान, रॉबर्टो कार्लोस ने फुटबॉल इतिहास में सबसे शानदार फ्री किक से दुनिया को चौंका दिया। यह 30 गज की किक थी। कार्लोस ने उस किक को लेने के लिए 20 गज का लंबा रन-अप लिया। गेंद को 136 किमी प्रति घंटे की रफ्तार से किक किया गया था। गेंद पूरे फ्रेंच डिफेंस के चारों ओर घूम गई। गोलकीपर फैबियन बारथेज़ ने सोचा कि गेंद मैदान के बाहर भीड़ में जा रही थी। इसलिए वह नहीं हिला। लेकिन गेंद तेजी से और जादुई रूप से गोल में वापस मुड़ी। फ़ुटबॉल विशेषज्ञों और यहां तक कि भौतिकविदों ने इस किक के हर पहलू का विस्तार से अध्ययन किया है। लेकिन वर्षों बाद, ईएसपीएन ब्रासिल के साथ एक साक्षात्कार में, रॉबर्टो कार्लोस ने कहा, "ईमानदारी से कहूं तो, आज तक मुझे नहीं पता कि मैंने यह कैसे किया।"
व्याख्यात्मकता स्पष्ट करने की क्षमता है कि कोई व्यक्ति या प्रणाली किसी विशेष निर्णय पर क्यों पहुंची। जैसा कि व्यवसाय तेजी से निर्णय लेने के लिए कृत्रिम बुद्धिमत्ता (एआई) सिस्टम पर भरोसा कर रहे हैं, इस बात पर जोर दिया जा रहा है कि एआई सिस्टम व्याख्यात्मक होना चाहिए। वे किस डेटा का उपयोग करते हैं? ये मॉडल अपने निष्कर्ष कैसे निकालते हैं? क्या ये सभी पूर्वाग्रहों से रहित हैं? मैकिन्से के एक अध्ययन में पाया गया कि जो संगठन एआई को व्याख्यात्मक बनाने जैसी प्रथाओं के माध्यम से उपभोक्ताओं के बीच डिजिटल विश्वास स्थापित करते हैं, उनके वार्षिक राजस्व और आय में दोहरे अंकों में वृद्धि देखने की संभावना अधिक होती है। तो क्या एआई व्याख्यात्मकता एक वांछित लक्ष्य है? लेकिन अधिक महत्वपूर्ण सवाल यह है कि क्या एआई सिस्टम की व्याख्या पर जोर देने वाले इंसान खुद को समझा सकते हैं।
लंबे समय तक, यह माना जाता था कि मानव व्यवहार सचेत, तर्कसंगत प्रक्रियाओं का परिणाम है। इसलिए कोई भी स्पष्टीकरण मनुष्य ने दिया कि उन्होंने जिस तरह से व्यवहार किया, वह लगभग हमेशा उस व्यवहार के लिए पर्याप्त स्पष्टीकरण माना जाता था। लेकिन तंत्रिका विज्ञान के आगमन के साथ यह मान्यता बदलने लगी। अब यह स्पष्ट है कि मानव मस्तिष्क की 11 मिलियन-बिट्स प्रसंस्करण क्षमता का 99.99% अचेतन स्तर पर काम करता है। इसलिए अधिकांश मानवीय व्यवहार चेतना की दहलीज के नीचे किए जाते हैं। यह बिल्कुल स्पष्ट है कि मनुष्य यह समझाने में सक्षम नहीं हैं कि उन्होंने जो किया वह क्यों किया। रॉबर्टो कार्लोस के किक के बारे में सोचो।
किसी भी मानव सीखने के शुरुआती चरणों में सचेत प्रक्रियाएँ शामिल होती हैं। जैसे-जैसे सीखना आगे बढ़ता है और जैसे-जैसे व्यक्ति विशेषज्ञ बनता जाता है, इस व्यक्ति को विशेषज्ञता का कार्य करने के लिए सचेत रूप से सोचने की आवश्यकता नहीं रह जाती है। यह कार्य अनजाने में किया जा सकता है। लेकिन क्या होता है अगर कोई विशेषज्ञ अपने प्रदर्शन के बारे में सचेत रूप से सोचने की कोशिश करता है? इसमें कोई संदेह नहीं है, इससे इसकी व्याख्यात्मकता में सुधार होगा। लेकिन जिस क्षण मनुष्य अपने अचेतन ज्ञान को चेतन स्तर पर लाने की कोशिश करता है, वह 'दम घुटने' की ओर प्रवृत्त होता है। एआई एल्गोरिदम में बेहतर व्याख्यात्मकता लाने पर जोर देकर, क्या हम इसकी दक्षता को 'चोक' कर देंगे?
इसमें कोई संदेह नहीं है कि एआई-सिस्टम व्याख्यात्मकता को सक्षम करने वाली तकनीकें त्रुटियों या सुधार के क्षेत्रों को अधिक तेज़ी से प्रकट कर सकती हैं। यह एआई सिस्टम की निगरानी करने वाली मशीन-लर्निंग ऑपरेशन टीमों के लिए उन सिस्टमों की कुशलता से निगरानी और रखरखाव करना आसान बना देगा। यह माना जाता है कि व्याख्यात्मकता संगठनों को जोखिमों को कम करने में मदद करती है। एआई सिस्टम जो नैतिक मानदंडों का उल्लंघन करते हैं, भले ही अनजाने में, गहन सार्वजनिक, मीडिया और नियामक जांच को प्रज्वलित कर सकते हैं। यदि एल्गोरिथम की व्याख्या की जा सकती है, तो कानूनी और जोखिम टीमें तकनीकी टीम द्वारा प्रदान किए गए स्पष्टीकरण का उपयोग यह स्थापित करने के लिए कर सकती हैं कि सिस्टम लागू कानूनों और विनियमों का अनुपालन करता है।
व्याख्यात्मकता जोखिम शमन में सुधार करने में मदद करती है। दुर्घटनाग्रस्त विमान के ब्लैक बॉक्स से मिले डेटा ने उन दुर्घटनाओं के कारणों को बेहतर ढंग से समझने और इसी तरह की दुर्घटनाओं को रोकने में मदद की है। लेकिन क्या बेहतर दक्षता की कीमत पर अधिक व्याख्यात्मकता होनी चाहिए?
तंत्रिका विज्ञान में हाल के विकास के बावजूद, हम किसी भी मानवीय क्रिया के 'क्यों' की व्याख्या करने से बहुत दूर हैं। मानव व्याख्यात्मकता में सुधार करके नहीं, बल्कि कार्यों के लिए अधिक जवाबदेही लेकर मानव जाति ने प्रगति की है। क्या हम अपने एल्गोरिदम को अधिक व्याख्यात्मक बनाने की तुलना में एआई सिस्टम को उनके आउटपुट की गुणवत्ता के लिए अधिक जवाबदेह बनाने पर ध्यान केंद्रित कर सकते हैं?
हार्वर्ड यूनिवर्सिटी, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी और पॉलिटेक्निक यूनिवर्सिटी ऑफ मिलान के शिक्षाविदों के एक अध्ययन से पता चलता है कि एआई सिस्टम की अत्यधिक व्याख्या कुछ अनोखी समस्याएं पैदा कर सकती है। लक्ज़री ब्रांडों के पोर्टफोलियो टेपेस्ट्री के कर्मचारियों को एआई-आधारित पूर्वानुमान मॉडल तक पहुंच प्रदान की गई। कर्मचारियों ने उन मॉडलों को रद्द करने की संभावना जताई जो वे समझ सकते थे क्योंकि गलती से उनके स्वयं के अंतर्ज्ञान के बारे में सुनिश्चित थे।
मानव व्यवहार की पेचीदगियों के बारे में जानने वालों को आश्चर्य नहीं होगा कि व्याख्यात्मकता एआई सिस्टम को अपनाने को प्रभावित करती है। जनता के बीच अज्ञानता की भावना जो पश्चिम में बनाई गई एक कुलीन लैटिन भाषा और भारत में संस्कृत ने इन समाजों में एक पुरोहित वर्ग द्वारा आयोजित श्रेष्ठता की लोकप्रिय स्वीकृति को बढ़ाने में एक लंबा रास्ता तय किया। अज्ञानता और विशेषज्ञता की भावनाएँ निकट से जुड़ी हुई हैं। यदि ऐसा है, तो क्या हम एआई सिस्टम की व्याख्यात्मकता में सुधार करके बेहतर अपनाने से समझौता कर रहे हैं?

सोर्स: livemint

Next Story