- Home
- /
- अन्य खबरें
- /
- सम्पादकीय
- /
- खराब डेटा आधारित एआई...
x
ख़राब डेटा न केवल बुरे परिणाम उत्पन्न करता है। यह समाज के वर्गों, उदाहरण के लिए कमजोर महिलाओं और अल्पसंख्यकों, को दबाने में भी मदद कर सकता है। यह नस्लवाद और लिंगवाद के विभिन्न रूपों और कृत्रिम बुद्धिमत्ता (एआई) के बीच संबंधों पर मेरी नई किताब का तर्क है। समस्या विकट है. एल्गोरिदम को आम तौर पर डेटा के संपर्क में आने की आवश्यकता होती है - जो अक्सर इंटरनेट से लिया जाता है - ताकि वे जो कुछ भी करते हैं उसमें सुधार किया जा सके, जैसे कि नौकरी के अनुप्रयोगों की स्क्रीनिंग, या बंधक ऋण की हामीदारी। लेकिन प्रशिक्षण डेटा में अक्सर वास्तविक दुनिया में मौजूद कई पूर्वाग्रह शामिल होते हैं।
उदाहरण के लिए, एल्गोरिदम यह जान सकता है कि किसी विशेष नौकरी भूमिका में अधिकांश लोग पुरुष हैं और इसलिए नौकरी अनुप्रयोगों में पुरुषों को प्राथमिकता देते हैं। हमारा डेटा "ज्ञानोदय" के युग से मिथकों के एक समूह द्वारा प्रदूषित है, जिसमें पूर्वाग्रह भी शामिल हैं जो लिंग और यौन पहचान के आधार पर भेदभाव का कारण बनते हैं। उन समाजों के इतिहास को देखते हुए जहां नस्लवाद ने सामाजिक और राजनीतिक व्यवस्था स्थापित करने में भूमिका निभाई है, उदाहरण के लिए यूरोप, उत्तरी अमेरिका और ऑस्ट्रेलिया में श्वेत पुरुषों को विशेषाधिकार प्रदान किए गए हैं - यह मान लेना सरल विज्ञान है कि नस्लवादी भेदभाव के अवशेष हमारी तकनीक में फ़ीड करें। पुस्तक के लिए अपने शोध में, मैंने कुछ प्रमुख उदाहरणों का दस्तावेजीकरण किया है। चेहरा पहचानने वाले सॉफ्टवेयर आमतौर पर काले और एशियाई अल्पसंख्यकों की गलत पहचान करते हैं, जिससे अमेरिका और अन्य जगहों पर झूठी गिरफ्तारियां होती हैं। आपराधिक न्याय प्रणाली में उपयोग किए जाने वाले सॉफ़्टवेयर ने भविष्यवाणी की है कि काले अपराधियों की अपराध दर उनकी तुलना में अधिक होगी। स्वास्थ्य देखभाल संबंधी झूठे फैसले लिए गए हैं। एक अध्ययन में पाया गया कि अमेरिकी स्वास्थ्य प्रबंधन में उपयोग किए जाने वाले एल्गोरिदम द्वारा काले और सफेद रोगियों को समान स्वास्थ्य जोखिम स्कोर दिया गया था, काले रोगी अक्सर अपने सफेद समकक्षों की तुलना में अधिक बीमार थे। इससे अतिरिक्त देखभाल के लिए पहचाने जाने वाले काले रोगियों की संख्या आधे से भी कम हो गई। चूँकि काले रोगियों पर कम पैसा खर्च किया गया था जिनकी आवश्यकता श्वेत लोगों के समान थी, एल्गोरिथ्म ने गलत निष्कर्ष निकाला कि काले रोगी समान रूप से बीमार श्वेत रोगियों की तुलना में अधिक स्वस्थ थे। अल्पसंख्यक आबादी के लिए बंधकों को अस्वीकार करने की सुविधा पक्षपातपूर्ण डेटा सेटों द्वारा दी जाती है।
सूची चलती जाती है। मशीनें झूठ नहीं बोलतीं? ऐसे दमनकारी एल्गोरिदम हमारे जीवन के लगभग हर क्षेत्र में घुसपैठ करते हैं। एआई मामले को बदतर बना रहा है, क्योंकि यह हमें अनिवार्य रूप से निष्पक्ष रूप में बेचा जाता है। हमें बताया गया है कि मशीनें झूठ नहीं बोलतीं। इसलिए, तर्क यह है कि किसी को दोषी नहीं ठहराया जा सकता। यह छद्म-निष्पक्षता सिलिकॉन वैली तकनीकी दिग्गजों द्वारा बनाए गए एआई-प्रचार के केंद्र में है। इसे एलन मस्क, मार्क जुकरबर्ग और बिल गेट्स के भाषणों से आसानी से समझा जा सकता है, भले ही वे कभी-कभी हमें उन परियोजनाओं के बारे में चेतावनी देते हैं जिनके लिए वे स्वयं जिम्मेदार हैं। दांव पर विभिन्न अनसुलझे कानूनी और नैतिक मुद्दे हैं। गलतियों के लिए कौन जिम्मेदार है? क्या कोई किसी एल्गोरिदम के लिए मुआवज़े का दावा कर सकता है जो उन्हें उनकी जातीय पृष्ठभूमि के आधार पर पैरोल से इनकार कर रहा है, उसी तरह जैसे कोई रसोईघर में विस्फोट हुए टोस्टर के लिए कर सकता है? एआई तकनीक की अपारदर्शी प्रकृति कानूनी प्रणालियों के लिए गंभीर चुनौतियां खड़ी करती है जो व्यक्तिगत या मानवीय जवाबदेही के आसपास बनाई गई हैं। अधिक मौलिक स्तर पर, बुनियादी मानवाधिकारों को खतरा है, क्योंकि अपराधियों और भेदभाव के विभिन्न रूपों के बीच रखे गए प्रौद्योगिकी के चक्रव्यूह से कानूनी जवाबदेही धुंधली हो गई है, जिसका दोष मशीन पर आसानी से लगाया जा सकता है।
जातिवाद हमेशा से समाज को व्यवस्थित करने की एक व्यवस्थित रणनीति रही है। यह अमीरों और गरीबों के बीच पदानुक्रम बनाता है, वैध बनाता है और लागू करता है। ऐसी दुनिया में नैतिक और कानूनी शून्यता, जहां सत्य और वास्तविकता को असत्य से अलग करना मुश्किल है, हमारी गोपनीयता को कानूनी रूप से संरक्षित करने की आवश्यकता है। निजता के अधिकार और हमारे आभासी और वास्तविक जीवन डेटा के सहवर्ती स्वामित्व को एक मानव अधिकार के रूप में संहिताबद्ध करने की आवश्यकता है, कम से कम उन वास्तविक अवसरों का लाभ उठाने के लिए जो मानव सुरक्षा के लिए अच्छे एआई द्वारा प्रदान किए जाते हैं। लेकिन जैसा कि स्थिति है, नवप्रवर्तक हमसे बहुत आगे हैं। प्रौद्योगिकी ने कानून को पीछे छोड़ दिया है। इस प्रकार पैदा हुई नैतिक और कानूनी शून्यता का अपराधियों द्वारा आसानी से फायदा उठाया जाता है, क्योंकि यह बहादुर नई एआई दुनिया काफी हद तक अराजक है। अतीत की गलतियों से आंखें मूंदकर, हम डिजिटल दुनिया की हिंसा पर निगरानी रखने के लिए बिना किसी शेरिफ के एक जंगली पश्चिम में प्रवेश कर गए हैं, जो हमारे रोजमर्रा के जीवन को घेर रही है। त्रासदियाँ पहले से ही दैनिक आधार पर हो रही हैं। अब कानून के समर्थन में एक ठोस सामाजिक आंदोलन के साथ नैतिक, राजनीतिक और सामाजिक लागतों का मुकाबला करने का समय आ गया है। पहला कदम खुद को इस बारे में शिक्षित करना है कि अभी क्या हो रहा है, क्योंकि हमारा जीवन कभी भी एक जैसा नहीं रहेगा। इस नए एआई भविष्य के लिए कार्य योजना बनाना हमारी जिम्मेदारी है। केवल इस तरह से स्थानीय, राष्ट्रीय और वैश्विक संस्थानों में एआई के अच्छे उपयोग को संहिताबद्ध किया जा सकता है।
CREDIT NEWS : thehansindia
Next Story