AI को लेकर नैतिक चिंताएं वास्तविक हैं, इनकी जांच की जरूरत है: विशेषज्ञ

Update: 2024-12-20 10:11 GMT

Bengaluru बेंगलुरु: आर्टिफिशियल इंटेलिजेंस (AI) के बारे में नैतिक चिंताएँ गंभीर और वास्तविक हैं और उन्हें उस हद तक संबोधित नहीं किया जा रहा है, जितना किया जाना चाहिए।

"हम AI के प्रचार चक्र में हैं, जिसमें इस बात का बहुत कम अनुभवजन्य डेटा है कि यह हमें गहरे और महत्वपूर्ण सामाजिक और विकासात्मक मुद्दों को कम करने में कैसे मदद करेगा। इस समय AI और लार्ज लैंग्वेज मॉडल (LLM) के कथित लाभ अनुमानों की प्रकृति में अधिक हैं और जमीनी स्तर पर प्रभाव के ठोस सबूतों के साथ समर्थन की आवश्यकता है, खासकर जब बात वंचित और हाशिए के सामाजिक समूहों की हो," अंतर्राष्ट्रीय सूचना प्रौद्योगिकी संस्थान - बेंगलुरु (IIIT-B) के डिजिटल मानविकी और सामाजिक प्रणाली (DHSS) विभाग के प्रमुख प्रो. अमित प्रकाश ने TNIE को बताया।

26 नवंबर को, OpenAI के पूर्व कर्मचारी सुचिर बालाजी (26), जिन्होंने अपनी पूर्व कंपनी की प्रथाओं की खुले तौर पर आलोचना की थी, अपने सैन फ्रांसिस्को अपार्टमेंट में मृत पाए गए। बालाजी ने ChatGPT जैसे जनरेटिव AI मॉडल को प्रशिक्षित करने के लिए कॉपीराइट सामग्री के उपयोग और नैतिकता के बारे में चिंता जताई थी।

प्रकाश ने कहा, "डेटा सोर्सिंग और नैतिकता के बारे में उनकी (बालाजी की) चिंताएँ वास्तविक हैं और निराधार नहीं हैं। एआई जनरेटिव मॉडल को प्रशिक्षित करने के लिए किस डेटा का उपयोग किया जा रहा है? क्या कोई मजबूत सहमति तंत्र है? संभावित कॉपीराइट उल्लंघन का मुद्दा वास्तविक है और इसे संबोधित करने की आवश्यकता है।" वरिष्ठ शोधकर्ता ने विस्तार से बताया कि जबकि भारत और कई अन्य देशों में आईटी और डेटा सुरक्षा पर कानून हैं और साथ ही यूनेस्को (संयुक्त राष्ट्र शैक्षिक, वैज्ञानिक और सांस्कृतिक संगठन) जैसे बहुपक्षीय संगठनों और IEEE (इलेक्ट्रिकल और इलेक्ट्रॉनिक्स इंजीनियर्स संस्थान) जैसे पेशेवर निकायों द्वारा नैतिक एआई पर दिशानिर्देश हैं, "उन्हें लागू करने और लागू करने की संस्थागत व्यवस्था अभी भी प्रारंभिक अवस्था में है। वहाँ एक बहुत बड़ा शून्य है"। भारत में, डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023 के नियम अभी भी तैयार किए जाने हैं। "अयोग्य और लगभग सार्वभौमिक दावे कि AI, विशेष रूप से LLM, पूरी मानव जाति के लिए चीजों को बेहतर बनाएंगे, को अधिक आलोचनात्मक जांच के अधीन किया जाना चाहिए। यह पूरी तरह से स्पष्ट नहीं है कि किस तरह और किस तरह का AI मातृ मृत्यु, बाल कुपोषण को कम करने में मदद करेगा और भारत के दूरदराज के इलाकों में प्राथमिक स्वास्थ्य केंद्रों (PHC) और आंगनवाड़ी आदि की स्थिति में सुधार लाएगा।

हमारे पास अभी तक लाभों के ठोस उदाहरण नहीं हैं। ये गहन जन-केंद्रित डोमेन हैं, जिनके लिए राज्य को लोगों को केंद्र में रखते हुए नीतियां बनानी और लागू करनी होती हैं। इसके अलावा, अधिक पारदर्शिता और विविध दृष्टिकोणों की स्वीकृति की आवश्यकता है, जिसकी वर्तमान ब्रांड AI में कमी है," प्रकाश ने कहा।

"AI के प्रति आकर्षण शीर्ष-से-नीचे और केंद्रीकृत दृष्टिकोण से अधिक उत्पन्न होता है। बालाजी द्वारा जनरेटिव AI मॉडल बनाने के लिए डेटा के स्रोत और उपयोग पर उठाए गए सवालों पर अक्सर ध्यान नहीं दिया जाता है, शायद AI के इर्द-गिर्द अपरिहार्यता के प्रचार के कारण। ऐसा लगता है कि बहुत से लोग पीछे छूट जाने के डर से इस दल में शामिल हो रहे हैं।

समाज के हाशिए पर पड़े वर्गों और बड़े पैमाने पर मानवता की मदद करने का वादा करने वाली प्रौद्योगिकियों को आम तौर पर कड़ी जांच और विनियामक निगरानी के तहत रखा जाता है; एआई और एलएलएम को भी ऐसा ही करना चाहिए। उनके बारे में संदेह और दुविधाओं के लिए स्पष्ट उत्तर और समाधान रणनीतियों की आवश्यकता है। उन्हें ‘नवाचार’ को प्रभावित करने के नाम पर नहीं धकेला जाना चाहिए,” प्रकाश ने कहा।

Tags:    

Similar News

-->