सम्पादकीय

हमें एआई, डीप फेक को विनियमित करने के लिए कानूनी ढांचे की आवश्यकता है

11 Feb 2024 3:24 AM GMT
हमें एआई, डीप फेक को विनियमित करने के लिए कानूनी ढांचे की आवश्यकता है
x

सभी प्रकार के लोगों को लक्षित करने वाले डीप फेक वीडियो के उदय ने खतरे की घंटी बजा दी है, जिससे व्यापक चिंता पैदा हो गई है और डीप फेक तकनीक के दुरुपयोग को रोकने की तत्काल आवश्यकता है। संयुक्त राज्य अमेरिका की सीनेट ने द्विदलीय कानून पेश किया है जिसे डिसरप्ट एक्सप्लिसिट फोर्ज्ड इमेजेज …

सभी प्रकार के लोगों को लक्षित करने वाले डीप फेक वीडियो के उदय ने खतरे की घंटी बजा दी है, जिससे व्यापक चिंता पैदा हो गई है और डीप फेक तकनीक के दुरुपयोग को रोकने की तत्काल आवश्यकता है। संयुक्त राज्य अमेरिका की सीनेट ने द्विदलीय कानून पेश किया है जिसे डिसरप्ट एक्सप्लिसिट फोर्ज्ड इमेजेज एंड नॉन-कंसेन्सुअल एडिट्स (डिफियंस) एक्ट कहा जाता है। यह कानून व्यक्ति की सहमति के बिना कृत्रिम बुद्धिमत्ता द्वारा बनाई गई गैर-सहमति वाली, कामुक छवियों और वीडियो को साझा करना अवैध बना देगा। इसी तरह, यूरोपीय संघ के प्रस्तावित आर्टिफिशियल इंटेलिजेंस अधिनियम का उद्देश्य डीप फेक को संबोधित करने के लिए सख्त नियम प्रदान करना है। जैसे-जैसे यह तकनीक जनता के लिए अधिक उपलब्ध होती जा रही है, बड़ी संख्या में देश डीप फेक की दुविधा से जूझ रहे हैं और इस समस्या से कैसे निपटा जाए।

इंटरनेशनल सेंटर ऑफ काउंटर-टेररिज्म के लिए एक नीति संक्षिप्त में, जिसका शीर्षक 'डीप फेक डिजिटल धोखे का हथियार' है, सुदूर दक्षिणपंथी एला बुश और जैकब वेयर ने कहा, "शब्द, 'डीप फेक', डीप लर्निंग की अवधारणा से लिए गए हैं।" , कृत्रिम बुद्धिमत्ता-मशीन लर्निंग (एआई/एमएल) का एक उपसमूह। डीप लर्निंग एल्गोरिदम गहरे तंत्रिका नेटवर्क से बने होते हैं, जो मानव मस्तिष्क को इस तरह से अनुकरण करते हैं जो एआई को बड़ी मात्रा में डेटा से 'सीखने' में सक्षम बनाता है। पाठ और छवियों जैसे असंरचित डेटा को संसाधित करने की क्षमता के कारण डीप लर्निंग मशीन लर्निंग से अद्वितीय है, जो इसे डीप फेक वीडियो, ऑडियो, चित्र या टेक्स्ट बनाने के लिए आदर्श बनाती है। डीप फेक एक विशिष्ट डीप लर्निंग एल्गोरिदम का उपयोग करके बनाए जाते हैं जिसे जेनेरेटिव एडवरसैरियल नेटवर्क (जीएएन) कहा जाता है। GAN, जिसे पहली बार 2014 में शोधकर्ता इयान गुड फेलो द्वारा विकसित किया गया था, में दो तंत्रिका नेटवर्क शामिल हैं - एक जनरेटर एल्गोरिदम और एक विभेदक एल्गोरिदम। जनरेटर एल्गोरिदम एक नकली छवि (या मीडिया का अन्य रूप) बनाता है और विवेचक मीडिया की प्रामाणिकता का आकलन करता है। स्थिर स्थिति तक पहुंचने तक कार्रवाई घंटों या दिनों तक दोहराई जाती है, जिसमें न तो जनरेटर और न ही विवेचक अपने प्रदर्शन में सुधार कर सकते हैं।

दूसरे शब्दों में, डीप फेक एक प्रकार का सिंथेटिक मीडिया है जिसमें डीप-जेनरेटिव तरीकों के माध्यम से किसी के चेहरे की बनावट में हेरफेर शामिल होता है। हालाँकि किसी के चेहरे या आवाज़ की नकल करने की तकनीक नई नहीं है, लेकिन डीप फेक के बारे में जो क्रांतिकारी है, वह है जेनेरेटिव एडवरसैरियल नेटवर्क्स (जीएएन) पर निर्भरता। GAN दो AI मॉडल पर भरोसा करते हैं जो मिलकर काम करते हैं। पहला एआई मॉडल, जालसाज, दिए गए नमूने के आधार पर किसी के चेहरे से छेड़छाड़ करने में मदद करता है। दूसरा एआई मॉडल, जासूस, जालसाज की रचना की जांच करता है और, फेस ट्रेनिंग डेटा के आधार पर, इसके नकली होने के सभी कारणों की पहचान करता है। इसके बाद जालसाज जासूस द्वारा उपलब्ध कराए गए इनपुट के आधार पर सुधार करता है। सुधार की यह प्रक्रिया तब तक जारी रहती है जब तक जासूस वास्तविक छवि और उत्पन्न छवि के बीच कोई अंतर खोजने में असमर्थ नहीं हो जाता।

किसी भी तकनीक की तरह, डीप फेक के सकारात्मक और नकारात्मक दोनों उपयोग होते हैं। फिल्म निर्माता बड़े पैमाने पर इस तकनीक का उपयोग फिल्मों का अनुवाद करने, अभिनेताओं की उम्र/उम्र कम करने, फिल्म निर्माण को गति देने और इसकी लागत कम करने में मदद करने के लिए कर रहे हैं। शिक्षा के क्षेत्र में, डीप फेक बहुत अधिक नवीन पाठ बनाने में मदद कर सकते हैं जो सीखने के पारंपरिक रूप की तुलना में कहीं अधिक आकर्षक हैं। इसका उपयोग ऐतिहासिक क्षणों को फिर से प्रस्तुत करने के लिए किया जा सकता है; मानव शरीर रचना विज्ञान को समझने और वास्तुकला में सहायता करने में सहायता करें। इसका उपयोग चिकित्सा शोधकर्ताओं द्वारा वास्तविक रोगियों के बिना बीमारियों के इलाज के नए तरीके विकसित करने के लिए भी किया जा सकता है। डीप फेक के अनेक लाभ हैं।

दूसरी ओर, वित्तीय घोटाले, गलत सूचना फैलाने और यौन रूप से स्पष्ट वीडियो साझा करने जैसे अपराध करने के लिए डीप फेक का बड़े पैमाने पर उपयोग किया जा रहा है। यूरोपोल की इनोवेशन लैब के अनुसार, डीप फेक संगठित अपराधों के लिए एक प्रमुख उपकरण बन सकते हैं, क्योंकि इनका उपयोग बड़े पैमाने पर धमकाने, बौद्धिक संपदा के उल्लंघन की अनुमति देने, धोखाधड़ी वाले दस्तावेजों को सुविधाजनक बनाने, सबूतों में हेरफेर करने, आतंकवाद का समर्थन करने और सामाजिक अशांति और राजनीतिक ध्रुवीकरण को बढ़ावा देने के लिए किया जा सकता है। ऐसी खबरें आई हैं कि पिछले विधानसभा चुनावों में विरोधियों को बदनाम करने के लिए डीप फेक का इस्तेमाल किया गया था और अगर कोई कदम नहीं उठाया गया तो 2024 के आम चुनावों के दौरान ये बड़े पैमाने पर फैल सकते हैं।

यह लेखक स्वयं, उनकी आवाज़ का प्रतिरूपण करते हुए एक गहरे नकली वीडियो का शिकार था, जिसे 2019 के संसदीय चुनावों में मतदान से एक दिन पहले दुर्भावनापूर्ण रूप से प्रसारित किया गया था। सौभाग्य से, यह प्रतिरूपण इतना कच्चा और नौसिखिया था कि इससे पहले कि यह पर्याप्त प्रतिष्ठा और चुनावी क्षति कर पाता, इसे पकड़ लिया गया और उजागर कर दिया गया। बहरहाल, गहरी जालसाजी ने अंततः मतदाताओं के एक निश्चित वर्ग के मन में आशंकाएँ पैदा कर दीं।

एआई और डीप फेक के नियमन के संबंध में राज्यसभा में उठाए गए एक अतारांकित प्रश्न के जवाब में, सूचना और प्रसारण मंत्रालय ने कहा कि यह वर्तमान में आईपीसी की धारा 469 (प्रतिष्ठा को नुकसान पहुंचाने के उद्देश्य से जालसाजी) और सूचना प्रौद्योगिकी पर निर्भर है। (मध्यवर्ती दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 (आईटी नियम, 2021), डीप फेक के मुद्दे को संबोधित करने के लिए। ये नियम एक दायित्व लागू करते हैं n सोशल मीडिया मध्यस्थों को निषिद्ध गलत सूचना, स्पष्ट रूप से गलत जानकारी और गहरी नकली जानकारी को शीघ्र हटाने को सुनिश्चित करने के लिए। दुर्भाग्य से, ये नियम डीप फेक के मुद्दे को प्रभावी ढंग से संबोधित करने में विफल हैं। इसके अलावा, ये नियम अत्यधिक अस्पष्ट और सामान्य हैं, जिनमें डीप फेक को विनियमित करने के लिए पर्याप्त उपायों का अभाव है। यहां तक कि प्रस्तावित डिजिटल इंडिया विधेयक भी ऐसा कोई प्रावधान या सिद्धांत प्रदान करने में विफल रहा है जिस पर मंत्रालय डीप फेक को विनियमित करते समय भरोसा करना चाहता है। इस प्रकार, एक कानूनी शून्यता मौजूद है जिसके परिणामस्वरूप डीप फेक को उचित रूप से विनियमित करने में विफलता होती है।

इस शून्यता के परिणामस्वरूप भारत में एआई और गहरे नकली-संबंधित अपराध में वृद्धि हुई है। एआई वॉयस घोटाले पर मैक्एफ़ी के सर्वेक्षण के अनुसार, लगभग 47 प्रतिशत भारतीय वयस्कों ने किसी न किसी रूप में एआई वॉयस घोटाले का अनुभव किया है, जो वैश्विक औसत 25 प्रतिशत से लगभग दोगुना है। इसके अलावा, यूके स्थित समसब आइडेंटिटी फ्रॉड रिपोर्ट के अनुसार, भारत में डीप फेक की संख्या में 1,700 प्रतिशत की वृद्धि देखी गई है। इससे स्पष्ट रूप से पता चलता है कि भारत प्रौद्योगिकी में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए गंभीर रूप से अविकसित और तैयार नहीं है।

पहली औद्योगिक क्रांति ने कृषि और मैन्युअल श्रम से मशीन-संचालित विनिर्माण तक संक्रमण को सक्षम करके दुनिया को मौलिक रूप से बदल दिया। इसी तरह, एआई क्रांति तुलनीय प्रतिमान बदलाव की क्षमता रखती है। यदि भारत इस एआई क्रांति का लाभ उठाना चाहता है, तो उसे यह सुनिश्चित करना होगा कि वह आने वाली चुनौतियों से निपटने के लिए तैयार है।

यूरोपोल का अनुमान है कि वर्ष 2026 तक लगभग 90 प्रतिशत ऑनलाइन सामग्री कृत्रिम रूप से उत्पन्न हो सकती है। इससे हमारे एक-दूसरे के साथ बातचीत करने, जानकारी का उपभोग करने और इंटरनेट पर समय बिताने के तरीके में काफी बदलाव आएगा। संयुक्त राज्य अमेरिका और यूरोपीय संघ के समान, भारत को भी कृत्रिम बुद्धिमत्ता और डीप फेक के उदय से निपटने के लिए एक कानून की आवश्यकता है।

अगली संसद को इस मुद्दे के समाधान के लिए स्वत: संज्ञान लेते हुए संसद की एक संयुक्त समिति का गठन करना चाहिए और यह सुनिश्चित करना चाहिए कि सभी संबंधित हितधारकों के साथ उचित परामर्श किया जाए। उद्देश्य एक व्यापक कानून का मसौदा तैयार करना होना चाहिए जो सभी हितधारकों के दृष्टिकोण को ध्यान में रखे, और एक ऐसे कानून को आकार देने में मदद करे जो व्यापक रूप से व्यापक होने से पहले गहरी नकली की चुनौती से निपट सके।

Manish Tewari

    Next Story