भारत
वास्तविक या संपादित वीडियो को गलत तरीके से 'डीपफेक' के रूप में लेबल करने की समस्या
Kajal Dubey
5 May 2024 7:18 AM GMT
x
नई दिल्ली: गृह मंत्री अमित शाह का एक संपादित वीडियो हाल ही में वायरल हुआ, जिसमें उन्हें अनुसूचित जनजाति, अनुसूचित जाति और अन्य पिछड़ा वर्ग के लिए आरक्षण समाप्त करने का झूठा वादा करते हुए दिखाया गया था। जबकि बूम की तथ्य-जांच में पाया गया कि वीडियो संपादन टूल का उपयोग करके वीडियो के साथ छेड़छाड़ की गई थी, इसे अन्य भारतीय जनता पार्टी के नेताओं और विभिन्न मुख्यधारा के मीडिया आउटलेट्स द्वारा 'डीपफेक' के रूप में गलत तरीके से लेबल किया गया था।
भारत में राजनीतिक दल इस चुनावी मौसम में एआई के साथ असंख्य प्रयोग कर रहे हैं। उदाहरण के लिए, राजनेताओं के एआई वॉयस क्लोन का उपयोग कैडर और मतदाता आउटरीच संदेश तैयार करने के लिए किया जा रहा है। राजनीतिक दल अपने राजनीतिक प्रतिद्वंद्वियों को निशाना बनाने के लिए व्यंग्यात्मक वीडियो का उपयोग करके किसी भी सोशल मीडिया नियमों का उल्लंघन कर रहे हैं, जो वॉयस क्लोनिंग, फेस स्वैप और अन्य एआई संपादन तकनीकों का उपयोग करते हैं। ये वीडियो उनके आधिकारिक इंस्टाग्राम और यूट्यूब हैंडल पर पोस्ट किए गए हैं।
हालाँकि, हानिकारक डीपफेक जो पूरी तरह से भ्रामक हैं, उन्हें या तो आईटी सेल कार्यकर्ताओं द्वारा, या प्रॉक्सी और फैले हुए अभिनेताओं के माध्यम से साझा किया जा रहा है, जो पार्टी और उनकी विचारधारा का समर्थन करते हैं। भारत में चुनावी मौसम के दौरान गलत सूचनाओं के चरम पर होने के कारण, अब तक ऑनलाइन देखी जाने वाली अधिकांश गलत सूचनाएं अभी भी सतही नकली या सस्ती नकली सूचनाओं से बनी हुई हैं।
हमेशा डीपफेक नहीं
इंडियन एक्सप्रेस, टाइम्स नाउ, रिपब्लिक और डीएनए जैसे कई मुख्यधारा के मीडिया आउटलेट्स ने अमित शाह के छेड़छाड़ किए गए वीडियो को डीपफेक करार दिया। महाराष्ट्र के सतारा में एक रैली में बोलते हुए प्रधानमंत्री नरेंद्र मोदी ने भी इस वीडियो को आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करके बदला गया बताया था.
हालाँकि, वीडियो का विश्लेषण करने पर, बूम ने पाया कि राज्य में 2023 के विधान चुनावों से पहले, तेलंगाना में मुसलमानों के लिए आरक्षण समाप्त करने पर शाह द्वारा दिए गए एक बयान को अप्रासंगिक बनाने के लिए, उनके भाषण के विभिन्न हिस्सों को जोड़कर इसमें छेड़छाड़ की गई है। हमारा विश्लेषण इस बात की पुष्टि करता है कि वीडियो 'डीपफेक' नहीं था - जैसे कि, इसे कृत्रिम बुद्धिमत्ता, या डीप लर्निंग एल्गोरिदम का उपयोग करके बदला या बनाया नहीं गया था।
पिछले साल, नवंबर में नई दिल्ली में अपने राष्ट्रीय मुख्यालय में भाजपा द्वारा आयोजित दिवाली मिलन में मीडिया को संबोधित करते हुए, मोदी ने 'डीपफेक' के खतरों पर प्रकाश डाला था। उदाहरण के तौर पर, उन्होंने अपने द्वारा देखे गए एक वीडियो का हवाला दिया, जिसमें कथित तौर पर वे खुद गरबा नृत्य कर रहे थे, और इसे डीपफेक कहा। बूम ने इस वीडियो की तथ्य-जांच की, और पाया कि यह न तो डीपफेक था, न ही संपादित, बल्कि यूके में एक दिवाली कार्यक्रम में विकास महंते नाम के नरेंद्र मोदी जैसे दिखने वाले व्यक्ति का गरबा नृत्य करते हुए एक वास्तविक वीडियो दिखाया गया था।
पहले चरण के चुनाव से कुछ दिन पहले, आज़मगढ़ से भाजपा उम्मीदवार दिनेश लाल यादव का एक वीडियो वायरल हुआ, जिसमें उन्हें यह कहते हुए देखा जा सकता है कि कैसे मोदी और यूपी के सीएम योगी आदित्यनाथ ने बेरोजगारी को रोकने के लिए निःसंतान रहना पसंद किया है। इस वीडियो को कांग्रेस समर्थकों द्वारा व्यापक रूप से साझा किए जाने के बाद, भाजपा आईटी सेल के प्रमुख अमित मालवीय ने ट्वीट कर दावा किया कि यह वीडियो डीपफेक है।
बूम ने डीपफेक डिटेक्शन टूल का उपयोग करके वीडियो का विश्लेषण किया, और इसे शूट करने वाले रिपोर्टर से मूल वीडियो फ़ाइल भी प्राप्त की, जिसने पुष्टि की कि वीडियो प्रामाणिक था। हालाँकि वायरल वीडियो में उनकी टिप्पणियों के क्रम को फिर से व्यवस्थित किया गया था, लेकिन यह कोई डीपफेक नहीं था, न ही इससे उनकी टिप्पणियों का अर्थ बदल गया।
इंटरनेट के कार्यकारी निदेशक प्रतीक वाघरे ने कहा, "हमें पूरी तरह से उम्मीद करनी चाहिए कि 'डीपफेक' शब्द का दुरुपयोग किया जाएगा। ठीक उसी तरह जैसे 'गलत सूचना' या 'फर्जी समाचार' जैसे शब्दों का इस्तेमाल किसी भी ऐसे सबूत को खारिज करने के लिए किया जाता था जो एक राजनीतिक अभिनेता को पसंद नहीं था।" फ्रीडम फाउंडेशन.
बूम से बात करते हुए, वाघरे ने 'डीपफेक' शब्द के दुरुपयोग के दो अलग-अलग प्रकार के मामलों पर प्रकाश डाला। "एक तो संपादित संस्करण, 'सस्ते नकली' और एक डीपफेक के बीच अंतर की बारीकियों के संदर्भ में जागरूकता की कमी हो सकती है। दूसरा, इसे डीपफेक कहकर सबूतों को सिरे से खारिज करना है।"
असली राजनीतिक डीपफेक
राजनीति में डीपफेक का इस्तेमाल कोई नई बात नहीं है. चुनाव के संदर्भ में इस तरह की तकनीक का पहला उपयोग 7 फरवरी, 2020 को देखा गया था - दिल्ली में विधान सभा चुनाव होने से एक दिन पहले। कई वीडियो सामने आए जिसमें भारतीय जनता पार्टी के नेता मनोज तिवारी आम आदमी पार्टी सरकार और उसके नेता अरविंद केजरीवाल की आलोचना करते हुए और लोगों से भाजपा को वोट देने का आग्रह करते हुए दिखाई दिए। इन वीडियो में तिवारी को अंग्रेजी, हिंदी और हरियाणा की एक हिंदी बोली में बोलते हुए दिखाया गया है। हालाँकि, वाइस ने पाया कि केवल हिंदी संस्करण मूल रूप से तिवारी द्वारा शूट किया गया था - अंग्रेजी और हरियाणवी संस्करण वास्तव में तिवारी के भाषणों के वीडियो पर प्रशिक्षित 'लिप-सिंक' डीपफेक एल्गोरिदम का उपयोग करके तैयार किए गए थे।
न तो भारत के चुनाव आयोग और न ही भाजपा ने तिवारी के डीपफेक वीडियो पर आधिकारिक तौर पर कोई टिप्पणी की है। अभी हाल ही में, बूम ने कई वीडियो की तथ्य-जांच की है जो कृत्रिम बुद्धिमत्ता का उपयोग करके बनाए गए या बदले गए थे, और चल रहे चुनावों के संदर्भ में साझा किए गए थे। चुनाव शुरू होने से एक हफ्ते से भी कम समय पहले, कांग्रेस नेता राहुल गांधी का एक वीडियो सोशल मीडिया पर सामने आया, जिसमें उन्हें पार्टी से अपने इस्तीफे की घोषणा करते हुए सुना जा सकता है। बूम ने पाया कि वीडियो में वास्तव में गांधी को केरल के वायनाड से अपना चुनाव नामांकन दाखिल करते हुए दिखाया गया था, जो एआई वॉयस क्लोनिंग के साथ कवर किया गया था।
चुनाव से कुछ ही दिन पहले, दो वीडियो वायरल हुए जिसमें बॉलीवुड अभिनेता आमिर खान और रणवीर सिंह भाजपा के नेतृत्व वाली सरकार की आलोचना कर रहे थे। बूम ने इन दोनों वीडियो का विश्लेषण किया, और एआई वॉयस क्लोनिंग का उपयोग करके उनमें बदलाव किए जाने के सबूत पाए।
चुनाव के पहले और दूसरे चरण के बीच एक और वीडियो सोशल मीडिया पर छाया रहा, जिसमें कांग्रेस नेता कमल नाथ को मस्जिद के निर्माण के लिए मुसलमानों को जमीन देने और अनुच्छेद 370 की बहाली का वादा करते हुए सुना जा सकता है। बूम ने पाया कि इस वीडियो में भी बदलाव किया गया था। नाथ की आवाज को एआई वॉयस क्लोन प्रतिकृति द्वारा प्रतिस्थापित किया जा रहा है।
भारत के चुनाव आयोग ने चुनावों के संदर्भ में इस तरह के एआई के नेतृत्व वाले दुष्प्रचार के उद्भव को स्वीकार करते हुए अभी तक कोई बयान नहीं दिया है। भारत में चुनावों से पहले भी इस साल की शुरुआत में पड़ोसी देश पाकिस्तान और बांग्लादेश में चुनावों के दौरान डीपफेक फैलाया गया था। हम डीपफेक को कैसे नियंत्रित कर सकते हैं? इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चन्द्रशेखर के असफल सलाहकार प्रयास के बाद, एआई का विनियमन भारत में बहस का एक गर्म विषय रहा है, जिसके कारण बड़े पैमाने पर भ्रम पैदा हुआ और मंत्री ने कई स्पष्टीकरण दिए। "चाहे आप 'डीपफेक' शब्द का उपयोग करना चाहें, चाहे आप 'सिंथेटिक मीडिया' के व्यापक मुद्दे को देखें, उन अवधारणाओं के बारे में स्पष्टता की आवश्यकता है जिन्हें हम विनियमित करने की कोशिश कर रहे हैं। और आज सार्वजनिक चर्चा के कारण यह गंदा हो रहा है यह," वाघरे बताते हैं। एआई टूल की नवीनता ने कई लोगों को भ्रमित कर दिया है कि वास्तव में किस पर चर्चा की जा रही है, और 'डीपफेक' शब्द के जानबूझकर दुरुपयोग से स्थिति और खराब होने की आशंका है। तो फिर ऐसी तकनीक के दुरुपयोग पर कैसे लगाम लगाई जा सकती है?
MeitY द्वारा अब निरस्त की गई सलाह का उल्लेख करते हुए, SFLC.in की स्वयंसेवी कानूनी सलाहकार, राधिका झालानी, "हर दिन बदलने की क्षमता के साथ, प्रौद्योगिकी की विकसित प्रकृति पर प्रकाश डालती हैं, और नए कानूनों के लिए एक संतुलित दृष्टिकोण की सिफारिश करती हैं।" 2024 वैश्विक स्तर पर एक प्रमुख चुनावी वर्ष है, डीपफेक चिंता का कारण है। राधिका ने बूम को बताया, "जो भी कानून लागू किया जाता है, उसमें अभिव्यक्ति की स्वतंत्रता के साथ तकनीक के दुरुपयोग को संतुलित करने की आवश्यकता होती है।" ) का उपयोग हानिकारक संदर्भ में किया जा रहा है। और मौजूदा कानून जालसाजी और पहचान की चोरी आदि के बारे में क्या कहते हैं? तब आप नियामक कमियों को पहचानते हैं, जहां वर्तमान में कानून कम पड़ रहे हैं। क्या हमें उन्हें कवर करने के लिए नए कानूनों की ज़रूरत है, क्या हमें कानूनों में संशोधन करने की ज़रूरत है, या निवारण तंत्र में सुधार करने की ज़रूरत है," वाघरे कहते हैं।
Tagsवास्तविकसंपादित वीडियोडीपफेकलेबलसमस्याrealedited videodeepfakelabelproblemजनता से रिश्ता न्यूज़जनता से रिश्ताआज की ताजा न्यूज़हिंन्दी न्यूज़भारत न्यूज़खबरों का सिलसिलाआज की ब्रेंकिग न्यूज़आज की बड़ी खबरमिड डे अख़बारहिंन्दी समाचारJanta Se Rishta NewsJanta Se RishtaToday's Latest NewsHindi NewsBharat NewsSeries of NewsToday's Breaking NewsToday's Big NewsMid Day Newspaper
Kajal Dubey
Next Story