आंध्र प्रदेश

आर्टिफिशियल इंटेलिजेंस के उदय के साथ सत्य को परखना एक कठिन कार्य बन गया

Triveni
8 May 2024 6:05 AM GMT
आर्टिफिशियल इंटेलिजेंस के उदय के साथ सत्य को परखना एक कठिन कार्य बन गया
x

विशाखापत्तनम: एक स्थानीय चाय की दुकान के राजनीतिक रूप से व्यस्त माहौल में बैठे पहली बार के मतदाता ने भौंहों के साथ अपने समाचार फ़ीड को स्क्रॉल करते हुए टिप्पणी की, "इन दिनों जब भी मैं कुछ ऑनलाइन देखता हूं, तो यह मुझे इसकी प्रामाणिकता पर सवाल उठाने पर मजबूर कर देता है।"

राव, जिन्होंने 18 साल की उम्र से हर चुनाव में मतदान किया है, स्क्रीन की ओर देखते हुए, करीब झुक जाते हैं। “क्या यह स्पष्ट नहीं है? यह मुझे बिल्कुल वास्तविक लगता है,'' वह जवाब देता है, जैसे ही एक वैन से राजनीतिक जिंगल पृष्ठभूमि में फीका पड़ जाता है।
इस तरह के आदान-प्रदान प्रौद्योगिकी में क्रांतिकारी बदलाव की दोहरी प्रकृति को रेखांकित करते हैं, खासकर चुनाव प्रचार में। जबकि आर्टिफिशियल इंटेलिजेंस (एआई) का उदय संदेशों को बढ़ाने और पहले से कहीं अधिक मतदाताओं से जुड़ने में मदद कर सकता है, यह गलत सूचनाओं के द्वार भी खोलता है, जिससे सच्चाई को समझने का काम एक भूलभुलैया में बदल जाता है। जैसे-जैसे आंध्र प्रदेश में मतदाता चुनाव की ओर बढ़ रहे हैं, कानूनी विशेषज्ञ डीप फेक - जोड़-तोड़ करने वाले मशीन लर्निंग टूल्स पर चिंता जता रहे हैं, जो किसी की नकल करने के लिए पूरी तरह से झूठी सामग्री बना सकते हैं। वे इस बात पर जोर देते हैं कि जेनेरिक एआई के युग में, सूचित चुनावी निर्णय लेने के लिए न केवल जानकारी तक पहुंच की आवश्यकता होती है, बल्कि इसकी वैधता को सत्यापित करने के लिए सतर्कता की भी आवश्यकता होती है।
उदाहरण के लिए, सोशल मीडिया पर फैली एक विवादास्पद ऑडियो क्लिप, जिसमें कथित तौर पर नारा भुवनेश्वरी अपने कर्मचारियों को डांट रही थी, ने हाल ही में एक बहस छेड़ दी। जबकि टीडीपी नेताओं और समर्थकों ने इसे राजनीति से प्रेरित डीप फेक बताया, वहीं कुछ स्वतंत्र तथ्य-जांचकर्ताओं ने जोर देकर कहा कि ऑडियो वास्तविक था। यह घटना उन कई घटनाओं में से एक है जो इस चुनावी मौसम में एक औसत मतदाता को तेजी से विकसित हो रही कृत्रिम बुद्धिमत्ता के साथ सामना करने वाले जटिल और अक्सर भ्रामक परिदृश्यों पर प्रकाश डालती है।
चुनावों में हस्तक्षेप करने की एआई की क्षमता और डीप फेक से निपटने के तरीकों के बारे में बताते हुए, साइबर सुरक्षा विशेषज्ञ और एंटरसॉफ्ट सिक्योरिटी के संस्थापक मोहन गांधी कहते हैं कि सिंथेटिक अराजकता से प्रेरित नैतिक घबराहट वास्तव में अंतिम समय में हलचल पैदा कर सकती है। उनका मानना ​​है कि चुनावी गलत सूचना, विशेष रूप से गहरी नकली जानकारी के इस नए जोखिम का मुकाबला करने का उत्तर मानव-केंद्रित एआई में निहित है, जो बिल्कुल भी काले और सफेद क्षेत्र में नहीं है।
स्थानीय संदर्भ से परे एआई को विनियमित करने की तकनीकी जटिलता की ओर इशारा करते हुए, क्योंकि निष्पक्षता और मनोबल की व्याख्याएं बहुत भिन्न होती हैं, उन्होंने जोर देकर कहा कि प्रत्येक उपकरण अपने डेवलपर और अंतिम उपयोगकर्ता के नैतिक व्यवहार को प्रतिबिंबित करता है।
टेक कंपनियों की सॉफ्टवेयर विकास स्तर पर स्पष्ट सहमति और कड़े फ़िल्टरिंग की आवश्यकताओं की कमी, इन उपकरणों के उपयोगकर्ताओं के दुरुपयोग के साथ मिलकर, अन्य पहचान तकनीकों और सामुदायिक सतर्कता पर निर्भरता को पहचानने, रिपोर्ट करने और हेरफेर की गई सामग्री को हटाने के लिए मजबूर करती है। हालाँकि, यह प्रक्रिया हिट या मिस हो सकती है। मोहन विवरण, सस्ते और व्यापक रूप से सुलभ एआई टूल ने इंटरनेट एक्सेस वाले लगभग किसी भी व्यक्ति के लिए सिद्धांतित छवियां, वीडियो, रोबोकॉल और वॉयस क्लोन बनाना संभव बना दिया है। जबकि वीडियो में अक्सर ऑडियो-वीडियो सिंक में विसंगतियों और चेहरे की विसंगतियों जैसे सूक्ष्म संकेत होते हैं जो हेरफेर का संकेत दे सकते हैं, वॉयस-क्लोनिंग तकनीक इतनी परिष्कृत हो गई है कि इन नकलों को वास्तविक रिकॉर्डिंग से अलग करना बेहद मुश्किल हो रहा है।
उनका कहना है कि एआई का पता लगाने वाले उपकरण भी अक्सर क्षेत्रीय भाषाओं और प्रासंगिक बारीकियों को समझने में कम पड़ जाते हैं, बावजूद इसके कि वे मानव आंख की तुलना में कहीं अधिक सूक्ष्म स्तर पर विसंगतियों के लिए नकली सामग्री का विश्लेषण करने में सक्षम हैं।
जबकि आईटी नियम हेरफेर की गई सामग्री को संबोधित करने के लिए एक रूपरेखा प्रदान करते हैं, विशेषज्ञों के अनुसार प्रभावशीलता, काफी हद तक बिचौलियों (सोशल मीडिया प्लेटफॉर्म) की परिचालन क्षमताओं पर निर्भर करती है। क्योंकि इस रिपोर्ट की गई/ध्वजांकित सामग्री के सत्यापन के लिए फिर से मानव मॉडरेटर या एआई डिटेक्शन टूल की आवश्यकता होती है।
एक बार जब किसी व्यक्ति की निजी जानकारी 'बाहर' आ जाती है, तो यह एक पेंडोरा बॉक्स खोलता है। एक बार जब कोई पकड़ में आ जाता है तो कृत्रिम अराजकता पानी को गंदा कर देती है।
मोहन का कहना है कि सरकार को स्पष्ट सहमति तंत्र को सख्ती से लागू करने और तकनीकी कंपनियों को अनुपालन सुनिश्चित करने की आवश्यकता है, जिससे उपयोगकर्ताओं को स्रोत पर अपनी व्यक्तिगत जानकारी को नियंत्रित करने की अनुमति मिल सके। उन्होंने नोट किया कि कुछ उपकरण पहले से ही इस तरह से कार्य करते हैं।
इसके अतिरिक्त, उनका मानना ​​है कि सरकार जनता के बीच डिजिटल साक्षरता और जागरूकता को बढ़ावा देने के लिए Google या व्हाट्सएप जैसी प्रमुख तकनीकी कंपनियों और कई हितधारकों के साथ सहयोग करके ऑनलाइन गलत सूचना से निपटने में मदद कर सकती है।
मोहन ने साझा किया कि उन्होंने पहले ही एक एल्गोरिदम का परीक्षण कर लिया है जिसे मेटा (पूर्व में फेसबुक) व्हाट्सएप पर जारी कर रहा है, जो एआई-जनरेटेड मीडिया का पता लगा सकता है। सटीक जानकारी तक पहुंच की सुरक्षा के लिए भारत सरकार के साथ सहयोग करने के लिए Google, मेटा और ओपनएआई जैसे तकनीकी दिग्गजों के आश्वासन के हिस्से के रूप में, मेटा ने व्हाट्सएप पर एक समर्पित तथ्य-जांच हेल्पलाइन संचालित करने के लिए भारत के गलत सूचना मुकाबला गठबंधन (एमसीए) के साथ साझेदारी की है। हेल्पलाइन में तेलुगु में सहायता शामिल है।
इसके अलावा, गलत सूचनाओं, विशेष रूप से डीप फेक का मुकाबला करने के लिए, मोहन डीप फेक ऑडियो का पता लगाने के लिए एक मैनुअल दृष्टिकोण का सुझाव देते हैं: पृष्ठभूमि शोर पर बारीकी से ध्यान देना। जबकि ये तकनीकें इंसान की आवाज की नकल करने में माहिर हैं

खबरों के अपडेट के लिए जुड़े रहे जनता से रिश्ता पर |

Next Story