- Home
- /
- प्रौद्योगिकी
- /
- डीपफेक लोगों या...
प्रौद्योगिकी
डीपफेक लोगों या राजनेताओं को बदनाम करने में मदद कर सकते हैं- विशेषज्ञ
Harrison
10 March 2024 2:08 PM GMT
x
नई दिल्ली। चूंकि इस साल दुनिया भर में अरबों लोग चुनाव में मतदान करेंगे, विशेषज्ञों ने कहा कि डीपफेक वीडियो और वॉयस सिंकिंग जैसी कृत्रिम बुद्धिमत्ता (एआई) तकनीक के बढ़ते खतरों का इस्तेमाल जनता की राय को प्रभावित करने, लोगों या राजनेताओं को बदनाम करने में मदद के लिए किया जा सकता है। रविवार।इस साल भारत समेत दुनियाभर के 50 से ज्यादा देशों में चुनाव होंगे।चेक प्वाइंट सॉफ्टवेयर टेक्नोलॉजीज के सेल्स, भारत और सार्क प्रमुख हरीश कुमार जीएस ने कहा, "डीपफेक लोकतंत्र के लिए एक महत्वपूर्ण खतरा हैं, क्योंकि उन्हें अक्सर विचारों में हेरफेर करने, स्टॉक की कीमतों को प्रभावित करने और गलत सूचना पैदा करने के लिए हथियार बनाया जाता है।"उन्होंने कहा, "इन डीपफेक वीडियो और वॉयस सिंकिंग का इस्तेमाल जनता की राय को प्रभावित करने, व्यक्तियों या राजनेताओं को बदनाम करने, विशेष रूप से चुनाव जैसे महत्वपूर्ण समय के दौरान, राजनीतिक पार्टी को बाधित करने और राजनेता की छवि और प्रतिष्ठा को नष्ट करने और लोकतांत्रिक प्रणाली को परेशान करने में मदद करने के लिए किया जा सकता है।"2017 के अंत में डीपफेक सामग्री का प्रसार बढ़ गया, जिसमें 7,900 से अधिक वीडियो ऑनलाइन थे।
विशेषज्ञों के अनुसार, 2019 की शुरुआत तक यह संख्या लगभग दोगुनी होकर 14,678 हो गई और यह प्रवृत्ति लगातार बढ़ रही है।हाल ही में, राष्ट्रपति चुनावों के दौरान नागरिकों को भ्रमित करने के लिए पूर्व अमेरिकी राष्ट्रपति बिल क्लिंटन और वर्तमान राष्ट्रपति जो बिडेन के डीपफेक वीडियो बनाए गए और प्रसारित किए गए।इसी तरह, रूस के खिलाफ लड़ाई में सैनिकों से आत्मसमर्पण करने का आग्रह करने वाले यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की का एक डीपफेक वीडियो सोशल मीडिया पर साझा किया गया, जिससे दहशत और भ्रम पैदा हुआ।भारत सरकार ने एक्स और मेटा जैसे सोशल मीडिया प्लेटफार्मों को निर्देश जारी किए हैं, उनसे एआई-जनित डीपफेक सामग्री के प्रसार को विनियमित करने का आग्रह किया है।लोकसभा चुनाव से पहले, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) ने ऐसे प्लेटफार्मों को अपने प्लेटफार्मों से AI-जनित डीपफेक को हटाने के लिए एक सलाह जारी की है।इन खतरों से निपटने के लिए विशेषज्ञों ने कहा कि संगठनों को डीपफेक हमलों से अपना बचाव करना चाहिए।
क्विक हील टेक्नोलॉजीज के सीईओ विशाल साल्वी ने कहा, "जैसे-जैसे एआई आगे बढ़ रहा है, संभावित दुरुपयोग से जुड़े जोखिमों को कम करते हुए डीपफेक खतरों से निपटने के लिए अपनी क्षमताओं का उपयोग करके अपनी दोहरी भूमिका का प्रबंधन करना जरूरी हो गया है।"उन्होंने यह भी उल्लेख किया कि कई संभावित कमियों के बावजूद, एआई से साइबर सुरक्षा को आगे बढ़ाने और संगठनों को अधिक मजबूत सुरक्षा उपाय स्थापित करने में सहायता मिलने की उम्मीद है।विशेषज्ञों के अनुसार, डीपफेक सामग्री का प्रभावी ढंग से पता लगाने के लिए मीडिया के विभिन्न पहलुओं की सावधानीपूर्वक जांच की आवश्यकता होती है।ऐसी सामग्री का पता लगाने के लिए, उन्होंने विसंगतियों के लिए चेहरे के भावों और गतिविधियों की जांच शुरू करने का सुझाव दिया, जैसे कि अनियमित पलक पैटर्न या ऑडियो और दृश्य संकेतों के बीच विसंगतियां।लिप-सिंक त्रुटियों पर ध्यान दें और उन विसंगतियों के लिए प्रकाश की स्थिति और छाया का मूल्यांकन करें जो हेरफेर को प्रकट कर सकती हैं। असामान्य पृष्ठभूमियों से सावधान रहें और ऑडियो अनियमितताओं को सुनें।इसके अतिरिक्त, संभावित हेरफेर के लिए मीडिया की और जांच करने के लिए ऑनलाइन उपलब्ध डीपफेक डिटेक्शन टूल और सॉफ़्टवेयर एप्लिकेशन का उपयोग करने पर विचार करें।
Tagsडीपफेकdeepfakeजनता से रिश्ता न्यूज़जनता से रिश्ताआज की ताजा न्यूज़हिंन्दी न्यूज़भारत न्यूज़खबरों का सिलसिलाआज की ब्रेंकिग न्यूज़आज की बड़ी खबरमिड डे अख़बारJanta Se Rishta NewsJanta Se RishtaToday's Latest NewsHindi NewsIndia NewsKhabron Ka SilsilaToday's Breaking NewsToday's Big NewsMid Day Newspaperजनताjantasamachar newssamacharहिंन्दी समाचार
Harrison
Next Story