विज्ञान

नई रिसर्च में खुलासा, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली फेस होते हैं भरोसेमंद

Tulsi Rao
18 Feb 2022 6:32 PM GMT
नई रिसर्च में खुलासा, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली फेस होते हैं भरोसेमंद
x
नई रिसर्च के मुताबिक, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली चेहरे,असली इंसानों की तुलना में ज्यादा भरोसेमंद लगते हैं.

जनता से रिश्ता वेबडेस्क। आर्टिफिशियल इंटेलिजेंस की वजह से दुनिया में बहुत ज्यादा बदलाव नजर आ रहा है. नई रिसर्च के मुताबिक, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली चेहरे,असली इंसानों की तुलना में ज्यादा भरोसेमंद लगते हैं.

आर्टिफिशियल इंटेलिजेंस और डीप लर्निंग
हमारी सहयोगी वेबसाइट WION की रिपोर्ट के अनुसार, आर्टिफिशियल इंटेलिजेंस और डीप लर्निंग, कंप्यूटर में इस्तेमाल की जाने वाली एक एल्गोरिथम सीखने की प्रक्रिया का उपयोग एक ऐसे मानव को बनाने के लिए किया जाता है जो वास्तविक दिखाई देता है. एक ऐसी तकनीक जिसे 'डीपफेक' कहा जाता है. उनका उपयोग उन मैसेज को प्रसारित करने के लिए भी किया जा सकता है जिन्हें कभी व्यक्त नहीं किया गया है. जैसे कि रिचर्ड निक्सन के राष्ट्रपति के संबोधन का एक परिवर्तित वीडियो या डोनाल्ड ट्रम्प पर हमला करने वाला एक नकली बराक ओबामा.
टिकटॉक वीडियो में दिखे थे नकली 'टॉम क्रूज'
अकाउंट का नाम ही एकमात्र स्पष्ट संकेत था कि यह वास्तविक नहीं था. 2021 में टिकटॉक वीडियो दिखाई दिया जिसमें "टॉम क्रूज़" को एक पैसा गायब करते हुए और लॉलीपॉप को खाते हुए दिखाया गया था. सोशल मीडिया प्लेटफॉर्म पर, "डीपटॉमक्रूज़" अकाउंट के निर्माता प्रसिद्ध अभिनेता के मशीन-जनरेटेड संस्करण को जादू के करतब दिखाने और एकल नृत्य करने के लिए "डीपफेक" तकनीक का उपयोग कर रहे थे.
इस तरह हुआ प्रयोग
एक प्रयोग में, प्रतिभागियों को StyleGAN2 एल्गोरिथ्म द्वारा बनाए गए चेहरों को वास्तविक या कृत्रिम के रूप में क्लासीफाइड करने के लिए कहा गया था. प्रतिभागियों का सफलता प्रतिशत 48 प्रतिशत था जो एक सिक्का उछालने से कुछ कम था.
बिल्कुल असली जैसे दिखते हैं नकली चेहरे
प्रतिभागियों को दूसरे प्रयोग में समान डेटा सेट का उपयोग करके 'डीपफेक' को कैसे स्पॉट किया जाए. इस पर प्रशिक्षित किया गया था लेकिन सटीकता दर में केवल 59 प्रतिशत तक सुधार हुआ. ऑक्सफोर्ड विश्वविद्यालय, ब्राउन यूनिवर्सिटी और रॉयल सोसाइटी के शोध के अनुसार, अधिकांश व्यक्ति यह निर्धारित करने में असमर्थ हैं कि क्या वे एक डीपफेक वीडियो देख रहे हैं. तब भी जब उन्हें चेतावनी दी जाती है कि वे जो सामग्री देख रहे हैं वह डिजिटल रूप से हेरफेर की गई हो सकती है.


Next Story