नई रिसर्च में खुलासा, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली फेस होते हैं भरोसेमंद

नई रिसर्च के मुताबिक, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली चेहरे,असली इंसानों की तुलना में ज्यादा भरोसेमंद लगते हैं.

Update: 2022-02-18 18:32 GMT

जनता से रिश्ता वेबडेस्क। आर्टिफिशियल इंटेलिजेंस की वजह से दुनिया में बहुत ज्यादा बदलाव नजर आ रहा है. नई रिसर्च के मुताबिक, आर्टिफिशियल इंटेलिजेंस से बनाए गए नकली चेहरे,असली इंसानों की तुलना में ज्यादा भरोसेमंद लगते हैं.

आर्टिफिशियल इंटेलिजेंस और डीप लर्निंग
हमारी सहयोगी वेबसाइट WION की रिपोर्ट के अनुसार, आर्टिफिशियल इंटेलिजेंस और डीप लर्निंग, कंप्यूटर में इस्तेमाल की जाने वाली एक एल्गोरिथम सीखने की प्रक्रिया का उपयोग एक ऐसे मानव को बनाने के लिए किया जाता है जो वास्तविक दिखाई देता है. एक ऐसी तकनीक जिसे 'डीपफेक' कहा जाता है. उनका उपयोग उन मैसेज को प्रसारित करने के लिए भी किया जा सकता है जिन्हें कभी व्यक्त नहीं किया गया है. जैसे कि रिचर्ड निक्सन के राष्ट्रपति के संबोधन का एक परिवर्तित वीडियो या डोनाल्ड ट्रम्प पर हमला करने वाला एक नकली बराक ओबामा.
टिकटॉक वीडियो में दिखे थे नकली 'टॉम क्रूज'
अकाउंट का नाम ही एकमात्र स्पष्ट संकेत था कि यह वास्तविक नहीं था. 2021 में टिकटॉक वीडियो दिखाई दिया जिसमें "टॉम क्रूज़" को एक पैसा गायब करते हुए और लॉलीपॉप को खाते हुए दिखाया गया था. सोशल मीडिया प्लेटफॉर्म पर, "डीपटॉमक्रूज़" अकाउंट के निर्माता प्रसिद्ध अभिनेता के मशीन-जनरेटेड संस्करण को जादू के करतब दिखाने और एकल नृत्य करने के लिए "डीपफेक" तकनीक का उपयोग कर रहे थे.
इस तरह हुआ प्रयोग
एक प्रयोग में, प्रतिभागियों को StyleGAN2 एल्गोरिथ्म द्वारा बनाए गए चेहरों को वास्तविक या कृत्रिम के रूप में क्लासीफाइड करने के लिए कहा गया था. प्रतिभागियों का सफलता प्रतिशत 48 प्रतिशत था जो एक सिक्का उछालने से कुछ कम था.
बिल्कुल असली जैसे दिखते हैं नकली चेहरे
प्रतिभागियों को दूसरे प्रयोग में समान डेटा सेट का उपयोग करके 'डीपफेक' को कैसे स्पॉट किया जाए. इस पर प्रशिक्षित किया गया था लेकिन सटीकता दर में केवल 59 प्रतिशत तक सुधार हुआ. ऑक्सफोर्ड विश्वविद्यालय, ब्राउन यूनिवर्सिटी और रॉयल सोसाइटी के शोध के अनुसार, अधिकांश व्यक्ति यह निर्धारित करने में असमर्थ हैं कि क्या वे एक डीपफेक वीडियो देख रहे हैं. तब भी जब उन्हें चेतावनी दी जाती है कि वे जो सामग्री देख रहे हैं वह डिजिटल रूप से हेरफेर की गई हो सकती है.


Tags:    

Similar News