लोकप्रिय मैसेजिंग ऐप 'टेलीग्राम' (Telegram) को लेकर एक बेहद परेशान करने वाली खबर सामने आई है. इस मैसेजिंग ऐप (Messeging App) ने पिछले दिनों में बहुत अधिक लोकप्रियता पाई है, क्योंकि इस पर किये जा रहे मैसेज और अन्य मीडिया की न सिर्फ प्राइवेसी (privacy) का पक्का इंतजाम होता है बल्कि इसपर बड़ी फाइलें भी आसानी से शेयर (share) की जा सकती हैं. लेकिन अब यह ऐप एक कंट्रोवर्सी में फंस गई है. समस्या बनकर आया है एक डीपफेक टूल (deepfake tool), जिसके जरिए इस पर कपड़े पहने फोटो के भी कपड़े उतारे जा सकते हैं. इसके जरिए इस ऐप पर नाबालिग लड़कियों (Minor girls) को निशाना बनाया जा रहा है और उन्हें परेशान किया जा रहा है.
इसके जरिए अब तक दस हजार महिलाओं और लड़कियों की बिना सहमति वाली एक लाख न्यूड तस्वीरें (Nude Photos) ऑनलाइन साझा की जा चुकी हैं. ये तस्वीरें जुलाई 2019 और 2020 के बीच एआई-बॉट (AI Bot) का उपयोग करके बनाई गई थीं. पीड़ितों में से अधिकांश की ये निजी तस्वीरें (personal photos) थी, जिन्हें सोशल मीडिया (Social Media) से लिया गया था. ये सभी महिलाएं थीं और कुछ देखने से ही 'नाबालिग' लग रही थीं. यह बिना नाम का 'बॉट' कृत्रिम बुद्धिमत्ता (Artificial Learning) और मशीन लर्निंग का उपयोग करता है. जो टेलीग्राम (Telegram) मैसेजिंग ऐप पर शेयर की कई फोटोज पर काम करता है.
सामान्य लोगों की निजी तस्वीरों को बॉट ने बनाया न्यूड
इसके बारे में रिपोर्ट करने वालों का कहना है कि किसी की भी तस्वीर लेकर इस पर उसे नग्न किये जाने का खतरा बना रहता है. उन्होंने बताया है कि इस बॉट द्वारा जिन महिलाओं और लड़कियों के 'फेक' न्यूड बनाये गये, वे सामान्य लोगों की निजी तस्वीरें थीं.
सोशल मीडिया पर शेयर की गई कम उम्र की लड़कियों की तस्वीरों को मैसेजिंग ऐप टेलीग्राम पर एक डीपफेक बॉट द्वारा नग्न करने के लिए नकली किया जा रहा है. एक नई रिपोर्ट में यह बात सामने आई है. रिपोर्ट लेखकों के अनुसार, ये परेशान करने वाली फोटोज आर्टिफिशियल इंटेलिजेंस के एक साधारण प्रयोग पर आधारित हैं और इसी के जरिए बनाई गई हैं. ये बिल्कुल वास्तविक लग सकती हैं.