विश्व

AI इमेज-जनरेटर प्रशिक्षण स्रोत से बाल दुर्व्यवहार की तस्वीरें हटाई गई

Harrison
31 Aug 2024 6:57 PM GMT
AI इमेज-जनरेटर प्रशिक्षण स्रोत से बाल दुर्व्यवहार की तस्वीरें हटाई गई
x
WASHINGTON वॉशिंगटन: आर्टिफिशियल इंटेलिजेंस शोधकर्ताओं ने कहा है कि उन्होंने लोकप्रिय AI इमेज-जनरेटर टूल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटासेट से संदिग्ध बाल यौन शोषण इमेजरी के 2,000 से अधिक वेब लिंक हटा दिए हैं।LAION रिसर्च डेटासेट ऑनलाइन इमेज और कैप्शन का एक विशाल इंडेक्स है जो स्टेबल डिफ्यूजन और मिडजर्नी जैसे प्रमुख AI इमेज-मेकर्स के लिए एक स्रोत रहा है।लेकिन स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी की पिछले साल की एक रिपोर्ट में पाया गया कि इसमें बच्चों की यौन रूप से स्पष्ट छवियों के लिंक शामिल थे, जिससे कुछ AI टूल आसानी से बच्चों को चित्रित करने वाले फोटोरीलिस्टिक डीपफेक बनाने में सक्षम हो गए हैं।
उस दिसंबर की रिपोर्ट ने LAION, जो गैर-लाभकारी लार्ज-स्केल आर्टिफिशियल इंटेलिजेंस ओपन नेटवर्क के लिए खड़ा है, को तुरंत अपना डेटासेट हटाने के लिए प्रेरित किया। आठ महीने बाद, LAION ने शुक्रवार को एक ब्लॉग पोस्ट में कहा कि उसने स्टैनफोर्ड यूनिवर्सिटी वॉचडॉग ग्रुप और कनाडा और यूनाइटेड किंगडम में दुर्व्यवहार विरोधी संगठनों के साथ मिलकर समस्या को ठीक करने और भविष्य के AI शोध के लिए एक साफ-सुथरा डेटासेट जारी करने के लिए काम किया।दिसंबर की रिपोर्ट के लेखक स्टैनफोर्ड के शोधकर्ता डेविड थिएल ने LAION की महत्वपूर्ण सुधारों के लिए सराहना की, लेकिन कहा कि अगला कदम वितरण से उन "दूषित मॉडलों" को वापस लेना है जो अभी भी बाल दुर्व्यवहार की तस्वीरें बनाने में सक्षम हैं।
LAION-आधारित उपकरणों में से एक जिसे स्टैनफोर्ड ने "स्पष्ट तस्वीरें बनाने के लिए सबसे लोकप्रिय मॉडल" के रूप में पहचाना - स्टेबल डिफ्यूजन का एक पुराना और हल्का फ़िल्टर किया गया संस्करण - गुरुवार तक आसानी से सुलभ था, जब न्यूयॉर्क स्थित कंपनी रनवे एमएल ने इसे AI मॉडल रिपॉजिटरी हगिंग फेस से हटा दिया। रनवे ने शुक्रवार को एक बयान में कहा कि यह "शोध मॉडल और कोड का नियोजित अवमूल्यन था जिसे सक्रिय रूप से बनाए नहीं रखा गया है"। LAION डेटासेट का साफ़-सुथरा संस्करण तब आया है जब दुनिया भर की सरकारें इस बात पर बारीकी से नज़र रख रही हैं कि कैसे कुछ तकनीकी उपकरणों का इस्तेमाल बच्चों की अवैध तस्वीरें बनाने या वितरित करने के लिए किया जा रहा है।
सैन फ्रांसिस्को के शहर के वकील ने इस महीने की शुरुआत में एक मुकदमा दायर किया था जिसमें महिलाओं और लड़कियों की AI-जनरेटेड नग्न तस्वीरें बनाने में सक्षम वेबसाइटों के एक समूह को बंद करने की मांग की गई थी। मैसेजिंग ऐप टेलीग्राम पर बाल यौन शोषण की छवियों का कथित वितरण उसी का हिस्सा है जिसके कारण फ्रांसीसी अधिकारियों ने बुधवार को प्लेटफ़ॉर्म के संस्थापक और सीईओ पावेल डुरोव के खिलाफ़ आरोप लगाए।
कैलिफोर्निया विश्वविद्यालय, बर्कले के शोधकर्ता डेविड इवान हैरिस ने कहा कि डुरोव की गिरफ़्तारी "पूरे तकनीकी उद्योग में एक बहुत बड़े बदलाव का संकेत है कि इन प्लेटफ़ॉर्म के संस्थापकों को व्यक्तिगत रूप से ज़िम्मेदार ठहराया जा सकता है," जिन्होंने हाल ही में रनवे से संपर्क करके पूछा कि समस्याग्रस्त AI इमेज-जनरेटर अभी भी सार्वजनिक रूप से सुलभ क्यों है। इसे कुछ दिनों बाद हटा लिया गया।
Next Story