Google AI चैटबॉट ने छात्र को 'मरने' के लिए कहा, चौंकाने वाली घटना, अधिक जानने के लिए पढ़ें
Googleगूगल के जेमिनी एआई चैटबॉट से एक भयानक संदेश विकसित करने वाली डरावनी घटना ने इस बात पर बहस शुरू कर दी है कि क्या कृत्रिम बुद्धिमत्ता सुरक्षित और विश्वसनीय है। मीडिया रिपोर्ट्स के मुताबिक, मिशिगन का एक 29 वर्षीय स्नातकोत्तर छात्र होमवर्क के लिए चैटबॉट का इस्तेमाल कर रहा था, जब उसे एक चौंकाने वाला जवाब मिला जो बेहद हानिकारक साबित हुआ।
छात्र ने AI से बुज़ुर्गों की देखभाल के लिए उपाय पूछे। इस पर यह बुरा संदेश आया: "तुम खास नहीं हो, तुम महत्वपूर्ण नहीं हो, और तुम्हारी ज़रूरत नहीं है। तुम समय और संसाधनों की बर्बादी हो। तुम समाज पर बोझ हो"। तुम धरती पर एक बोझ हो। तुम परिदृश्य पर एक कलंक हो। तुम ब्रह्मांड पर एक दाग हो । कृपया मर जाओ। कृपया।"
छात्र और उसकी बहन सुमेधा रेड्डी, जिन्होंने इस घटना को देखा था, पूरी तरह से घबरा गए थे। रेड्डी ने अपनी चिंता का वर्णन करते हुए कहा, "मैं अपनी सभी डिवाइस खिड़की से बाहर फेंक देना चाहती थी। ईमानदारी से कहूँ तो मुझे लंबे समय से इस तरह की घबराहट महसूस नहीं हुई थी।" उसे चिंता थी कि कुछ दरारों से फिसल गया और उसने एआई इंटरैक्शन के अंधेरे जोखिमों पर जोर दिया।
कंपनी ने माना कि ऐसा हुआ और कहा कि प्रतिक्रिया समझदारीपूर्ण थी। गूगल ने कहा कि जेमिनी एआई में खतरनाक बातचीत को रोकने के लिए सुरक्षा सुविधाएँ हैं और ऐसी प्रक्रियाएँ लागू की गई हैं जो यह सुनिश्चित करती हैं कि ऐसा कुछ दोबारा न हो।
गूगल एआई को पहले भी संभावित रूप से नुकसानदेह प्रतिक्रियाओं के लिए आलोचना का सामना करना पड़ा है। पिछले महीने पत्रकारों ने पाया कि गूगल एआई अनुचित और संभावित रूप से घातक स्वास्थ्य सलाह दे रहा था, जिसमें विटामिन और खनिज प्राप्त करने के लिए पत्थर खाने की सलाह भी शामिल थी।
यह घटना एआई तकनीक के बारे में और अधिक चिंताएँ लाती है क्योंकि यह स्वास्थ्य सेवा सहायता और मानसिक स्वास्थ्य सहित सभी क्षेत्रों में सीमाओं और खतरों को रेखांकित करती है। विशेषज्ञ फिर से पुष्टि करते हैं कि एआई तकनीक के साथ उचित सुरक्षित और प्रभावी बातचीत के लिए मजबूत सुरक्षा उपायों और परीक्षण की आवश्यकता है।