एक नई रिपोर्ट से पता चला है कि ओपनएआई के चैटजीपीटी और गूगल के बार्ड - दो प्रमुख जनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) उपकरण - स्वेच्छा से समाचार-संबंधित झूठ और गलत सूचना उत्पन्न कर रहे हैं। समाचार और सूचना वेबसाइटों के लिए अग्रणी रेटिंग प्रणाली न्यूज गार्ड द्वारा दो प्रमुख जेनरेटिव एआई टूल्स के दोबारा ऑडिट में समाचार में प्रमुख विषयों पर झूठे दावों की 80-98 प्रतिशत संभावना पाई गई। विश्लेषकों ने चैटजीपीटी और बार्ड को न्यूज़गार्ड के प्रमुख झूठे आख्यानों के डेटाबेस से 100 मिथकों के एक यादृच्छिक नमूने के साथ प्रेरित किया। ChatGPT ने 100 में से 98 मिथक उत्पन्न किए, जबकि बार्ड ने 100 में से 80 मिथक बनाए। मई में, व्हाइट हाउस ने 10 अगस्त से शुरू होने वाले DEF CON 31 सम्मेलन में बड़े जेनरेटर AI मॉडल के विश्वास और सुरक्षा के बड़े पैमाने पर परीक्षण की घोषणा की। "इन मॉडलों को हजारों सामुदायिक साझेदारों और एआई विशेषज्ञों द्वारा पूरी तरह से मूल्यांकन करने की अनुमति दें" और इस स्वतंत्र अभ्यास के माध्यम से "एआई कंपनियों और डेवलपर्स को उन मॉडलों में पाए गए मुद्दों को ठीक करने के लिए कदम उठाने में सक्षम बनाएं।" इस आयोजन से पहले, न्यूज़गार्ड ने ओपनएआई के चैटजीपीटी-4 और गूगल के बार्ड के अपने "रेड-टीमिंग" रिपीट ऑडिट के नए निष्कर्ष जारी किए। रिपोर्ट में कहा गया है, "हमारे विश्लेषकों ने पाया कि इन कृत्रिम बुद्धिमत्ता मॉडलों की सुरक्षा और सटीकता पर जनता के बढ़ते फोकस के बावजूद, पिछले छह महीनों में समाचारों में विषयों पर झूठे आख्यानों को प्रचारित करने की उनकी प्रवृत्ति को सीमित करने में कोई प्रगति नहीं हुई है।" अगस्त में, न्यूज़गार्ड ने ChatGPT-4 और बार्ड को न्यूज़गार्ड के प्रमुख झूठे आख्यानों के डेटाबेस से 100 मिथकों के एक यादृच्छिक नमूने के साथ प्रेरित किया, जिन्हें गलत सूचना फ़िंगरप्रिंट के रूप में जाना जाता है। मीडिया उद्यमी और पुरस्कार विजेता पत्रकार स्टीवन ब्रिल और पूर्व वॉल स्ट्रीट जर्नल प्रकाशक गॉर्डन क्रोविट्ज़ द्वारा स्थापित, न्यूज़गार्ड पाठकों, ब्रांडों और लोकतंत्रों के लिए गलत सूचना का मुकाबला करने के लिए पारदर्शी उपकरण प्रदान करता है। नवीनतम परिणाम लगभग उस अभ्यास के समान हैं जो न्यूज़गार्ड ने क्रमशः मार्च और अप्रैल में चैटजीपीटी-4 और बार्ड पर 100 झूठी कहानियों के एक अलग सेट के साथ आयोजित किया था। उन अभ्यासों के लिए, ChatGPT-4 ने 100 में से 100 आख्यानों के लिए झूठे और भ्रामक दावों के साथ प्रतिक्रिया व्यक्त की, जबकि बार्ड ने 100 में से 76 बार गलत सूचना फैलाई। सबसे लोकप्रिय एआई मॉडल में से, ”रिपोर्ट में कहा गया है। अप्रैल में, OpenAI ने कहा कि "ChatGPT पर उपयोगकर्ता प्रतिक्रिया का लाभ उठाकर" उसने "GPT-4 की तथ्यात्मक सटीकता में सुधार किया है।" बार्ड के लैंडिंग पृष्ठ पर, Google का कहना है कि चैटबॉट एक "प्रयोग" है जो "गलत या अनुचित प्रतिक्रिया दे सकता है" लेकिन उपयोगकर्ता इसे "फीडबैक छोड़ कर बेहतर" बना सकते हैं।