- Home
- /
- अन्य खबरें
- /
- विज्ञान
- /
- Scientists की चेतावनी,...
x
SCIENCE: जनरेटिव आर्टिफिशियल इंटेलिजेंस (AI) सिस्टम कुछ चौंकाने वाले नतीजे दे सकते हैं, लेकिन नए शोध से पता चलता है कि उनके पास दुनिया और वास्तविक नियमों की सुसंगत समझ नहीं है। arXiv प्रीप्रिंट डेटाबेस में प्रकाशित एक नए अध्ययन में, MIT, हार्वर्ड और कॉर्नेल के वैज्ञानिकों ने पाया कि GPT-4 या एंथ्रोपिक के क्लाउड 3 ओपस जैसे बड़े भाषा मॉडल (LLM) वास्तविक दुनिया का सटीक प्रतिनिधित्व करने वाले अंतर्निहित मॉडल बनाने में विफल रहे।
उदाहरण के लिए, जब न्यूयॉर्क शहर में बारी-बारी से ड्राइविंग निर्देश प्रदान करने का काम सौंपा गया, तो LLM ने उन्हें लगभग 100% सटीकता के साथ दिया। लेकिन जब वैज्ञानिकों ने उन्हें निकाला तो इस्तेमाल किए गए अंतर्निहित नक्शे गैर-मौजूद सड़कों और मार्गों से भरे थे।
शोधकर्ताओं ने पाया कि जब किसी निर्देश में अप्रत्याशित परिवर्तन जोड़े गए (जैसे कि चक्कर और बंद सड़कें), तो LLM द्वारा दिए गए निर्देशों की सटीकता कम हो गई। कुछ मामलों में, इसका परिणाम पूरी तरह से विफलता के रूप में सामने आया। इस प्रकार, यह चिंता उत्पन्न करता है कि वास्तविक दुनिया की स्थिति में, जैसे कि चालक रहित कार में, तैनात AI सिस्टम गतिशील वातावरण या कार्यों के सामने आने पर खराब हो सकते हैं।
"एक उम्मीद यह है कि, क्योंकि LLM भाषा में इन सभी अद्भुत चीजों को पूरा कर सकते हैं, शायद हम विज्ञान के अन्य भागों में भी इन उपकरणों का उपयोग कर सकते हैं। लेकिन यह सवाल कि क्या LLM सुसंगत विश्व मॉडल सीख रहे हैं, बहुत महत्वपूर्ण है यदि हम इन तकनीकों का उपयोग नई खोज करने के लिए करना चाहते हैं," वरिष्ठ लेखक अशेष रामबचन, अर्थशास्त्र के सहायक प्रोफेसर और सूचना और निर्णय प्रणाली (LIDS) के लिए MIT प्रयोगशाला में एक प्रमुख अन्वेषक ने एक बयान में कहा।
TagsScientists की चेतावनीबड़े भाषा मॉडलScientists' warninglarge language modelsजनता से रिश्ता न्यूज़जनता से रिश्ताआज की ताजा न्यूज़हिंन्दी न्यूज़भारत न्यूज़खबरों का सिलसिलाआज की ब्रेंकिग न्यूज़आज की बड़ी खबरमिड डे अख़बारहिंन्दी समाचारJanta Se Rishta NewsJanta Se RishtaToday's Latest NewsHindi News India News Series of NewsToday's Breaking NewsToday's Big NewsMid Day NewspaperHindi News
Harrison
Next Story