Scientists की चेतावनी, बड़े भाषा मॉडल वास्तविक दुनिया में उपयोग के लिए उपयुक्त नहीं
SCIENCE: जनरेटिव आर्टिफिशियल इंटेलिजेंस (AI) सिस्टम कुछ चौंकाने वाले नतीजे दे सकते हैं, लेकिन नए शोध से पता चलता है कि उनके पास दुनिया और वास्तविक नियमों की सुसंगत समझ नहीं है। arXiv प्रीप्रिंट डेटाबेस में प्रकाशित एक नए अध्ययन में, MIT, हार्वर्ड और कॉर्नेल के वैज्ञानिकों ने पाया कि GPT-4 या एंथ्रोपिक के क्लाउड 3 ओपस जैसे बड़े भाषा मॉडल (LLM) वास्तविक दुनिया का सटीक प्रतिनिधित्व करने वाले अंतर्निहित मॉडल बनाने में विफल रहे।
उदाहरण के लिए, जब न्यूयॉर्क शहर में बारी-बारी से ड्राइविंग निर्देश प्रदान करने का काम सौंपा गया, तो LLM ने उन्हें लगभग 100% सटीकता के साथ दिया। लेकिन जब वैज्ञानिकों ने उन्हें निकाला तो इस्तेमाल किए गए अंतर्निहित नक्शे गैर-मौजूद सड़कों और मार्गों से भरे थे।
शोधकर्ताओं ने पाया कि जब किसी निर्देश में अप्रत्याशित परिवर्तन जोड़े गए (जैसे कि चक्कर और बंद सड़कें), तो LLM द्वारा दिए गए निर्देशों की सटीकता कम हो गई। कुछ मामलों में, इसका परिणाम पूरी तरह से विफलता के रूप में सामने आया। इस प्रकार, यह चिंता उत्पन्न करता है कि वास्तविक दुनिया की स्थिति में, जैसे कि चालक रहित कार में, तैनात AI सिस्टम गतिशील वातावरण या कार्यों के सामने आने पर खराब हो सकते हैं।
"एक उम्मीद यह है कि, क्योंकि LLM भाषा में इन सभी अद्भुत चीजों को पूरा कर सकते हैं, शायद हम विज्ञान के अन्य भागों में भी इन उपकरणों का उपयोग कर सकते हैं। लेकिन यह सवाल कि क्या LLM सुसंगत विश्व मॉडल सीख रहे हैं, बहुत महत्वपूर्ण है यदि हम इन तकनीकों का उपयोग नई खोज करने के लिए करना चाहते हैं," वरिष्ठ लेखक अशेष रामबचन, अर्थशास्त्र के सहायक प्रोफेसर और सूचना और निर्णय प्रणाली (LIDS) के लिए MIT प्रयोगशाला में एक प्रमुख अन्वेषक ने एक बयान में कहा।