व्यापार

मेटा शोधकर्ताओं के लिए अपने स्वयं के बड़े भाषा मॉडल के साथ AI चैटबॉट की दौड़ में शामिल हुआ

Shiddhant Shriwas
25 Feb 2023 10:13 AM GMT
मेटा शोधकर्ताओं के लिए अपने स्वयं के बड़े भाषा मॉडल के साथ AI चैटबॉट की दौड़ में शामिल हुआ
x
मेटा शोधकर्ताओं के लिए अपने स्वयं
नई दिल्ली: माइक्रोसॉफ्ट चैटजीपीटी और गूगल के बार्ड के बाद, मेटा आर्टिफिशियल इंटेलिजेंस के क्षेत्र में शोधकर्ताओं को अपने काम को आगे बढ़ाने में मदद करने के लिए डिज़ाइन किए गए अपने अत्याधुनिक फाउंडेशनल लार्ज लैंग्वेज मॉडल के साथ एआई चैटबॉट की दौड़ में शामिल हो रहा है।
हालाँकि, मेटा का लार्ज लैंग्वेज मॉडल मेटा AI (LLaMA) फिलहाल चैटजीपीटी-संचालित बिंग की तरह नहीं है क्योंकि यह अभी तक मनुष्यों से बात नहीं कर सकता है लेकिन शोधकर्ताओं की मदद करेगा।
मेटा ने एक बयान में कहा, "एलएलएएमए जैसे छोटे, अधिक प्रदर्शन करने वाले मॉडल अनुसंधान समुदाय में दूसरों को सक्षम करते हैं, जिनके पास इन मॉडलों का अध्ययन करने के लिए बड़ी मात्रा में बुनियादी ढांचे तक पहुंच नहीं है, जो इस महत्वपूर्ण, तेजी से बदलते क्षेत्र में पहुंच को और अधिक लोकतांत्रिक बनाता है।"
मेटा LLaMA को कई आकारों (7 बिलियन, 13 बिलियन, 33 बिलियन और 65 बिलियन पैरामीटर्स) पर उपलब्ध करा रहा है।
बड़े भाषा मॉडल - अरबों मापदंडों के साथ प्राकृतिक भाषा प्रसंस्करण (एनएलपी) सिस्टम - ने रचनात्मक पाठ उत्पन्न करने, गणितीय प्रमेयों को हल करने, प्रोटीन संरचनाओं की भविष्यवाणी करने, पढ़ने की समझ वाले प्रश्नों का उत्तर देने और बहुत कुछ करने के लिए नई क्षमताएं दिखाई हैं।
मेटा ने कहा, "वे अरबों लोगों को बड़े पैमाने पर एआई द्वारा प्रदान किए जा सकने वाले पर्याप्त संभावित लाभों के स्पष्ट मामलों में से एक हैं।"
अधिक टोकन पर प्रशिक्षित छोटे मॉडल - जो शब्दों के टुकड़े हैं - विशिष्ट संभावित उत्पाद उपयोग के मामलों के लिए फिर से प्रशिक्षित करना और ठीक करना आसान है।
मेटा ने 1.4 ट्रिलियन टोकन पर LLaMA 65 बिलियन और LLaMA 33 बिलियन को प्रशिक्षित किया है।
"हमारा सबसे छोटा मॉडल, LLaMA 7B, एक ट्रिलियन टोकन पर प्रशिक्षित है," कंपनी ने कहा।
अन्य बड़े भाषा मॉडल की तरह, LLaMA एक इनपुट के रूप में शब्दों के अनुक्रम को लेकर काम करता है और पुनरावर्ती पाठ उत्पन्न करने के लिए अगले शब्द की भविष्यवाणी करता है।
मेटा ने बताया, "अपने मॉडल को प्रशिक्षित करने के लिए, हमने लैटिन और सिरिलिक वर्णमाला वाले लोगों पर ध्यान केंद्रित करते हुए, सबसे अधिक वक्ताओं वाली 20 भाषाओं में से टेक्स्ट को चुना।"
अखंडता बनाए रखने और दुरुपयोग को रोकने के लिए, कंपनी ने कहा कि वह इस समय अनुसंधान उपयोग के मामलों पर केंद्रित एक गैर-वाणिज्यिक लाइसेंस के तहत मॉडल जारी कर रही है।
Next Story