व्यापार

मेटा शोधकर्ताओं के लिए अपने स्वयं के बड़े भाषा मॉडल के साथ AI चैटबॉट की दौड़ में शामिल हुआ

Neha Dani
26 Feb 2023 5:18 AM GMT
मेटा शोधकर्ताओं के लिए अपने स्वयं के बड़े भाषा मॉडल के साथ AI चैटबॉट की दौड़ में शामिल हुआ
x
अनुसंधान उपयोग के मामलों पर केंद्रित एक गैर-वाणिज्यिक लाइसेंस के तहत मॉडल जारी कर रही है।
Microsoft ChatGPT और Google के बार्ड के बाद, मेटा एआई चैटबॉट की दौड़ में शामिल हो रहा है, जिसमें अपने स्वयं के अत्याधुनिक मूलभूत बड़े भाषा मॉडल हैं जो शोधकर्ताओं को कृत्रिम बुद्धिमत्ता के क्षेत्र में अपने काम को आगे बढ़ाने में मदद करने के लिए डिज़ाइन किए गए हैं।
हालाँकि, मेटा का लार्ज लैंग्वेज मॉडल मेटा AI (LLaMA) फिलहाल चैटजीपीटी-संचालित बिंग की तरह नहीं है क्योंकि यह अभी तक मनुष्यों से बात नहीं कर सकता है लेकिन शोधकर्ताओं की मदद करेगा।
मेटा ने एक बयान में कहा, "एलएलएएमए जैसे छोटे, अधिक प्रदर्शन करने वाले मॉडल अनुसंधान समुदाय में दूसरों को सक्षम करते हैं, जिनके पास इन मॉडलों का अध्ययन करने के लिए बड़ी मात्रा में बुनियादी ढांचे तक पहुंच नहीं है, जो इस महत्वपूर्ण, तेजी से बदलते क्षेत्र में पहुंच को और अधिक लोकतांत्रिक बनाता है।"
मेटा LLaMA को कई आकारों (7 बिलियन, 13 बिलियन, 33 बिलियन और 65 बिलियन पैरामीटर्स) पर उपलब्ध करा रहा है।
बड़े भाषा मॉडल - अरबों मापदंडों के साथ प्राकृतिक भाषा प्रसंस्करण (एनएलपी) सिस्टम - ने रचनात्मक पाठ उत्पन्न करने, गणितीय प्रमेयों को हल करने, प्रोटीन संरचनाओं की भविष्यवाणी करने, पढ़ने की समझ वाले प्रश्नों का उत्तर देने और बहुत कुछ करने के लिए नई क्षमताएं दिखाई हैं।
ALSO READMeta ने ऑस्ट्रेलिया, न्यूजीलैंड में अपना सशुल्क सत्यापन शुरू किया
मेटा ने कहा, "वे अरबों लोगों को बड़े पैमाने पर एआई द्वारा प्रदान किए जा सकने वाले पर्याप्त संभावित लाभों के स्पष्ट मामलों में से एक हैं।"
अधिक टोकन पर प्रशिक्षित छोटे मॉडल - जो शब्दों के टुकड़े हैं - विशिष्ट संभावित उत्पाद उपयोग के मामलों के लिए फिर से प्रशिक्षित करना और ठीक करना आसान है।
मेटा ने 1.4 ट्रिलियन टोकन पर LLaMA 65 बिलियन और LLaMA 33 बिलियन को प्रशिक्षित किया है।
"हमारा सबसे छोटा मॉडल, LLaMA 7B, एक ट्रिलियन टोकन पर प्रशिक्षित है," कंपनी ने कहा।
अन्य बड़े भाषा मॉडल की तरह, LLaMA एक इनपुट के रूप में शब्दों के अनुक्रम को लेकर काम करता है और पुनरावर्ती पाठ उत्पन्न करने के लिए अगले शब्द की भविष्यवाणी करता है।
मेटा ने बताया, "अपने मॉडल को प्रशिक्षित करने के लिए, हमने लैटिन और सिरिलिक वर्णमाला वाले लोगों पर ध्यान केंद्रित करते हुए, सबसे अधिक वक्ताओं वाली 20 भाषाओं में से टेक्स्ट को चुना।"
अखंडता बनाए रखने और दुरुपयोग को रोकने के लिए, कंपनी ने कहा कि वह इस समय अनुसंधान उपयोग के मामलों पर केंद्रित एक गैर-वाणिज्यिक लाइसेंस के तहत मॉडल जारी कर रही है।

Next Story