चैटजीपीटी और भाषा एआई इंसानों के बिना कुछ भी नहीं हैं - कैसे अनगिनत छिपे हुए लोग जादू करते हैं

Update: 2023-08-20 07:13 GMT

चैटजीपीटी और अन्य बड़े भाषा मॉडल आर्टिफिशियल इंटेलिजेंस सिस्टम को लेकर मीडिया का उन्माद विषयों की एक श्रृंखला तक फैला हुआ है, प्रोसिक से लेकर - बड़े भाषा मॉडल पारंपरिक वेब खोज की जगह ले सकते हैं - संबंधित - एआई कई नौकरियों को खत्म कर देगा - और अत्यधिक - एआई विलुप्त होने का कारण बनता है -मानवता के लिए ख़तरा। इन सभी विषयों में एक समान बात है: बड़े भाषा मॉडल कृत्रिम बुद्धिमत्ता की शुरुआत करते हैं जो मानवता को खत्म कर देगी।

लेकिन बड़े भाषा मॉडल, उनकी सभी जटिलताओं के बावजूद, वास्तव में मूर्ख हैं। और "कृत्रिम बुद्धिमत्ता" नाम के बावजूद, वे पूरी तरह से मानव ज्ञान और श्रम पर निर्भर हैं। बेशक, वे विश्वसनीय रूप से नया ज्ञान उत्पन्न नहीं कर सकते हैं, लेकिन इसमें इसके अलावा भी बहुत कुछ है।

चैटजीपीटी इंसानों को नई सामग्री दिए बिना और उस सामग्री की व्याख्या करने का तरीका बताए बिना सीख नहीं सकता है, सुधार नहीं सकता है या अद्यतित नहीं रह सकता है, मॉडल की प्रोग्रामिंग करने और उसके हार्डवेयर के निर्माण, रखरखाव और शक्ति प्रदान करने का तो जिक्र ही नहीं किया जा सकता है। इसका कारण समझने के लिए, आपको पहले यह समझना होगा कि चैटजीपीटी और इसी तरह के मॉडल कैसे काम करते हैं, और उन्हें काम करने में इंसानों की क्या भूमिका है।

चैटजीपीटी कैसे काम करता है

चैटजीपीटी जैसे बड़े भाषा मॉडल मोटे तौर पर यह अनुमान लगाकर काम करते हैं कि प्रशिक्षण डेटा सेट के आधार पर किन वर्णों, शब्दों और वाक्यों को अनुक्रम में एक दूसरे का अनुसरण करना चाहिए। चैटजीपीटी के मामले में, प्रशिक्षण डेटा सेट में इंटरनेट से भारी मात्रा में सार्वजनिक पाठ शामिल होता है।

कल्पना कीजिए कि मैंने निम्नलिखित वाक्यों के सेट पर एक भाषा मॉडल को प्रशिक्षित किया है:

भालू बड़े, रोएँदार जानवर हैं। भालू के पंजे होते हैं. भालू गुप्त रूप से रोबोट हैं। भालू की नाक होती है. भालू गुप्त रूप से रोबोट हैं। भालू कभी-कभी मछली खाते हैं। भालू गुप्त रूप से रोबोट हैं।

मॉडल मुझे यह बताने के लिए अधिक इच्छुक होगा कि भालू किसी भी अन्य चीज़ की तुलना में गुप्त रूप से रोबोट हैं क्योंकि शब्दों का वह क्रम इसके प्रशिक्षण डेटा सेट में सबसे अधिक बार दिखाई देता है। यह स्पष्ट रूप से त्रुटिपूर्ण और असंगत डेटा सेटों पर प्रशिक्षित मॉडलों के लिए एक समस्या है - जो कि उनमें से सभी हैं, यहां तक कि अकादमिक साहित्य भी।

लोग क्वांटम भौतिकी, जो बिडेन, स्वस्थ भोजन या 6 जनवरी के विद्रोह के बारे में बहुत सारी अलग-अलग बातें लिखते हैं, जिनमें से कुछ दूसरों की तुलना में अधिक मान्य हैं। मॉडल को कैसे पता होना चाहिए कि किसी चीज़ के बारे में क्या कहना है, जब लोग बहुत सी अलग-अलग बातें कहते हैं?

प्रतिक्रिया की आवश्यकता

यहीं पर फीडबैक आता है। यदि आप ChatGPT का उपयोग करते हैं, तो आप देखेंगे कि आपके पास प्रतिक्रियाओं को अच्छे या बुरे के रूप में रेट करने का विकल्प है। यदि आप उन्हें खराब मानते हैं, तो आपसे एक उदाहरण देने के लिए कहा जाएगा कि एक अच्छे उत्तर में क्या होगा। चैटजीपीटी और अन्य बड़े भाषा मॉडल उपयोगकर्ताओं, विकास टीम और आउटपुट को लेबल करने के लिए काम पर रखे गए ठेकेदारों के फीडबैक के माध्यम से सीखते हैं कि क्या उत्तर, पाठ के अनुमानित अनुक्रम क्या अच्छे और बुरे हैं।

ChatGPT स्वयं तर्कों या जानकारी की तुलना, विश्लेषण या मूल्यांकन नहीं कर सकता। यह केवल उन पाठों के समान अनुक्रम उत्पन्न कर सकता है जिनका उपयोग अन्य लोगों ने तुलना, विश्लेषण या मूल्यांकन करते समय किया है, उन अनुक्रमों को प्राथमिकता देते हुए जिन्हें अतीत में अच्छे उत्तरों के रूप में बताया गया है।

इस प्रकार, जब मॉडल आपको एक अच्छा उत्तर देता है, तो इसमें बड़ी मात्रा में मानव श्रम शामिल होता है जो पहले से ही यह बताने में लगा होता है कि अच्छा उत्तर क्या है और क्या नहीं है। स्क्रीन के पीछे बहुत सारे मानव कार्यकर्ता छिपे हुए हैं, और यदि मॉडल में सुधार जारी रखना है या अपनी सामग्री कवरेज का विस्तार करना है तो उनकी हमेशा आवश्यकता होगी।

टाइम पत्रिका में पत्रकारों द्वारा हाल ही में प्रकाशित एक जांच से पता चला है कि सैकड़ों केन्याई कार्यकर्ताओं ने चैटजीपीटी को ऐसी नकल न करने की सीख देने के लिए इंटरनेट की सबसे गहरी गहराइयों से यौन हिंसा के ग्राफिक विवरणों सहित नस्लवादी, लिंगवादी और परेशान करने वाले लेखन को पढ़ने और लेबल करने में हजारों घंटे बिताए। सामग्री। उन्हें प्रति घंटे 2 अमेरिकी डॉलर से अधिक का भुगतान नहीं किया गया था, और कई लोगों ने इस काम के कारण मनोवैज्ञानिक संकट का अनुभव करने की बात कही थी।

ChatGPT क्या नहीं कर सकता

फीडबैक के महत्व को सीधे चैटजीपीटी की "मतिभ्रम" करने की प्रवृत्ति में देखा जा सकता है; यानी आत्मविश्वास से गलत उत्तर देना। चैटजीपीटी बिना प्रशिक्षण के किसी विषय पर अच्छे उत्तर नहीं दे सकता, भले ही उस विषय के बारे में अच्छी जानकारी इंटरनेट पर व्यापक रूप से उपलब्ध हो। आप चैटजीपीटी से अधिक और कम अस्पष्ट चीजों के बारे में पूछकर इसे स्वयं आज़मा सकते हैं। मुझे चैटजीपीटी से विभिन्न काल्पनिक कार्यों के कथानकों को संक्षेप में प्रस्तुत करने के लिए कहना विशेष रूप से प्रभावी लगा क्योंकि, ऐसा लगता है, मॉडल को कल्पना की तुलना में गैर-काल्पनिक पर अधिक कठोरता से प्रशिक्षित किया गया है।

मेरे अपने परीक्षण में, चैटजीपीटी ने जे.आर.आर. के कथानक का सारांश प्रस्तुत किया। टॉल्किन का "द लॉर्ड ऑफ द रिंग्स", एक बहुत प्रसिद्ध उपन्यास है, जिसमें केवल कुछ गलतियाँ हैं। लेकिन गिल्बर्ट और सुलिवान के "द पाइरेट्स ऑफ पेनज़ेंस" और उर्सुला के. ले गिन के "द लेफ्ट हैंड ऑफ डार्कनेस" के सारांश - दोनों थोड़े अधिक विशिष्ट लेकिन अस्पष्ट से बहुत दूर हैं - चरित्र और स्थान के नामों के साथ मैड लिब्स के किरदार के करीब आते हैं। इससे कोई फर्क नहीं पड़ता कि इन कार्यों से संबंधित विकिपीडिया पृष्ठ कितने अच्छे हैं। मॉडल को केवल सामग्री की नहीं, प्रतिक्रिया की आवश्यकता है।

क्योंकि बड़े भाषा मॉडल वास्तव में जानकारी को समझते या उसका मूल्यांकन नहीं करते हैं, इसलिए वे इसे करने के लिए मनुष्यों पर निर्भर रहते हैं। वे मानव ज्ञान और श्रम पर परजीवी हैं। जब नए स्रोत हों

Tags:    

Similar News

-->