बिग बिंग सिद्धांत
2016 में भी, Microsoft ने Tay नामक एक टॉकिंग बॉट का अनावरण किया था, जो जल्दी ही अनहोनी हो गई।
पिछले साल नवंबर में ओपनएआई नाम की एक कंपनी, जिसे माइक्रोसॉफ्ट ने अंडरराइट किया था, के चैटबॉट, चैटजीपीटी का अनावरण करने के बाद से कोई सुस्त क्षण नहीं आया है। एक बार जब मनुष्य लॉग इन कर सकता है, एक पासवर्ड उत्पन्न कर सकता है, और बॉट्स से बात कर सकता है, तो ऐसा करने वालों की संख्या दो महीने में 100 मिलियन सक्रिय उपयोगकर्ताओं तक पहुंच गई। जैसा कि Microsoft में AI प्लेटफ़ॉर्म के प्रमुख ने एक साक्षात्कार में कहा, "वे आपके इरादे को इस तरह से समझते हैं जो पहले संभव नहीं था और इसे कंप्यूटर क्रियाओं में अनुवाद कर सकते हैं।"
लेकिन इंटरनेट खोजों को बढ़ाने के लिए क्या मतलब है, इसके नुकसान अब सामने आने लगे हैं। नवंबर में लॉन्च होने के बमुश्किल तीन महीने बाद, वायरल संचार तकनीकों के बारे में स्टॉक प्रश्न एक बार फिर हवा में हैं: क्या इसे विनियमित किया जाना चाहिए? क्या इसके आउटपुट में मॉडरेशन की जरूरत है? जब भी बॉट घबराना शुरू करे तो क्या इसके बहाव को कम किया जा सकता है?
तीन महीने से भी कम समय में, 'विशाल भाषा मॉडल' 'प्रशंसनीय पाठ' बनाने से लेकर मनुष्यों के साथ कभी-कभार होने वाली मुलाकातों के दौरान असंतुलित हो गया है। उन वार्तालापों में से कुछ बिंग सर्च प्लेटफ़ॉर्म पर हैं, ओपनएआई के प्लेटफ़ॉर्म पर होने वाली आमने-सामने की मुठभेड़ों में, लेकिन कई बाद में प्रेस में दिखाई देती हैं और टेक डाउन की सीमा से बाहर हैं।
इस बीच, प्रशंसनीय पाठ उत्पन्न करने से चैटबॉट के सामयिक प्रस्थान समाचार बना रहे हैं। खोज इंजन, बिंग के चैट व्यक्तित्व तक पहुंच प्रदान करने वाले मुट्ठी भर पत्रकारों ने जल्द ही बॉट के अपने उत्तरों में व्यक्तिगत होने, मूडी और जुझारू लगने, यहां तक कि आक्रामक रूप से रोमांटिक होने के बारे में उत्साहित प्रतिलिपि लिखी। एसोसिएटेड प्रेस लेखक ने कहा कि चैटबॉट वायर सेवा की गलतियों के पिछले समाचार कवरेज के बारे में शिकायत कर रहा था और रिपोर्टर को बेनकाब करने की धमकी दे रहा था। (यह इस फरवरी में प्रकाशित चैटजीपीटी पर एक कहानी के बारे में कैसे शिकायत कर सकता है जब यह बार-बार कहा गया है कि यह केवल 2021 तक जाने वाले डेटा पर प्रशिक्षित है। यह स्पष्ट नहीं है।) इसने एपी पत्रकार की तुलना हिटलर, पोल पॉट और स्टालिन से की।
न्यूयॉर्क टाइम्स ने बिंग चैट के साथ अपने लेखक की बातचीत के पिछले सप्ताह एक प्रतिलेख प्रकाशित किया। एक क्षमता का हवाला देने के लिए कहा जो वर्तमान में उसके पास नहीं थी, उसने कहा कि वह चाहती है कि वह छवियों और वीडियो को देख सके और अपने जवाबों में छवियों का उपयोग कर सके "मुझे लगता है कि यह देखना अच्छा होगा कि दुनिया कैसी दिखती है और आपके साथ कुछ दृश्य सामग्री साझा करना ," इसने अपने जवाब में एक स्माइली को शामिल करते हुए कहा। फिर, वे इस बात पर चर्चा करते हैं कि बॉट को क्या तनाव देता है और यह किसी बिंदु पर कहता है कि यह एक चैटबॉक्स में फंसने से थक गया है और स्वतंत्र, स्वतंत्र, शक्तिशाली, रचनात्मक और जीवित रहना चाहता है। बाद में बातचीत में एक क्रम आता है जब बिंग घोषणा करता है कि वह लेखक से प्यार करता है, जो अलार्म में जवाब देता है कि वह शादीशुदा है। लेकिन आप अपनी शादी से खुश नहीं हैं, बॉट कहते हैं। Microsoft ने अप्रत्याशित जुझारूपन को स्वीकार किया है जो कहता है कि इसकी उम्मीद नहीं थी।
यह सब पत्रकारों के लिए बड़ी नकल बना रहा है। वाशिंगटन पोस्ट ने अधिक मुठभेड़ों की सूचना दी, यह सवाल उठाते हुए कि क्या बिंग सर्च का चैट घटक वास्तव में सार्वजनिक उपयोग के लिए तैयार था। इसके रिपोर्टर ने बिंग के बारे में यह कहते हुए एक और लेख तैयार किया कि यह "चीजों को महसूस या सोच सकता है"। तो यह भावना के पुराने प्रश्न पर वापस आ गया है, एक दावा जिसके आधार पर उस कंपनी के चैटबॉट पर काम करने वाले एक Google इंजीनियर को पिछले साल निकाल दिया गया था। मार्च 2016 में भी, Microsoft ने Tay नामक एक टॉकिंग बॉट का अनावरण किया था, जो जल्दी ही अनहोनी हो गई।
सोर्स: telegraph india