नई दिल्ली: चुनिंदा बोर्ड सदस्यों से बनी यह समिति OpenAI की प्रक्रियाओं और सुरक्षा उपायों का मूल्यांकन और संवर्द्धन करेगी। इसमें निदेशक ब्रेट टेलर (अध्यक्ष), एडम डी'एंजेलो, निकोल सेलिगमैन और सीईओ सैम ऑल्टमैन शामिल हैं। OpenAI ने कंपनी की सुरक्षा और सुरक्षा उपायों की देखरेख के लिए एक नई सुरक्षा और सुरक्षा समिति के गठन की घोषणा की है। चुनिंदा बोर्ड सदस्यों से बनी यह समिति सैन फ्रांसिस्को स्थित AI फर्म की प्रक्रियाओं और सुरक्षा उपायों का मूल्यांकन और संवर्द्धन करेगी। इस समिति का गठन OpenAI द्वारा अपने अगली पीढ़ी के कृत्रिम बुद्धिमत्ता (AI) मॉडल के परीक्षण के साथ मेल खाता है। हाल ही में, कंपनी ने अपना मॉडल स्पेक दस्तावेज़ भी जारी किया, जिसमें जिम्मेदार और नैतिक AI मॉडल बनाने के अपने दृष्टिकोण को रेखांकित किया गया है।
OpenAI ने एक ब्लॉग पोस्ट में अपनी नई समिति के बारे में विस्तार से बताया, जिसमें निदेशक ब्रेट टेलर (अध्यक्ष), एडम डी'एंजेलो, निकोल सेलिगमैन और सीईओ सैम ऑल्टमैन शामिल हैं। समिति OpenAI की परियोजनाओं और संचालन के लिए महत्वपूर्ण सुरक्षा और सुरक्षा निर्णयों पर पूर्ण बोर्ड को सिफारिशें करेगी। निदेशकों के अलावा, समिति में OpenAI के तैयारी प्रमुख अलेक्जेंडर मैड्री, सुरक्षा प्रणालियों के प्रमुख जॉन शुलमैन, सुरक्षा प्रमुख मैट नाइट और मुख्य वैज्ञानिक जैकब पचोकी शामिल होंगे। अगले 90 दिनों में, समिति फर्म की सुरक्षा प्रक्रियाओं और सुरक्षा उपायों का मूल्यांकन और विकास करेगी। फिर वे अपने निष्कर्षों और सिफारिशों को पूर्ण बोर्ड के सामने पेश करेंगे, जो OpenAI द्वारा अपनाई गई सिफारिशों को सार्वजनिक रूप से साझा करने से पहले उनकी समीक्षा करेगा।
OpenAI की हालिया पहलों में एक नए, उन्नत AI मॉडल का परीक्षण करना शामिल है, जिसे 'फ्रंटियर' AI मॉडल कहा जाता है। इस बड़े भाषा मॉडल (LLM) से कंपनी को आर्टिफिशियल जनरल इंटेलिजेंस (AGI) हासिल करने के करीब लाने की उम्मीद है। AGI एक प्रकार का AI है जो मानव जैसी बुद्धिमत्ता के साथ वास्तविक दुनिया के कार्यों की एक विस्तृत श्रृंखला में ज्ञान को समझ, सीख और लागू कर सकता है। कुछ परिभाषाएँ यह भी बताती हैं कि AGI स्वायत्त रूप से कार्य कर सकता है और आत्म-जागरूकता की एक डिग्री विकसित कर सकता है।