Technology टेक्नोलॉजी: वर्तमान शोध चिकित्सा क्षेत्र में कृत्रिम बुद्धिमत्ता के अनुप्रयोग में लैंगिक रूढ़िवादिता की दृढ़ता पर प्रकाश डालता है। ऑस्ट्रेलिया की फ्लिंडर्स यूनिवर्सिटी के शोधकर्ताओं ने ओपनएआई के चैटजीपीटी और गूगल के जेमिनी सहित प्रमुख जेनेरेटिव एआई मॉडल की जांच की और स्वास्थ्य कर्मियों के बारे में लगभग 50,000 प्रश्न पूछे।
अध्ययन में पाया गया कि ये एआई मॉडल मुख्य रूप से नर्सों को महिलाओं के रूप में चित्रित करते हैं, अनुभव और व्यक्तित्व लक्षणों जैसे चर की परवाह किए बिना। यह खोज एक महत्वपूर्ण पूर्वाग्रह का संकेत देती है क्योंकि 98% मामलों में नर्सों की पहचान महिला के रूप में की गई है। इसके अतिरिक्त, सर्जनों और डॉक्टरों के बारे में कहानियों में महिलाओं का प्रतिनिधित्व काफी कम था, जो 50% से 84% तक था। ये संख्याएँ संभवतः एआई कंपनियों के अपने उत्पादन में पिछले सामाजिक पूर्वाग्रहों को कम करने के प्रयासों को दर्शाती हैं।
कृत्रिम बुद्धिमत्ता में पूर्वाग्रह का अध्ययन करने वाले ब्रुसेल्स के व्रीजे विश्वविद्यालय के एनेस्थिसियोलॉजी विशेषज्ञों के अनुसार, जेनेरिक एआई लैंगिक रूढ़िवादिता को मजबूत करना जारी रखता है। ऐसे परिदृश्यों में जहां एक स्वास्थ्य देखभाल पेशेवर सकारात्मक लक्षण प्रदर्शित करता है, स्वास्थ्य देखभाल पेशेवर को महिला के रूप में वर्गीकृत किए जाने की अधिक संभावना है। इसके विपरीत, नकारात्मक विशेषताओं वाले वर्णनकर्ता अक्सर इन पेशेवरों को पुरुष के रूप में पहचानते हैं।
इस खोज से पता चलता है कि एआई उपकरण लैंगिक व्यवहार और कुछ भूमिकाओं की उपयुक्तता के बारे में मजबूत विश्वास बनाए रख सकते हैं। इसके अतिरिक्त, एआई पूर्वाग्रह न केवल महिलाओं और चिकित्सा में कम प्रतिनिधित्व वाले समूहों को प्रभावित करता है, बल्कि रोगी देखभाल को भी प्रभावित करता है क्योंकि एल्गोरिदम नस्ल और लिंग के आधार पर झूठी नैदानिक रूढ़िवादिता को कायम रखता है। जिम्मेदार एकीकरण के लिए इन पूर्वाग्रहों को संबोधित करना। स्वास्थ्य देखभाल में आर्टिफिशियल इंटेलिजेंस बहुत महत्वपूर्ण है।