अध्ययनों से पता चला है कि सोशल मीडिया समाज का उस तरह से ध्रुवीकरण नहीं कर रहा है जिस तरह सोचते हैं लोग
नई दिल्ली: सामाजिक वैज्ञानिकों का कहना है कि सोशल मीडिया उपयोगकर्ता के फ़ीड को नियंत्रित करने वाले एल्गोरिदम, हालांकि काफी हद तक अपारदर्शी हैं, समाज का ध्रुवीकरण नहीं कर सकते हैं जैसा कि जनता सोचती है।
उन्होंने नेचर एंड साइंस पत्रिकाओं में 2020 में अमेरिकी राष्ट्रपति चुनाव के दौरान व्यक्तियों के राजनीतिक दृष्टिकोण और व्यवहार पर सोशल मीडिया के प्रभाव की जांच करने वाले अध्ययन प्रकाशित किए हैं।
"यह धारणा कि ऐसे एल्गोरिदम राजनीतिक 'फ़िल्टर बुलबुले' बनाते हैं, ध्रुवीकरण को बढ़ावा देते हैं, मौजूदा सामाजिक असमानताओं को बढ़ाते हैं, और गलत सूचना के प्रसार को सक्षम करते हैं, सार्वजनिक चेतना में जड़ें जमा चुकी हैं," इनमें से एक नव प्रकाशित पुस्तक के मुख्य लेखक एंड्रयू एम. गेस लिखते हैं। सोशल मीडिया कंपनियों द्वारा उपयोग किए जाने वाले अपारदर्शी-से-उपयोगकर्ता एल्गोरिदम के बारे में अध्ययन और सहकर्मी।
नेचर अध्ययन में पाया गया कि एक फेसबुक उपयोगकर्ता को उनके समान राजनीतिक विचारधारा वाले स्रोतों या "समान विचारधारा वाले" स्रोतों से सामग्री को उजागर करने से 2020 के अमेरिकी राष्ट्रपति चुनाव के दौरान उपयोगकर्ता की राजनीतिक मान्यताओं या दृष्टिकोण पर कोई खास प्रभाव नहीं पड़ा।
अध्ययन के चार प्रमुख लेखकों में से एक ब्रेंडन नाहन ने कहा, "इन निष्कर्षों का मतलब यह नहीं है कि सामान्य रूप से सोशल मीडिया या विशेष रूप से फेसबुक के बारे में चिंतित होने का कोई कारण नहीं है।"
नाइहान ने कहा कि जबकि सोशल मीडिया प्लेटफॉर्म चरमपंथ में योगदान देने के तरीकों के बारे में हमारी कई अन्य चिंताएं हो सकती हैं, समान विचारधारा वाले स्रोतों की सामग्री का संपर्क संभवतः उनमें से एक नहीं था।
नाहन ने कहा, "हमें अधिक डेटा पारदर्शिता की आवश्यकता है जो सोशल मीडिया प्लेटफॉर्म पर क्या हो रहा है और इसके प्रभावों पर और अधिक शोध करने में सक्षम हो।"
"हमें उम्मीद है कि हमारे सबूत पहेली के पहले टुकड़े के रूप में काम करेंगे, आखिरी नहीं।"
साइंस में प्रकाशित अध्ययनों ने इन सवालों के जवाब देने में मदद की - क्या सोशल मीडिया हमें एक समाज के रूप में अधिक ध्रुवीकृत बनाता है, या केवल पहले से मौजूद विभाजनों को दर्शाता है? क्या इससे लोगों को राजनीति के बारे में बेहतर जानकारी प्राप्त करने में मदद मिलती है, या कम? और सोशल मीडिया सरकार और लोकतंत्र के प्रति लोगों के रवैये को कैसे प्रभावित करता है?
किसी व्यक्ति की राजनीति पर एल्गोरिथम फ़ीड-रैंकिंग सिस्टम के प्रभाव की जांच करते हुए, गेस और टीम ने अगस्त 2020 में अपने फेसबुक और इंस्टाग्राम फ़ीड के शीर्ष पर रखे गए सर्वेक्षण आमंत्रणों के माध्यम से प्रतिभागियों को भर्ती किया और उन्हें उपचार और नियंत्रण समूहों में विभाजित किया।
तीन महीने के विश्लेषण के बाद, शोधकर्ताओं को उपचार समूह में कोई पता लगाने योग्य परिवर्तन नहीं मिला, जो नियंत्रण समूह की तुलना में प्लेटफार्मों पर सामग्री के साथ कम जुड़े हुए थे और अधिक वैचारिक रूप से विविध सामग्री के संपर्क में थे, जिनके फ़ीड के साथ छेड़छाड़ नहीं की गई थी।
गेस के नेतृत्व में एक दूसरे अध्ययन में, फेसबुक पर पुनः साझा की गई सामग्री को दबाने से, जबकि उपयोगकर्ताओं के सामने आने वाली राजनीतिक समाचारों की मात्रा में काफी कमी आई, यह पाया गया कि राजनीतिक विचारों पर कोई प्रभाव नहीं पड़ता है।
उन्होंने एक नियंत्रण समूह की तुलना एक उपचार समूह से की जिसके लिए फेसबुक फ़ीड में कोई बदलाव नहीं किया गया था, जिसके लिए पुनः साझा की गई सामग्री को फ़ीड से हटा दिया गया था।
पुनः साझा की गई सामग्री को हटाने से, जिसे पहले राजनीतिक ध्रुवीकरण और राजनीतिक ज्ञान को बढ़ाने के लिए दिखाया गया था, पक्षपातपूर्ण समाचार लिंक पर उपयोगकर्ताओं के क्लिक में कमी आई, उनके द्वारा देखी जाने वाली राजनीतिक समाचारों का अनुपात और अविश्वसनीय सामग्री के प्रति उनका प्रदर्शन कम हो गया।
हालाँकि, लेखक उपचार समूह में कम समाचार ज्ञान के अलावा, उपयोगकर्ताओं के राजनीतिक दृष्टिकोण या व्यवहार में बदलाव का विश्वसनीय रूप से पता नहीं लगा सके।
"हालांकि 2020 के चुनाव अभियान के दौरान फेसबुक पर उपयोगकर्ताओं का ध्यान और व्यवहार को निर्देशित करने के लिए रीशेयर एक शक्तिशाली तंत्र हो सकता है," लेखकों ने निष्कर्ष निकाला, "उनका राजनीतिक रूप से प्रासंगिक दृष्टिकोण और ऑफ़लाइन व्यवहार पर सीमित प्रभाव पड़ा।"
तीसरे अध्ययन में, सैंड्रा गोंजालेज-बैलोन और सहकर्मियों ने राजनीतिक रूप से रूढ़िवादी उपयोगकर्ताओं को बहुत अधिक अलग-थलग होने और मंच पर कहीं अधिक गलत सूचनाओं का सामना करने की रिपोर्ट दी है।
गोंजालेज-बैलोन और टीम ने लिखा, "फेसबुक" को वैचारिक रूप से काफी हद तक अलग किया गया है - ब्राउज़िंग व्यवहार के आधार पर इंटरनेट समाचार उपभोग पर पिछले शोध से कहीं अधिक।
उन्होंने 2020 के चुनाव के दौरान 208 मिलियन फेसबुक उपयोगकर्ताओं के नमूने में राजनीतिक सामग्री के प्रवाह की जांच की - सभी सामग्री उपयोगकर्ता संभावित रूप से देख सकते थे; सामग्री जो उन्होंने वास्तव में फेसबुक के एल्गोरिदम द्वारा चुनिंदा रूप से क्यूरेट की गई फ़ीड पर देखी थी; और क्लिक, पुनः साझाकरण या अन्य प्रतिक्रियाओं के माध्यम से जुड़ी सामग्री।
उदारवादियों की तुलना में, लेखकों ने पाया कि राजनीतिक रूप से रूढ़िवादी उपयोगकर्ता अपने समाचार स्रोतों में कहीं अधिक चुप रहते हैं और बहुत अधिक गलत सूचनाओं के संपर्क में आते हैं।
जबकि राजनीतिक समाचारों में इंटरनेट की भूमिका के बारे में जोरदार बहस चल रही है, जो लोग सामना करते हैं, समाचार जो उन्हें विश्वास बनाने में मदद करते हैं, और इस प्रकार "वैचारिक अलगाव" में, इस अध्ययन में पाया गया कि एल्गोरिदम और उपयोगकर्ताओं की पसंद दोनों ने इसमें भूमिका निभाई है यह वैचारिक अलगाव.
यह मुख्य रूप से फेसबुक के पेजों और समूहों में सामने आया - जिन क्षेत्रों को नीति निर्माता गलत सूचना से निपटने के लिए लक्षित कर सकते हैं - दोस्तों द्वारा पोस्ट की गई सामग्री के विपरीत, लेखकों ने कहा, जो आगे के शोध के लिए एक महत्वपूर्ण दिशा थी।
ये निष्कर्ष अमेरिकी लोकतंत्र में सोशल मीडिया की भूमिका की जांच करने वाली एक व्यापक शोध परियोजना का हिस्सा हैं।
यूएस 2020 फेसबुक और इंस्टाग्राम इलेक्शन स्टडी के रूप में जाना जाने वाला यह प्रोजेक्ट सामाजिक वैज्ञानिकों को सोशल मीडिया डेटा प्रदान करता है, जो पहले पहुंच से बाहर था।
अमेरिकी कॉलेजों और विश्वविद्यालयों के सत्रह शिक्षाविदों ने फेसबुक की मूल कंपनी मेटा के साथ मिलकर इस बात पर स्वतंत्र शोध किया कि लोग सोशल मीडिया पर क्या देखते हैं और इसका उन पर क्या प्रभाव पड़ता है।
हितों के टकराव से बचाने के लिए, परियोजना में प्रयोगों को पूर्व-पंजीकृत करने सहित कई सुरक्षा उपाय शामिल हैं।
परियोजना में शामिल विश्वविद्यालयों में से एक के एक बयान में कहा गया है कि मेटा निष्कर्षों को प्रतिबंधित या सेंसर नहीं कर सकता है, और अकादमिक प्रमुख लेखकों को लेखन और अनुसंधान निर्णयों पर अंतिम अधिकार था।