Lok Shakti

Nationalism Always Empower People

3 स्टाफ मेमो ने भारत में ‘ध्रुवीकरण’ सामग्री, अभद्र भाषा को हरी झंडी दिखाई लेकिन फेसबुक ने कहा कि कोई समस्या नहीं है

“राष्ट्रवादी सामग्री के ध्रुवीकरण के निरंतर अवरोध” से, “नकली या अप्रमाणिक” संदेश, “गलत सूचना” से लेकर अल्पसंख्यक समुदायों को “बदनाम” करने वाली सामग्री तक, भारत में इसके संचालन से संबंधित कई लाल झंडे 2018 और 2020 के बीच फेसबुक में आंतरिक रूप से उठाए गए थे।

हालाँकि, निरीक्षण कार्यों को करने के लिए अनिवार्य कर्मचारियों द्वारा इन स्पष्ट अलर्ट के बावजूद, 2019 में क्रिस कॉक्स, तत्कालीन उपाध्यक्ष, फेसबुक के साथ एक आंतरिक समीक्षा बैठक में मंच पर “समस्या सामग्री (अभद्र भाषा, आदि) का तुलनात्मक रूप से कम प्रसार” पाया गया।

लोकसभा चुनाव से महीनों पहले जनवरी-फरवरी 2019 में अभद्र भाषा और “समस्या सामग्री” को हरी झंडी दिखाने वाली दो रिपोर्टें प्रस्तुत की गईं।

अगस्त 2020 के अंत तक एक तीसरी रिपोर्ट ने स्वीकार किया कि प्लेटफ़ॉर्म के AI (कृत्रिम बुद्धिमत्ता) उपकरण “स्थानीय भाषाओं की पहचान करने” में असमर्थ थे और इसलिए, अभद्र भाषा या समस्याग्रस्त सामग्री की पहचान करने में विफल रहे।

लोकसभा चुनाव से महीनों पहले जनवरी-फरवरी 2019 में अभद्र भाषा और “समस्या सामग्री” को हरी झंडी दिखाने वाली दो रिपोर्टें प्रस्तुत की गईं।

फिर भी, कॉक्स के साथ बैठक के मिनट्स ने निष्कर्ष निकाला: “सर्वेक्षण हमें बताता है कि लोग आम तौर पर सुरक्षित महसूस करते हैं। विशेषज्ञ हमें बताते हैं कि देश अपेक्षाकृत स्थिर है।”

प्रतिक्रिया में ये स्पष्ट अंतराल उन दस्तावेजों में प्रकट होते हैं जो संयुक्त राज्य प्रतिभूति और विनिमय आयोग (एसईसी) को किए गए खुलासे का हिस्सा हैं और अमेरिकी कांग्रेस को पूर्व फेसबुक कर्मचारी और व्हिसलब्लोअर फ्रांसेस हौगेन के कानूनी सलाहकार द्वारा संशोधित रूप में प्रदान किए गए हैं।

फ़ेसबुक डेटा वैज्ञानिक से व्हिसलब्लोअर बने पूर्व फ़्रांसेस हौगेन ने दस्तावेज़ों की एक श्रृंखला जारी की है जिससे पता चला है कि सोशल नेटवर्क की दिग्गज कंपनी के उत्पादों ने किशोर लड़कियों के मानसिक स्वास्थ्य को नुकसान पहुँचाया है। (एपी)

अमेरिकी कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा द इंडियन एक्सप्रेस सहित वैश्विक समाचार संगठनों के एक संघ द्वारा की गई है।

कॉक्स की बैठक और इन आंतरिक ज्ञापनों पर द इंडियन एक्सप्रेस के प्रश्नों का फेसबुक ने कोई जवाब नहीं दिया।

कॉक्स के साथ समीक्षा बैठक भारत के चुनाव आयोग द्वारा 11 अप्रैल, 2019 को लोकसभा चुनाव के लिए सात चरणों के कार्यक्रम की घोषणा से एक महीने पहले हुई थी।

कॉक्स के साथ बैठकें, जिन्होंने उस वर्ष मार्च में कंपनी छोड़ दी थी, केवल जून 2020 में मुख्य उत्पाद अधिकारी के रूप में लौटने के लिए, हालांकि, यह इंगित किया कि “उप-क्षेत्रों में बड़ी समस्याएं देश स्तर पर खो सकती हैं”।

पहली रिपोर्ट “एडवरसैरियल हार्मफुल नेटवर्क्स: इंडिया केस स्टडी” में कहा गया है कि पश्चिम बंगाल में सैंपल की गई टॉप वीपीवी (व्यू पोर्ट व्यू) पोस्टिंग के 40 प्रतिशत तक या तो नकली या अप्रामाणिक थे।

वीपीवी या व्यूपोर्ट व्यू एक फेसबुक मीट्रिक है जो यह मापने के लिए है कि सामग्री वास्तव में उपयोगकर्ताओं द्वारा कितनी बार देखी जाती है।

दूसरी – एक आंतरिक रिपोर्ट – फरवरी 2019 में एक कर्मचारी द्वारा लिखी गई, एक परीक्षण खाते के निष्कर्षों पर आधारित है। एक परीक्षण खाता एक डमी उपयोगकर्ता होता है, जिसके फेसबुक कर्मचारी द्वारा प्लेटफॉर्म की विभिन्न विशेषताओं के प्रभाव को बेहतर ढंग से समझने के लिए कोई मित्र नहीं बनाया जाता है।

यह रिपोर्ट बताती है कि केवल तीन हफ्तों में, परीक्षण उपयोगकर्ता की समाचार फ़ीड “राष्ट्रवादी सामग्री, गलत सूचना, और हिंसा और गोर के ध्रुवीकरण का लगभग निरंतर बंधन बन गई थी”।

परीक्षण उपयोगकर्ता ने केवल प्लेटफ़ॉर्म के एल्गोरिथम द्वारा अनुशंसित सामग्री का अनुसरण किया। यह खाता 4 फरवरी को बनाया गया था, इसमें किसी भी मित्र को ‘जोड़’ नहीं दिया गया था, और इसकी समाचार फ़ीड “बहुत खाली” थी।

रिपोर्ट के मुताबिक, ‘वॉच’ और ‘लाइव’ टैब ही ऐसी एकमात्र सतह हैं, जिनमें सामग्री तब होती है जब कोई उपयोगकर्ता दोस्तों से जुड़ा नहीं होता है।

कर्मचारी की रिपोर्ट में कहा गया है, “इस सामग्री की गुणवत्ता … आदर्श नहीं है,” एल्गोरिथम अक्सर उपयोगकर्ता को “सॉफ्टकोर पोर्न का एक गुच्छा” का सुझाव देता है।

अगले दो हफ्तों में, और विशेष रूप से 14 फरवरी के पुलवामा आतंकी हमले के बाद, एल्गोरिथ्म ने उन समूहों और पृष्ठों का सुझाव देना शुरू कर दिया, जो ज्यादातर राजनीति और सैन्य सामग्री के आसपास केंद्रित थे। परीक्षण उपयोगकर्ता ने कहा कि उसने “पिछले 3 हफ्तों में मृत लोगों की अधिक छवियां देखी हैं, जो मैंने अपने पूरे जीवन में देखी हैं”।

फेसबुक ने अक्टूबर में द इंडियन एक्सप्रेस को बताया था कि उसने हिंदी और बंगाली सहित विभिन्न भाषाओं में अभद्र भाषा खोजने के लिए प्रौद्योगिकी में काफी निवेश किया है।

“परिणामस्वरूप, हमने इस वर्ष लोगों द्वारा देखे जाने वाले अभद्र भाषा की मात्रा को आधा कर दिया है। आज यह 0.05 प्रतिशत पर आ गया है। मुसलमानों सहित हाशिए के समूहों के खिलाफ अभद्र भाषा विश्व स्तर पर बढ़ रही है। इसलिए हम प्रवर्तन में सुधार कर रहे हैं और अपनी नीतियों को अपडेट करने के लिए प्रतिबद्ध हैं क्योंकि अभद्र भाषा ऑनलाइन विकसित होती है, ”एक फेसबुक प्रवक्ता ने कहा था।

हालाँकि, अगस्त 2020 में फेसबुक के एल्गोरिदम और मालिकाना एआई टूल के अभद्र भाषा और समस्याग्रस्त सामग्री को फ़्लैग करने में असमर्थ होने का मुद्दा, जब कर्मचारियों ने अभद्र भाषा सामग्री को रोकने के लिए कंपनी के “भारत के लिए निवेश और योजनाओं” पर सवाल उठाया।

“आज की कॉल से, ऐसा लगता है कि एआई (कृत्रिम बुद्धिमत्ता) स्थानीय भाषाओं की पहचान करने में सक्षम नहीं है और इसलिए मुझे आश्चर्य है कि हम अपने देश में इससे कैसे और कब निपटने की योजना बना रहे हैं? यह पूरी तरह से स्पष्ट है कि वर्तमान में हमारे पास जो है वह पर्याप्त नहीं है,” एक अन्य आंतरिक ज्ञापन में कहा गया है।

मेमो फेसबुक कर्मचारियों और वरिष्ठ अधिकारियों के बीच चर्चा का एक हिस्सा हैं। कर्मचारियों ने सवाल किया कि संभावित अभद्र भाषा को पकड़ने के लिए फेसबुक के पास “यहां तक ​​​​कि बुनियादी महत्वपूर्ण काम का पता लगाने” भी नहीं था।

“मुझे यह अकल्पनीय लगता है कि इस तरह की चीज़ों को पकड़ने के लिए हमारे पास बुनियादी कुंजी कार्य पहचान भी नहीं है। आखिर एक कंपनी के रूप में गर्व नहीं किया जा सकता है अगर हम इस तरह की बर्बरता को अपने नेटवर्क पर पनपने देते हैं, ”एक कर्मचारी ने चर्चा में कहा।
मेमो से पता चलता है कि कर्मचारियों ने यह भी पूछा कि मंच ने अल्पसंख्यक समुदायों के सहयोगियों के विश्वास को “वापस कमाने” की योजना कैसे बनाई, खासकर जब एक वरिष्ठ भारतीय फेसबुक कार्यकारी ने अपने व्यक्तिगत फेसबुक प्रोफाइल पर एक पोस्ट साझा की, जिसे कई लोगों ने “अपमानित” महसूस किया।

.