Lok Shakti

Nationalism Always Empower People

‘बॉर्डरलाइन’ समस्याग्रस्त सामग्री तेजी से, रडार के नीचे फिसलती है: फेसबुक मेमो

15 अप्रैल, 2019, सोशल मीडिया कंपनी के आंतरिक ज्ञापन के अनुसार, “सीमा रेखा सामग्री” का 40 प्रतिशत, जिसे फेसबुक के संविदात्मक मध्यस्थों द्वारा अनदेखा किया गया था, समस्याग्रस्त था और इसमें “नग्नता”, “हिंसा” और “नफरत” शामिल थे।

फेसबुक “बॉर्डरलाइन कंटेंट” को परिभाषित करता है, जो “सामुदायिक मानकों का उल्लंघन नहीं करता है, लेकिन सीएस (सामुदायिक मानक) द्वारा कवर किए गए क्षेत्र में पहचान योग्य रूप से समस्याग्रस्त है”।

अधिक महत्वपूर्ण रूप से, इस तरह की सामग्री ने उन पोस्ट की तुलना में व्यूपोर्ट व्यू (वीपीवी) का 10 गुना उत्पन्न किया, जिन्हें प्लेटफ़ॉर्म के दिशानिर्देशों का एकमुश्त उल्लंघन करने के रूप में चिह्नित किया गया था, दस्तावेज़ में दिखाया गया है। व्यूपोर्ट व्यू एक फेसबुक मीट्रिक है जो यह मापने के लिए है कि सामग्री वास्तव में उपयोगकर्ताओं द्वारा कितनी बार देखी जाती है।

अप्रैल 2019 की रिपोर्ट में यह भी बताया गया है कि सीमा रेखा सामग्री “सौम्य” पदों की तुलना में अधिक सहभागिता प्राप्त करती है, और “उच्च वितरण” प्राप्त करने की प्रवृत्ति है – जिसका अर्थ है कि यह अधिक फेसबुक उपयोगकर्ताओं तक पहुंच गया – और “विकृत प्रोत्साहन का मुकाबला करने के लिए हस्तक्षेप की आवश्यकता” को रेखांकित किया।

ये आंतरिक निष्कर्ष मेटा प्लेटफॉर्म्स इंक के मुख्य कार्यकारी अधिकारी मार्क जुकरबर्ग के लगभग एक साल बाद आते हैं – फेसबुक को इस साल 28 अक्टूबर को मेटा के रूप में रीब्रांड किया गया था – 2018 में एक विस्तृत नोट साझा किया था कि कैसे प्लेटफ़ॉर्म ने सीमा रेखा सामग्री को फ़िल्टर और डिमोट करने की योजना बनाई है। मेटा का यह भी दावा है कि उसने अपने सोशल मीडिया प्लेटफॉर्म पर भड़काऊ भाषण को कम करने में बिताए घंटों की संख्या बढ़ा दी है।

सीमा रेखा सामग्री के उच्च जुड़ाव स्तर और ऐसी सामग्री को हटाने की आवश्यकता के बीच संघर्ष के बारे में पूछे जाने पर, मेटा प्रवक्ता ने कहा: “हम सीमा रेखा सामग्री का पता लगाने के लिए एआई सिस्टम को प्रशिक्षित करते हैं ताकि हम उस सामग्री को कम वितरित कर सकें। चुनाव से पहले या चुनाव के दौरान समस्यात्मक सामग्री के वायरल होने और संभावित रूप से हिंसा भड़काने के जोखिम को कम करने के लिए, हम उस सामग्री के वितरण को महत्वपूर्ण रूप से कम कर देंगे जिसे हमारी सक्रिय पहचान तकनीक संभावित अभद्र भाषा या हिंसा और उकसावे के रूप में पहचानती है। हमारी नीतियों का उल्लंघन करने के लिए निर्धारित होने पर इस सामग्री को हटा दिया जाएगा, लेकिन इसका वितरण तब तक कम रहेगा जब तक कि यह निर्धारण नहीं हो जाता।

“हमारे मौजूदा सामुदायिक मानकों के तहत, हम कुछ ऐसे अपशब्दों को हटाते हैं जिन्हें हम अभद्र भाषा के रूप में निर्धारित करते हैं। उस प्रयास को पूरा करने के लिए, हम अभद्र भाषा से जुड़े नए शब्दों और वाक्यांशों की पहचान करने के लिए प्रौद्योगिकी को तैनात कर सकते हैं, और या तो उस भाषा के साथ पोस्ट हटा सकते हैं या उनके वितरण को कम कर सकते हैं, ”प्रवक्ता ने कहा।

ये आंतरिक रिपोर्ट संयुक्त राज्य प्रतिभूति और विनिमय आयोग (एसईसी) के सामने प्रकट किए गए दस्तावेज़ों का हिस्सा हैं और पूर्व फेसबुक कर्मचारी और व्हिसलब्लोअर फ्रांसेस हौगेन के कानूनी सलाहकार द्वारा संशोधित रूप में कांग्रेस को प्रदान किए गए हैं। कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा द इंडियन एक्सप्रेस सहित वैश्विक समाचार संगठनों के एक संघ द्वारा की गई है।

आंतरिक दस्तावेजों का एक और सेट, जिसका शीर्षक “भारत में सांप्रदायिक संघर्ष” है, ने पाया कि जब मार्च 2020 में हिंदी और बंगाली में अभद्र भाषा की सामग्री बढ़ गई, तो फेसबुक की “इस (बंगाली) सामग्री पर कार्रवाई की दर मार्च (2020) से लगभग पूरी तरह से गिर गई है। ) रिपोर्टिंग दरों में वृद्धि के बीच कम कार्रवाई दर से प्रेरित”, यहां तक ​​​​कि अंग्रेजी भाषा में पदों के लिए की गई कार्रवाई में तेजी से वृद्धि हुई।

“जून 2019 के बाद से, भारत में प्रति दैनिक सक्रिय उपयोगकर्ताओं के लिए कार्रवाई से घृणा सामग्री विशेष रूप से अंग्रेजी सामग्री के लिए काफी बढ़ गई है, जो 1 जून 2019 की तुलना में आज 4 गुना अधिक है। अंग्रेजी वृद्धि उच्च कार्रवाई दरों से प्रेरित है, रिपोर्ट नहीं,” आंतरिक रिपोर्ट दिखाया।

कंपनी के प्रवक्ता ने कहा: “अभद्र भाषा के आसपास हमारी सक्रिय पहचान दर 97% से अधिक बनी हुई है, जिसका अर्थ है कि लगभग 97% अभद्र भाषा सामग्री जिसे हम हटाते हैं, हम किसी के द्वारा रिपोर्ट किए जाने से पहले ही इसका सक्रिय रूप से पता लगा लेते हैं। इस उदाहरण में, आप उपयोगकर्ताओं द्वारा रिपोर्ट की गई सामग्री को हमारे क्लासिफायर (एआई टेक्नोलॉजी) द्वारा पकड़ी गई सामग्री से मिला रहे हैं। रिपोर्ट की गई सामग्री पर कम कार्रवाई दर विभिन्न कारणों से हो सकती है, हम उन्हें अपनी मासिक रिपोर्ट में भी समझाते हैं।”

कम कार्रवाई दर की व्याख्या करने वाले कुछ कारणों में कंपनी की किसी भी नीति का उल्लंघन नहीं करने वाली रिपोर्ट की गई सामग्री शामिल है; रिपोर्टर उस सामग्री का पता लगाने के लिए पर्याप्त जानकारी प्रदान नहीं कर रहा है जिसकी वे रिपोर्ट करने का प्रयास कर रहे हैं; कंपनी की नीतियां उसे रिपोर्ट की गई सामग्री पर कोई कार्रवाई करने की अनुमति नहीं देती हैं; और रिपोर्टर “हमें अपने और तीसरे पक्ष के बीच एक विवाद के बारे में लिख रहा है, जिसे फेसबुक मध्यस्थता करने की स्थिति में नहीं है”, प्रवक्ता ने कहा।

इंडियन एक्सप्रेस ने इस सप्ताह की शुरुआत में बताया था कि पिछले दो वर्षों में कई आंतरिक फेसबुक रिपोर्टों ने 2019 की लोकसभा के “एक महत्वपूर्ण घटक” के रूप में “अल्पसंख्यक विरोधी” और “मुस्लिम विरोधी” बयानबाजी में वृद्धि को लाल झंडी दिखा दी थी। चुनाव अभियान।

.