Lok Shakti

Nationalism Always Empower People

एआई द्वारा अश्वेत पुरुषों के वीडियो पर ‘प्राइमेट्स’ का लेबल लगाने के बाद फेसबुक ने माफी मांगी

फेसबुक उपयोगकर्ता जिन्होंने हाल ही में अश्वेत पुरुषों की विशेषता वाले एक ब्रिटिश टैब्लॉइड का एक वीडियो देखा, उन्होंने सोशल नेटवर्क से एक स्वचालित संकेत देखा जिसमें पूछा गया था कि क्या वे “प्राइमेट्स के बारे में वीडियो देखना जारी रखना” चाहते हैं, जिससे कंपनी कृत्रिम बुद्धिमत्ता-संचालित सुविधा की जांच और अक्षम कर सकती है। जिसने संदेश को आगे बढ़ाया।

फेसबुक ने शुक्रवार को “एक अस्वीकार्य त्रुटि” के लिए माफी मांगी और कहा कि वह “इसे फिर से होने से रोकने के लिए” सिफारिश की सुविधा पर विचार कर रहा था।

यह वीडियो 27 जून, 2020 को द डेली मेल का था और इसमें श्वेत नागरिकों और पुलिस अधिकारियों के साथ हुए झगड़े में अश्वेत लोगों की क्लिप दिखाई गई थी। इसका बंदरों या प्राइमेट से कोई संबंध नहीं था।

फेसबुक के पूर्व कंटेंट डिज़ाइन मैनेजर डार्सी ग्रोव्स ने कहा कि एक दोस्त ने हाल ही में उसे प्रॉम्प्ट का स्क्रीनशॉट भेजा था। फिर उसने इसे वर्तमान और पूर्व फेसबुक कर्मचारियों के लिए एक उत्पाद प्रतिक्रिया मंच पर पोस्ट किया। जवाब में, कंपनी की वीडियो सेवा, फेसबुक वॉच के एक उत्पाद प्रबंधक ने इसे “अस्वीकार्य” कहा और कहा कि कंपनी “मूल कारण की तलाश कर रही है।”

ग्रोव्स ने कहा कि संकेत “भयानक और प्रबल” था।

फेसबुक के प्रवक्ता डैनी लीवर ने एक बयान में कहा: “जैसा कि हमने कहा है, जबकि हमने अपने एआई में सुधार किया है, हम जानते हैं कि यह सही नहीं है, और हमें और प्रगति करनी है। हम किसी से भी माफी मांगते हैं, जिसने इन आपत्तिजनक सिफारिशों को देखा हो।”

Google, Amazon और अन्य प्रौद्योगिकी कंपनियां अपने AI सिस्टम के भीतर पूर्वाग्रहों के लिए वर्षों से जांच के दायरे में हैं, विशेष रूप से दौड़ के मुद्दों के आसपास। अध्ययनों से पता चला है कि चेहरे की पहचान तकनीक रंग के लोगों के प्रति पक्षपाती है और उन्हें पहचानने में अधिक परेशानी होती है, जिससे ऐसी घटनाएं होती हैं जहां कंप्यूटर त्रुटि के कारण काले लोगों के साथ भेदभाव या गिरफ्तार किया गया है।

2015 में एक उदाहरण में, Google फ़ोटो ने गलती से अश्वेत लोगों की तस्वीरों को “गोरिल्ला” के रूप में लेबल कर दिया, जिसके लिए Google ने कहा कि यह “वास्तव में खेद है” और इस मुद्दे को तुरंत ठीक करने के लिए काम करेगा। दो साल से अधिक समय के बाद, वायर्ड ने पाया कि Google का समाधान खोज से “गोरिल्ला” शब्द को सेंसर करना था, जबकि “चिंप,” “चिंपांज़ी” और “बंदर” को भी रोकना था।

फेसबुक के पास उपयोगकर्ता द्वारा अपलोड की गई छवियों का दुनिया का सबसे बड़ा भंडार है, जिस पर अपने चेहरे और वस्तु-पहचान एल्गोरिदम को प्रशिक्षित किया जा सकता है। कंपनी, जो उपयोगकर्ताओं को उनकी पिछली ब्राउज़िंग और देखने की आदतों के आधार पर सामग्री तैयार करती है, कभी-कभी लोगों से पूछती है कि क्या वे संबंधित श्रेणियों के तहत पोस्ट देखना जारी रखना चाहते हैं। यह स्पष्ट नहीं था कि “प्राइमेट्स” जैसे संदेश व्यापक थे या नहीं।

फेसबुक और इंस्टाग्राम, इसके फोटो-शेयरिंग ऐप, दौड़ से जुड़े अन्य मुद्दों से जूझ रहे हैं। उदाहरण के लिए, फ़ुटबॉल में जुलाई की यूरोपीय चैंपियनशिप के बाद, इंग्लैंड की राष्ट्रीय फ़ुटबॉल टीम के तीन अश्वेत सदस्यों को चैंपियनशिप गेम में पेनल्टी किक नहीं मिलने के कारण सोशल नेटवर्क पर नस्लीय रूप से दुर्व्यवहार किया गया था।

नस्लीय मुद्दों ने भी फेसबुक पर आंतरिक कलह का कारण बना है। 2016 में, सीईओ मार्क जुकरबर्ग ने कर्मचारियों से “ब्लैक लाइव्स मैटर” वाक्यांश को पार करना बंद करने और कंपनी के मेनलो पार्क, कैलिफ़ोर्निया, मुख्यालय में एक सांप्रदायिक स्थान में “ऑल लाइव्स मैटर” के साथ इसे बदलने के लिए कहा। मिनियापोलिस में जॉर्ज फ्लॉयड की हत्या के बारे में राष्ट्रपति डोनाल्ड ट्रम्प के एक पोस्ट को कंपनी द्वारा संभालने के विरोध में सैकड़ों कर्मचारियों ने पिछले साल वर्चुअल वाकआउट भी किया था।

कंपनी ने बाद में नागरिक अधिकारों के उपाध्यक्ष को काम पर रखा और एक नागरिक अधिकार लेखा परीक्षा जारी की। जुलाई में एक वार्षिक विविधता रिपोर्ट में, फेसबुक ने कहा कि उसके यूएस-आधारित कर्मचारियों में से 4.4% ब्लैक थे, जो एक साल पहले 3.9% था।

चार साल बाद गर्मियों में फेसबुक छोड़ने वाले ग्रोव्स ने एक साक्षात्कार में कहा कि कंपनी में गलत कदमों की एक श्रृंखला ने सुझाव दिया कि नस्लीय समस्याओं से निपटना उसके नेताओं के लिए प्राथमिकता नहीं थी।

“फेसबुक ये गलतियाँ नहीं कर सकता और फिर कह रहा है, ‘आई एम सॉरी,” उसने कहा।

.