Lok Shakti

Nationalism Always Empower People

फेसबुक ने साझा करना बंद करने, बाल यौन शोषण सामग्री की खोज के लिए नए टूल जोड़े हैं

फेसबुक ने छवियों, वीडियो और किसी भी अन्य सामग्री को साझा करने से रोकने के लिए नए टूल की घोषणा की है जिसमें इसके मंच पर बाल यौन शोषण सामग्री (CSAM) शामिल है। एक के लिए, यह उपयोगकर्ताओं को चेतावनी देगा जब वे चित्र साझा कर रहे हैं जिसमें संभावित CSAM सामग्री हो सकती है। दूसरा, यह उपयोगकर्ताओं को एक नए नोटिफिकेशन के साथ अपने प्लेटफॉर्म पर ऐसी सामग्री को खोजने से रोकेगा। जबकि पहला उद्देश्य उन लोगों के लिए है जो गैर-दुर्भावनापूर्ण इरादे से इस सामग्री को साझा कर रहे हैं, और दूसरा उन लोगों के लिए लक्षित है जो इस सामग्री का उपभोग करने या वाणिज्यिक उद्देश्यों के लिए उपयोग करने की योजना के साथ फेसबुक पर ऐसी सामग्री की खोज करते हैं। “हम बाल यौन शोषण या नाबालिगों के साथ अनुचित बातचीत के लिए हमारे मंच के उपयोग के उदाहरणों की अनुमति नहीं देते हैं। हम वास्तव में अतिरिक्त मील जाते हैं। कहते हैं कि जब माता-पिता या दादा-दादी कभी-कभी अपने बच्चों या पोते की निर्दोष तस्वीरें बाथटब में साझा करते हैं, तो हम ऐसी सामग्री की अनुमति नहीं देते हैं। हम यह सुनिश्चित करना चाहते हैं कि हमारे मंच की सामाजिक प्रकृति को देखते हुए हम दुरुपयोग के लिए कमरे को जितना संभव हो उतना कम करना चाहते हैं, ”फेसबुक पर ग्लोबल सेफ्टी पॉलिसी के निदेशक करुणा नैन ने मीडिया के साथ जूम कॉल के बारे में बताया। नए टूल के साथ, फेसबुक CSAM कंटेंट की खोज करने वालों को पॉप-अप दिखाएगा, जो उन्हें अपराधी डायवर्सन संगठनों से मदद की पेशकश करेगा। पॉप-अप अवैध सामग्री को देखने के परिणामों के बारे में भी जानकारी साझा करेगा। दूसरा एक सुरक्षा चेतावनी है जो लोगों को सूचित करता है जब वे किसी भी वायरल मेमे को साझा कर रहे हैं, जिसमें बाल शोषण सामग्री शामिल है। फेसबुक की अधिसूचना उपयोगकर्ता को चेतावनी देगी कि ऐसी सामग्री साझा करने से नुकसान हो सकता है और यह नेटवर्क की नीतियों के खिलाफ है, यह कहते हुए कि इस सामग्री को साझा करने के लिए कानूनी परिणाम हैं। यह उन उपयोगकर्ताओं के लिए अधिक लक्षित है जो आवश्यक रूप से दुर्भावनापूर्ण कारणों से सामग्री साझा नहीं कर सकते हैं, लेकिन सदमे या नाराजगी व्यक्त करने के लिए इसे साझा कर सकते हैं। CSAM सामग्री पर फेसबुक अध्ययन और इसे क्यों साझा किया जाता है उपकरण फेसबुक के अवैध बाल शोषण सामग्री का गहन अध्ययन है, जो अक्टूबर और नवंबर के महीनों के लिए यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइड चिल्ड्रन (NCMEC) को सूचित करता है। 2020. कानून द्वारा CSAM सामग्री की रिपोर्ट करना आवश्यक है। फेसबुक के स्वयं के प्रवेश से पता चला है कि इसने 2020 की चौथी तिमाही में बाल यौन शोषण से संबंधित लगभग 5.4 मिलियन सामग्री को हटा दिया। इंस्टाग्राम पर, यह संख्या 800,000 थी। फेसबुक उपयोगकर्ताओं को चेतावनी देगा जब वे छवियों को साझा कर रहे हैं जिसमें संभावित CSAM सामग्री हो सकती है। फेसबुक के अनुसार, “इस सामग्री का 90% से अधिक वैसा ही था या पहले की रिपोर्ट की गई सामग्री जैसा ही था,” जो बहुत बार दिए गए समान सामग्री को बार-बार साझा किए जाने पर आश्चर्य की बात नहीं है। अध्ययन से पता चला है कि “सिर्फ छह वीडियो की प्रतियां बाल शोषण सामग्री के आधे से अधिक के लिए जिम्मेदार थीं” जो अक्टूबर-नवंबर 2020 की अवधि के दौरान रिपोर्ट की गई थीं। मंच पर CSAM सामग्री को बेहतर तरीके से साझा करने के पीछे के कारण को समझने के लिए, फेसबुक का कहना है कि इसने एनसीएमईसी सहित बाल शोषण पर विशेषज्ञों के साथ काम किया है, ताकि इसके पीछे किसी व्यक्ति की स्पष्ट मंशा को वर्गीकृत करने के लिए शोध-समर्थित टैक्सोनॉमी विकसित की जा सके। इस वर्गीकरण के आधार पर, फेसबुक ने 150 खातों का मूल्यांकन किया जो जुलाई और 2020 और जनवरी 2021 के जुलाई और अगस्त में बाल शोषण सामग्री को अपलोड करने के लिए NCMEC को सूचित किए गए थे। यह अनुमान है कि इनमें से 75% से अधिक लोगों ने दुर्भावनापूर्ण इरादे का प्रदर्शन नहीं किया, क्योंकि उनका इरादा नहीं था किसी बच्चे को नुकसान पहुंचाने या सामग्री साझा करने से व्यावसायिक लाभ उठाने के लिए। कई लोग छवि पर नाराजगी या खराब हास्य व्यक्त कर रहे थे। लेकिन फेसबुक का कहना है कि अध्ययन के निष्कर्षों को बाल सुरक्षा पारिस्थितिकी तंत्र का सटीक माप नहीं माना जाना चाहिए और इस क्षेत्र पर काम अभी भी चालू है। यह बताते हुए कि कैसे काम करता है, नैन ने कहा कि उनके पास संभावित CSAM की तलाश में सामग्री को वर्गीकृत करने के लिए पांच व्यापक बाल्टियाँ हैं। स्पष्ट दुर्भावनापूर्ण श्रेणी है, दो बाल्टी हैं जो गैर-दुर्भावनापूर्ण हैं और एक एक मध्य बाल्टी है, जहां सामग्री में दुर्भावनापूर्ण बनने की क्षमता है लेकिन यह 100 प्रतिशत स्पष्ट नहीं था। “एक बार जब हम उस इरादे की रूपरेखा तैयार कर लेते हैं, तो हमें थोड़ा सा गोता लगाना पड़ता है। उदाहरण के लिए दुर्भावनापूर्ण बाल्टी में दो व्यापक श्रेणियां होंगी। एक तरजीही थी जहाँ आप पसंद करते थे या आपके पास इस तरह की सामग्री के लिए एक प्राथमिकता थी, और दूसरा वह व्यावसायिक था जहाँ आप वास्तव में ऐसा करते हैं क्योंकि आप इसमें से किसी प्रकार का मौद्रिक लाभ प्राप्त कर रहे थे, “उसने यह जोड़ते हुए समझाया कि रूपरेखा पूरी तरह से है और इस अंतरिक्ष में विशेषज्ञों के साथ विकसित किया गया। इस फ्रेमवर्क का उपयोग मानव समीक्षकों को संभावित CSAM सामग्री को लेबल करने में सक्षम बनाने के लिए किया जाता है। CSAM को फेसबुक पर कैसे पहचाना जाता है? CSAM की पहचान करने के लिए, रिपोर्ट की गई सामग्री हैशेड या चिह्नित की गई है और एक डेटाबेस में जोड़ी गई है। फेसबुक और उसके उत्पादों पर सभी सार्वजनिक स्थानों पर ‘हैशेड’ डेटा का उपयोग किया जाता है। हालांकि, एंड-टू-एंड (ई 2 ई) एन्क्रिप्टेड उत्पादों जैसे व्हाट्सएप मैसेंजर या एफबी मैसेंजर में गुप्त चैट की छूट होगी क्योंकि फेसबुक को पहले से ही उनके पास मौजूद किसी चीज के खिलाफ मैच करने के लिए सामग्री की जरूरत होती है। यह E2E उत्पादों में संभव नहीं है, यह देखते हुए कि सामग्री किसी और द्वारा नहीं पढ़ी जा सकती है, लेकिन इसमें शामिल पार्टियां हैं। कंपनी का दावा है कि जब यह बाल शोषण की कल्पना पर लगातार नजर रखने की बात आती है, तो इंस्टाग्राम और फेसबुक दोनों पर यह 98% से ऊपर की रेटिंग है। इसका मतलब यह है कि सिस्टम उपयोगकर्ताओं की ओर से किसी भी रिपोर्टिंग की आवश्यकता के बिना इस तरह की छवियों को अपने दम पर झंडे देता है। “हम यह सुनिश्चित करना चाहते हैं कि हमारे पास बाल संरक्षण के इस क्षेत्र में बहुत परिष्कृत खोज तकनीक है। जिस तरह से फोटो डीएनए काम करता है वह यह है कि किसी भी, किसी भी तस्वीर को हमारे प्लेटफॉर्म पर अपलोड किया जाता है, यह बाल शोषण की हैशटैड छवियों के एक ज्ञात डेटाबैंक के खिलाफ स्कैन किया जाता है, जिसे NCMEC द्वारा बनाए रखा जाता है, “नैन ने समझाया। उन्होंने कहा कि कंपनी “मशीन सीखने और कृत्रिम बुद्धिमत्ता का उपयोग उन खातों का पता लगाने के लिए भी कर रही है जो संभावित रूप से नाबालिगों के साथ अनुचित बातचीत में संलग्न हैं।” यह पूछे जाने पर कि जब CSAM सामग्री पर किसी को दोहराने वाला अपराधी पाया जाता है तो फेसबुक क्या कार्रवाई करता है, नैन ने कहा कि उन्हें व्यक्ति के खाते को नीचे ले जाना आवश्यक है। इसके अलावा, फेसबुक का कहना है कि यह उन प्रोफाइल, पेज, समूह और इंस्टाग्राम अकाउंट को हटा देगा, जो बच्चों की मासूम तस्वीरों को साझा करने के लिए समर्पित हैं, लेकिन कैप्शन, हैशटैग या टिप्पणियों का उपयोग करते हैं, जिसमें छवि में बच्चों के बारे में स्नेह या टिप्पणी के अनुचित संकेत शामिल हैं। यह स्वीकार करता है कि CSAM सामग्री को खोजना जो स्पष्ट रूप से “स्पष्ट नहीं है और बच्चे की नग्नता को चित्रित नहीं करता है” कठिन है और यह बेहतर सामग्री निर्धारित करने में मदद करने के लिए पाठ के साथ भरोसा करने की आवश्यकता है कि क्या सामग्री बच्चों का यौन शोषण कर रही है। फेसबुक ने “न्यूडिटी एंड सेक्सुअल एक्टिविटी” श्रेणी के तहत तस्वीर की रिपोर्ट करते समय “एक बच्चे को शामिल करना” चुनने का विकल्प भी जोड़ा है। इसने कहा कि इन रिपोर्टों को समीक्षा के लिए प्राथमिकता दी जाएगी। इसने Google की सामग्री सुरक्षा API का उपयोग करना शुरू कर दिया है ताकि यह बेहतर सामग्री को प्राथमिकता देने में मदद कर सके जिसमें मूल्यांकन करने के लिए हमारे सामग्री समीक्षकों के लिए बाल शोषण हो सकता है। गैर-सहमति से साझा किए गए अंतरंग चित्रों के बारे में या आम बोलचाल में ‘बदला लेने वाला पोर्न’ के रूप में जाना जाता है, नैन ने कहा कि फेसबुक की नीतियों ने न केवल फ़ोटो और वीडियो दोनों को साझा करने पर रोक लगा दी है, बल्कि इस तरह की सामग्री को साझा करने की धमकी देने पर भी प्रतिबंध लगा दिया है। उन्होंने कहा कि फेसबुक अब तक नशेड़ी के खाते को निष्क्रिय करने के लिए गया था। “हमने इस जगह में फोटो मिलान प्रौद्योगिकियों का उपयोग करना शुरू कर दिया है। यदि आप एक अंतरंग छवि देखते हैं, जो हमारे मंच पर किसी की सहमति के बिना साझा की जाती है और आप इसे हमें रिपोर्ट करते हैं, तो हम उस सामग्री की समीक्षा करेंगे और हां निर्धारित करेंगे, यह एक गैर-सहमति से साझा अंतरंग छवि है, और फिर एक हैश जोड़ा जाएगा फोटो, जो एक डिजिटल फिंगरप्रिंट है। यह किसी को भी हमारे प्लेटफार्मों पर इसे फिर से साझा करने में सक्षम होने से रोक देगा, ”उसने समझाया। फेसबुक ने यह भी कहा कि यह कृत्रिम बुद्धिमत्ता और मशीन लर्निंग का उपयोग कर रहा है ताकि पीड़ितों को दी गई ऐसी सामग्री का पता लगाया जा सके, जिसमें कहा गया था कि कई बार यह सामग्री उन जगहों को साझा कर रही है जो सार्वजनिक नहीं हैं जैसे कि निजी समूह या किसी और की प्रोफ़ाइल। ।