Lok Shakti

Nationalism Always Empower People

आरटीआई के जवाब में दिल्ली पुलिस: चेहरे की पहचान में 80% मैच को सकारात्मक आईडी माना जाता है

दिल्ली पुलिस, जिसने पिछले दो वर्षों में राजधानी में हुई बड़ी झड़पों में उन आरोपियों की पहचान करने के लिए चेहरे की पहचान तकनीक का इस्तेमाल किया है, एक मैच को “सकारात्मक” माना जाता है यदि 80 प्रतिशत की सटीकता दर थी। सूचना का अधिकार (आरटीआई) अधिनियम के तहत डिजिटल अधिकार समूह इंटरनेट फ्रीडम फाउंडेशन (आईएफएफ) द्वारा प्राप्त रिकॉर्ड के लिए।

दो आरटीआई अनुरोधों के तहत साझा किए गए और द इंडियन एक्सप्रेस द्वारा समीक्षा किए गए रिकॉर्ड, पहली बार इस बात पर प्रकाश डालते हैं कि दिल्ली पुलिस जांच के दौरान चेहरे की पहचान के मैचों का उपयोग कैसे करती है।

चेहरे की पहचान तकनीक अनिवार्य रूप से एक तस्वीर या वीडियो में चेहरे की पहचान का नक्शा, विश्लेषण और पुष्टि करती है, आमतौर पर कंप्यूटर से उत्पन्न फिल्टर का उपयोग करके छवियों को संख्यात्मक अभिव्यक्तियों में बदलने के लिए जिनकी तुलना की जा सकती है। प्रमुख मापदंडों में आंखों के बीच की दूरी और माथे से ठुड्डी तक की दूरी शामिल है।

अब तक, दिल्ली पुलिस ने 2020 के दंगों में शामिल होने वाले संदिग्ध लोगों की पहचान करने के लिए तकनीक का उपयोग किया है, जो कि किसानों के विरोध के दौरान 2021 में लाल किले पर हुई झड़पों और इस साल की शुरुआत में जहांगीरपुरी दंगों में हुई थी।

आरटीआई रिकॉर्ड से पता चलता है कि पुलिस किसी भी कानूनी कार्रवाई शुरू करने से पहले चेहरे के मिलान के लिए “अनुभवजन्य जांच” करती है जिसमें 80 प्रतिशत से अधिक की सटीकता होती है। लेकिन उन मामलों में भी जहां सटीकता 80 प्रतिशत से कम है, पुलिस ने इसे एक “गलत सकारात्मक परिणाम” माना, जो फिर से “अन्य पुष्ट सबूतों के साथ उचित सत्यापन” के अधीन है, रिकॉर्ड दिखाते हैं।

विशेषज्ञों के अनुसार, इससे पता चलता है कि वे लोग भी, जिनके लिए सटीकता का मिलान कम हो सकता है, पुलिस के राडार पर बने रहते हैं। “यहां तक ​​​​कि अगर तकनीक पर्याप्त पर्याप्त परिणाम नहीं देती है, तो दिल्ली पुलिस किसी ऐसे व्यक्ति की जांच जारी रख सकती है, जिसने बहुत कम स्कोर प्राप्त किया हो। इस प्रकार, कोई भी व्यक्ति जो थोड़ा समान दिखता है, उसे लक्षित किया जा सकता है, जिसके परिणामस्वरूप उन समुदायों को लक्षित किया जा सकता है जिन्हें ऐतिहासिक रूप से लक्षित किया गया है, ”अनुष्का जैन, सहयोगी वकील, आईएफएफ ने कहा।

80 प्रतिशत की सीमा को संदर्भ में रखने के लिए, अमेरिकन सिविल लिबर्टीज यूनियन (ACLU) ने 2018 में अमेज़न के चेहरे की पहचान प्रणाली, रिकॉग्निशन पर एक परीक्षण चलाया, जिसमें सीमा को 80 प्रतिशत रखा गया था। सिस्टम ने अमेरिकी कांग्रेस के सदस्यों की 28 छवियों को एक आपराधिक डेटाबेस में मगशॉट के साथ गलत तरीके से जोड़ा।

जवाब में, अमेज़ॅन ने कहा था कि “जबकि 80 प्रतिशत आत्मविश्वास हॉट डॉग, कुर्सियों, जानवरों या अन्य सोशल मीडिया उपयोग के मामलों की तस्वीरों के लिए एक स्वीकार्य सीमा है, यह उचित स्तर के निश्चितता वाले व्यक्तियों की पहचान करने के लिए उपयुक्त नहीं होगा”।

फिर भी, 80 प्रतिशत सटीकता संख्या दिल्ली पुलिस द्वारा तैनात चेहरे की पहचान प्रणाली में सुधार का भी प्रतिनिधि है।

2018 में, दिल्ली उच्च न्यायालय ने कथित तौर पर सुझाव दिया था कि पुलिस को कुछ महिलाओं को खोजने के लिए चेहरे की पहचान सॉफ्टवेयर का उपयोग करना चाहिए जो एक अवैध प्लेसमेंट एजेंसी से गायब हो गईं। हालांकि, पुलिस ने अदालत को सूचित किया कि सॉफ्टवेयर केवल दो प्रतिशत मैच के साथ लौटा, जो “अच्छा नहीं” था।

केंद्रीय सूचना आयोग (सीआईसी) में दूसरी अपील दायर करने के बाद आईएफएफ को जून में इस मुद्दे पर दिल्ली पुलिस से आरटीआई प्रतिक्रिया मिली। आईएफएफ के अनुसार, पुलिस ने पहले 2020 और 2021 में दायर आरटीआई अनुरोधों के जवाब में किसी भी जानकारी का खुलासा करने से इनकार कर दिया था।

गोपनीयता कार्यकर्ताओं का कहना है कि यह स्पष्ट नहीं है कि दिल्ली पुलिस ने सकारात्मक और झूठे सकारात्मक मैचों के बीच की सीमा के रूप में 80 प्रतिशत को क्यों चुना है। दिल्ली पुलिस ने द इंडियन एक्सप्रेस द्वारा ईमेल किए गए बार-बार पूछे गए सवालों का जवाब नहीं दिया।

कार्यकर्ताओं का तर्क है कि देश में बुनियादी डेटा सुरक्षा ढांचे के अभाव में चेहरे की पहचान जैसी तकनीकों का उपयोग संभावित रूप से उन समुदायों के लिए जोखिम पैदा कर सकता है जिन्हें ऐतिहासिक रूप से लक्षित किया गया है।

अमेरिका में, चेहरे की पहचान तकनीक द्वारा गलत पहचान किए जाने के बाद 2019 से कम से कम तीन व्यक्तियों को गलत तरीके से गिरफ्तार किया गया है। तीनों मामलों में, व्यक्ति अफ्रीकी-अमेरिकी समुदाय के पुरुष थे, जिनका देश में कानून प्रवर्तन एजेंसियों द्वारा गलत तरीके से लक्षित किए जाने का इतिहास रहा है।

जैसे, सैन फ्रांसिस्को और मैसाचुसेट्स सहित अमेरिका के कम से कम 13 शहरों ने अपनी पुलिस को चेहरे की पहचान तकनीक का उपयोग करने से प्रतिबंधित कर दिया है। 2020 में, Microsoft और Amazon ने प्रौद्योगिकी की विश्वसनीयता के बारे में सवाल उठाए जाने के बाद अपने चेहरे की पहचान प्रणाली को पुलिस को बेचना बंद कर दिया।

अपनी आरटीआई प्रतिक्रिया में, दिल्ली पुलिस ने यह बताने से इनकार कर दिया कि क्या उन्होंने प्रौद्योगिकी का उपयोग करने वाले कथित अपराधियों की कोई गिरफ्तारी की है, आरटीआई अधिनियम की एक धारा का हवाला देते हुए जो उन्हें ऐसी जानकारी का खुलासा करने से छूट देती है जो जांच में बाधा उत्पन्न कर सकती है।

11 अगस्त को, द इंडियन एक्सप्रेस ने बताया कि दिल्ली पुलिस ने जहांगीरपुरी दंगों के स्थल पर कई आरोपियों की उपस्थिति की “पुष्टि” करने के लिए तकनीक का इस्तेमाल किया।

अपने एक आरटीआई जवाब में, दिल्ली पुलिस ने कहा कि वह नागरिकों की निजता को “पवित्र” मानती है, लेकिन स्वीकार किया कि चेहरे की पहचान जैसी तकनीकों का उपयोग संभावित रूप से गोपनीयता को कैसे प्रभावित कर सकता है, इसका कोई विश्लेषण करना अभी बाकी है।

यूरोपीय संघ के जनरल डेटा प्रोटेक्शन रेगुलेशन (जीडीपीआर) सहित दुनिया के कुछ अन्य हिस्सों में गोपनीयता प्रभाव आकलन करना एक आवश्यकता है – लेकिन यह वर्तमान में भारतीय कानूनों के तहत आवश्यक नहीं है।

IFF के जैन ने कहा, “इन प्रभाव आकलन की आवश्यकता आवश्यक है क्योंकि ये बेहद नई और अप्रयुक्त प्रौद्योगिकियां हैं जिनका उपयोग कानून प्रवर्तन एजेंसियों द्वारा किया जा रहा है, जिससे अपरिवर्तनीय प्रभाव और किसी व्यक्ति को नुकसान हो सकता है।”