الصين توظف شركات لابتكار كاميرات ذكية تتعرف على العِرق
قال باحثون، الثلاثاء، إن الصين جندت شركات مراقبة للمساعدة في وضع معايير لأنظمة التعرف على الوجه الشامل، محذرين من أن التركيز الشديد بشكل غير معتاد على تتبع الخصائص مثل العرق خلق مجالا واسعا لسوء المعاملة.
وتحدد المعايير الفنية، التي نشرتها مجموعة أبحاث المراقبة “IPVM”، كيف يجب تقسيم البيانات التي تم التقاطها بواسطة كاميرات التعرف على الوجه في جميع أنحاء الصين إلى عشرات الخصائص؛ من حجم الحاجب إلى لون البشرة والعرق، حسب تقرير لوكالة “رويترز” للأنباء.
وقال معد البحث، تشارلز روليت: “إنها المرة الأولى التي نشاهد فيها شبكات كاميرات الأمن العام التي تتعقب الأشخاص من خلال هذه الفئات الحساسة بشكل صريح على هذا النطاق”.
في إحدى الحالات، يشير التقرير إلى مناقصة تشرين الثاني/ نوفمبر 2020 لمشروع إسكان صغير “ذكي” في بكين، يتطلب من الموردين أن يفي نظام كاميرات المراقبة بمعايير تسمح بالفرز حسب لون البشرة والعرق وتصفيفة الشعر.
قال روليت، الذي يأتي تقريره وسط تدقيق عالمي متزايد بشأن معاملة بكين لمسلمي الإيغور والأقليات الأخرى في إقليم شينجيانغ الغربي، “إنه حان وقت الانتهاك”. لكن الحكومة الصينية تنفي أي انتهاكات حقوقية في المنطقة.
قالت كيتلين بيشوب، مسؤولة الحملات في منظمة الخصوصية الدولية لحقوق الإنسان، إن القلق بشأن الكشف عن العرق في أنظمة التعرف على الوجه يتزايد على مستوى العالم.
كاميرا المصنّعين
نظر تقرير روليت في معايير نظام المراقبة التي وضعتها وزارة الأمن العام وإدارات الشرطة في مقاطعات خنان وشينجيانغ وشنتشن.
وقال إن المعايير، التي تتبعها الوكالات الحكومية -بما في ذلك الشرطة- التي تسعى لبناء أي نوع من أنظمة الكاميرات، تمت صياغتها من قبل الحكومة بالتعاون مع بعض أكبر شركات المراقبة في البلاد.
وكان من بينهم مصنعو الكاميرات الأمنية “Uniview” و”Hikvision” و”Dahua”. وأدرجت واشنطن الشركتين الأخيرتين في القائمة السوداء في عام 2019 لدورهما المزعوم في “المراقبة عالية التقنية ضد” الأقليات العرقية في الصين.
لكن “Dahua” وصفت تلك التقارير الإعلامية بأنها “كاذبة”.
ولدى سؤاله عن تقرير “IPVM”، قال متحدث باسم “Hikvision” إن الشركة “ملتزمة بدعم أعلى المعايير واحترام حقوق الإنسان”.
وأضاف: “بصفتنا شركة تصنيع لا تشرف على تشغيل منتجاتنا، فإننا نضمن أن كاميراتنا مصممة لحماية المجتمعات والممتلكات”.
ولم ترد “Uniview” ولا السفارة الصينية في واشنطن على طلب للتعليق.
ليست تقنية حيادية
ووجد تقرير “IPVM” أن بعض المعايير -بما في ذلك القواعد المذكورة في مخطط الإسكان في بكين- كانت مطبقة منذ عدة سنوات، بينما من المقرر أن يدخل البعض الآخر حيز التنفيذ في المستقبل القريب.
معيار واحد للأنظمة التي سيتم استخدامها في المراقبة بالفيديو للأمن العام، والمقرر اعتماده في أيار/ مايو 2021، يصنف لون البشرة إلى خمس فئات: الأبيض والأسود والبني والأصفر وغيرها.
على الرغم من أن بعض المعايير تصف الفرز العرقي على أنه ميزة “اختيارية”، إلا أن “IPVM” قالت عمليًا إنها مفهومة على أنها متطلبات.
وقال التقرير ونشطاء حقوقيون إن استخدام مثل هذه المعايير سيجعل من السهل على السلطات تمشيط قواعد بيانات مختلفة لأفراد معينين، أو لأعضاء مجموعة عرقية معينة مثل الإيغور في مقاطعة شينجيانغ.
قالت مايا وانغ، وهي باحثة أولى في الصين في هيومن رايتس ووتش: “نحن لا نتحدث عن معيار لطول أقلام الرصاص، هذه ليست تقنية محايدة”.
يقول نشطاء وخبراء حقوقيون في الأمم المتحدة إن ما لا يقل عن مليون مسلم محتجزون في معسكرات في شينجيانغ. ويتهم النشطاء وبعض السياسيين الغربيين الصين باستخدام التعذيب والسخرة والتعقيم ضدهم.
ونفت الصين مرارا جميع الاتهامات بارتكاب انتهاكات وتقول إن معسكراتها تقدم تدريبا مهنيا وضروريا لمحاربة التطرف.
وقال وانغ إن معايير التعرف على الوجه الموثقة في تقرير “IPVM” قدمت أدلة جديدة على التعاون بين الحكومة الصينية وشركات تكنولوجيا المراقبة المحلية بشأن الإجراءات التي يمكن أن تستهدف مجموعات الأقليات.
وقالت: “إنهم يعملون سويًا في مجال المراقبة الجماعية، والتعقب الجماعي للأشخاص، ولا توجد طريقة تتوافق مع معايير حقوق الإنسان الأساسية”.
في كانون الثاني/ يناير، قالت “IPVM” إن عددًا من شركات الذكاء الاصطناعي الصينية الكبرى تقدمت بطلب للحصول على براءات اختراع وصفت تقنية لتحليل الصور بحثًا عن وجود الإيغور، وربطها بكاميرات المراقبة المستمرة وشبكات التعرف على الوجه.
ومع ذلك، فقد قال الخبراء إنه ليس من الواضح إلى أي مدى تعمل أنظمة التعرف على الوجه العرقية -أو قواعد البيانات الوطنية المرتبطة بها- بشكل كامل في الصين.
وقال غريغ والتون، الخبير في المراقبة الصينية في مركز الأبحاث الكندي “SecDev”، إن المعايير المفصلة في التقرير الجديد قد تعكس خطط بكين المستقبلية لتطوير أنظمة تتبع مدعومة بالذكاء الاصطناعي.
وقال والتون، الذي يدرس قواعد بيانات الشرطة الحية: “تكشف هذه المعايير عن تطلعات جميع البيانات التي تريد الحكومة الصينية جمعها من الناس في الأماكن الحضرية”.
وأضاف أن العديد منها يحتوي بالفعل على التفاصيل المدرجة في المعايير -طول الحاجب والعرق ولون البشرة- على الرغم من أن هذه الحقول لا يتم ملؤها دائمًا.
وأضاف: “مستوى التفاصيل التي يريدون جمعها انتهاك غير عادي للخصوصية”.
قد يكون الغرض الآخر من المعايير الحكومية هو تنظيم البيانات بطريقة تمكن من تطوير أنظمة أكثر قوة للتعرف على الوجه في السنوات القادمة، كما قالت ليز أوسوليفان، التي عملت على شرح الصورة لشركة رؤى الكمبيوتر.
وقالت: “إنه لأمر مرعب أن نتخيل نظامًا متزايد الدقة للكشف عن القياسات الحيوية وجمعها يلتقط الكثير من المعلومات المفصلة، ويمكن تشغيله على الأقليات”.