Cómo China utiliza la inteligencia artificial para rastrear a la minoría étnica





El gobierno chino atrajo una fuerte condena internacional por su severa represión a minorías étnicas musulmanas en el oeste del país, que incluye la detención de hasta un millón de personas en campos de reeducación.





Ahora, documentos y entrevistas demuestran que las autoridades también están usando un vasto sistema secreto de tecnología avanzada de reconocimiento facial para rastrear y controlar a los uigures, una minoría mayoritariamente musulmana.

Es el primer ejemplo conocido de uso de sistemas de inteligencia artificial por un gobierno para registrar perfiles raciales, dicen expertos.

La tecnolog√≠a de reconocimiento facial, integrada a la red cada vez m√°s extensa de c√°maras de vigilancia instaladas en China, busca exclusivamente los uigures, con base en su apariencia, y mantiene registros de sus desplazamientos, para b√ļsqueda y revisi√≥n.

La práctica hace de China la pionera en la aplicación de tecnología de próxima generación para vigilar al pueblo, lo que puede dar inicio a una nueva era de racismo automatizado.

La tecnología y su uso para mantener bajo observación los 11 millones de uigures chinos fueron descritos por cinco personas con conocimiento directo de los sistemas, que pidieron que sus nombres no fueran mencionados porque temen represalias.

El New York Times tambi√©n revis√≥ bancos de datos usados ‚Äč‚Äčpor la polic√≠a y los gobiernos, documentos de compra de equipos y materiales publicitarios distribuidos por las empresas de inteligencia artificial que producen los sistemas.





Las autoridades chinas ya mantienen una amplia red de vigilancia, que incluye rastreo de ADN, en la provincia de Xinjiang, oeste del país, hogar de muchos uigures. Pero el alcance de los nuevos sistemas, que no había sido reportado hasta ahora, extiende ese monitoreo a muchos otros cuadrantes del país.

La policía ahora está utilizando tecnología de reconocimiento facial para vigilar uigures en ciudades ricas del este chino, como Hangzhou y Wenzhou, y en la provincia costera de Fujian, dijeron dos de las fuentes.

La polic√≠a de la ciudad de Sanmenxia, ‚Äč‚Äčal borde del r√≠o Huang He (Amarillo), en el centro de China, opera un sistema que en un mes, este a√Īo, hizo 500 mil verificaciones para determinar si los transe√ļntes eran uigures.

Los documentos policiales muestran que la demanda de esta capacidad está creciendo. Casi dos decenas de fuerzas policiales, en 16 provincias y regiones de China, comenzaron a buscar ese tipo de tecnología a partir de 2018, de acuerdo con documentos sobre compra de equipos.

En Shaanxi, una provincia en el centro de China, la polic√≠a el a√Īo pasado planeaba adquirir, por ejemplo, un sistema de c√°maras inteligentes que "permitir√≠a reconocimiento facial para identificar atributos uigures / no uigures".

Algunas fuerzas policiales y empresas de tecnología describen la práctica como "identificación de minorías", aunque tres de las fuentes afirman que la expresión sirve como eufemismo para un instrumento usado exclusivamente para identificar uigures.

La apariencia de los uigures es distinta de la apariencia de la etnia han, mayoritaria en China, y se asemeja más a la de los pueblos de Asia Central. Estas diferencias facilitan la identificación por medio de software.

Las democracias desde hace d√©cadas se benefician de las tecnolog√≠as de vanguardia. Hoy, una nueva generaci√≥n de startups que atienden a las necesidades autoritarias de Pek√≠n comienza a dictar el tono para tecnolog√≠as emergentes como la inteligencia artificial. Los instrumentos similares pueden automatizar los sesgos basados ‚Äč‚Äčen el color de la piel y los rasgos √©tnicos en otros lugares.

"Si tomamos la aplicación de mayor riesgo para esta tecnología, hay buenas posibilidades de que alguien intente ponerla en uso", dijo Clare Garvie, investigadora en el Centro de Privacidad y Tecnología, en la escuela de derecho de la Universidad de Georgetown. "Si usted crea una tecnología que puede clasificar a las personas por etnia, alguien terminará por usarla para reprimir esa etnia".

Desde el punto de vista tecnológico, el uso de algoritmos para etiquetar a personas basadas en la raza o la etnia se ha vuelto relativamente fácil. Empresas como IBM anuncian software capaz de separar a las personas de acuerdo a las categorías amplias.

Pero China penetró en territorio nuevo al identificar un grupo étnico para fines de policiamiento y acción judicial. Una estrella china, CloudWalk, delineó una experiencia de muestreo, al divulgar sus sistemas de vigilancia. La tecnología, afirmó la empresa, era capaz de reconocer "grupos de personas de interés".

"Si un uigur vive en un determinado barrio, originalmente, y en 20 días aparecen seis uigures", la empresa afirma en su sitio, el sistema "inmediatamente envía alertas a las autoridades".

En la práctica, los sistemas son imperfectos, dijeron dos de las fuentes. Su precisión en muchos casos depende de factores ambientales como la iluminación y el posicionamiento de las cámaras.

En los Estados Unidos y Europa, el debate en la comunidad de inteligencia artificial se centra en los sesgos inconscientes de las personas que proyectan ese tipo de tecnología.

Las pruebas recientes demostraron que los sistemas de reconocimiento facial producidos por empresas como IBM y Amazon eran menos precisos en el reconocimiento de rastros de personas de piel m√°s oscura.

Los esfuerzos de China despiertan cuestiones más graves, Aunque la tecnología de reconocimiento facial emplea aspectos como tono de piel y formatos de cara para separar las imágenes encontradas en fotos o vídeos, debe ser instruida por los seres humanos sobre cómo categorizar a las personas sobre la base de definiciones sociales raza o etnia.

La policía china, con la ayuda de startups, hizo exactamente eso.

"Es algo que parece chocante, visto de Estados Unidos, donde es muy probable que exista racismo incorporado a nuestros procesos decisorios algor√≠tmicos, pero no de forma abierta", dijo Jennifer Lynch, directora de litigios sobre vigilancia en la Electronic Freedom Foundation. "No existe un sistema dise√Īado para identificar a alguien como afrodescendiente, por ejemplo."

Las compa√Ī√≠as chinas de inteligencia artificial que trabajan en el desarrollo de este tipo de software incluyen Yitu, Megvii, SenseTime y CloudWalk, todas evaluadas en m√°s de 1.000 millones de d√≥lares por el sector de capital privado.Otra empresa, Hikvision, que vende c√°maras y software de el procesamiento de im√°genes, ofrec√≠a una funci√≥n de reconocimiento de minor√≠as, pero decidi√≥ desactivarla en 2018, de acuerdo con una de las fuentes.

Las evaluaciones de estas empresas se dispararon en 2018, cuando el Ministerio de Seguridad P√ļblica, la principal agencia policial de China, reserv√≥ miles de millones de d√≥lares, bajo dos programas, Skynet y Sharp Eyes, para computar la vigilancia, la vigilancia y la recolecci√≥n de informaci√≥n.

En un comunicado, una portavoz de SenseTime afirmó haber contactado a los "equipos relevantes", y que fue informada de que la empresa no era consciente de que su tecnología estaba siendo utilizada para desarrollar perfiles raciales.

Megvii afirm√≥ en un comunicado que su enfoque era "soluciones comerciales, no pol√≠ticas", a√Īadiendo que "estamos preocupados por el bienestar y la seguridad de los ciudadanos individuales, y no con la vigilancia de grupos". CloudWalk y Yitu no respondieron a pedidos de comentarios.

El Ministerio de Seguridad P√ļblica chino no respondi√≥ a una petici√≥n de comentario enviada por fax.

Vendiendo productos con nombres como Fire Eye, Sky Eye y Dragonfly Eye, las startups prometen usar la inteligencia artificial para analizar im√°genes obtenidas por las c√°maras de vigilancia chinas.

La tecnología no está madura -en 2017, Yitu estimaba la probabilidad de éxito de la policía al responder a una de sus alertas en una estación de tren como "una en tres" Рy muchas de las cámaras chinas no son lo suficientemente poderosas para que software de reconocimiento facial trabaja eficazmente.

Pero ayudan en el avance de la arquitectura de control social de China. Para hacer que sus algoritmos funcionen, la polic√≠a mont√≥ bancos de datos de im√°genes faciales de personas con fichas policiales, pacientes psiqui√°tricos, personas con historial de uso de drogas, y personas que presentaron quejas al gobierno, de acuerdo con dos de las fuentes y documentos de compras p√ļblicas.

Un banco de datos nacional sobre criminales forajidos incluye 300 mil caras, y una lista de personas con historial de uso de drogas en la ciudad de Wenzhu incluye ocho mil im√°genes faciales, de acuerdo con las fuentes.

Utilizando un proceso conocido como aprendizaje por máquina, los ingenieros alimentan los sistemas de inteligencia artificial con datos para entrenarlos para reconocer patrones o rasgos. En el caso de los perfiles, ofrecen miles de imágenes identificadas, tanto de uigures como de no uigures. Esto ayudaría a generar una función que permitiría distinguir entre grupos étnicos.

Las compa√Ī√≠as de inteligencia artificial recibieron dinero de grandes inversores. Fidelity International y Qualcomm Ventures formaban parte de un consorcio que invirti√≥ 620 millones de d√≥lares en Sensetime. Sequoia Capital invirti√≥ en Yitu. Megvii cuenta con capital de Sinovation Ventures, fondo creado por Kai-Fu Le, conocido inversor chino en tecnolog√≠a.

Una portavoz de Sinovation dijo que el fondo recientemente había vendido parte de su participación en Megvii, y que ya no contaba con un representante en el consejo de la empresa. Fidelity no quiso comentar. Sequoia y Qualcomm no respondieron a solicitudes de comentarios enviadas por correo electrónico.

Lee, que invierte vigorosamente en el segmento chino de inteligencia artificial, argumentó que China tiene ventaja para desarrollar inteligencia artificial porque sus líderes se preocupan menos con "complicaciones legales" o con un "consenso moral".

"No somos espectadores pasivos en la historia de la inteligencia artificial – somos sus autores", escribi√≥ Lee el a√Īo pasado., "Eso significa que los valores que basan nuestras visiones sobre un futuro con inteligencia artificial pueden bien convertirse en profec√≠as realizadas".

Se negó a comentar sobre la inversión de su fondo en Megvii, o sobre las prácticas de la empresa.

El uso de perfiles √©tnicos por el sector de la tecnolog√≠a china no es secreto, dijeron las fuentes. Se hizo tan com√ļn que una de las personas lo compar√≥ a la tecnolog√≠a Bluetooth de comunicaci√≥n por radio en corta distancia. Los empleados de Megvii fueron alertados sobre la delicadeza de discutir en p√ļblico la cuesti√≥n de los perfiles √©tnicos, dijo una de las fuentes.

China dedicó recursos considerables a rastrear a los uigures, mencionando la violencia étnica en Xinjiang y ataques terroristas uigures en otras áreas. Pekín colocó cientos de miles de uigures, y personas de otros orígenes, de Xinjiang en campos de reeducación.

El software extiende la capacidad del Estado para etiquetar uigures al resto del país. Una base de datos nacional tiene imágenes de la cara de todos los uigures que salen de Xinjiang, de acuerdo con dos de las personas.

Los documentos referentes a las compras realizadas por los gobiernos en los dos √ļltimos a√Īos tambi√©n muestran una expansi√≥n de la demanda. En la ciudad de Yongzhou, en el sur de la provincia de Hunan, las autoridades estaban en busca de software que "caracterice y busca si una persona es u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u u

En dos municipios de la provincia de Guizhou, la policía mencionó la necesidad de clasificar a los uigures. Una de las fuerzas policiales deseaba desarrollar la capacidad de reconocer uigures con más del 97% de precisión, teniendo como base fotos de identificación.

En Chongqing, megalópolis en el centro del país, y en la región del Tíbet, las fuerzas policiales abrieron competencias para software similar.

Y un documento de solicitud de propuestas del gobierno provincial de Hebei describe cómo la policía debe ser notificada si varios uigures reservan pasaje en un mismo vuelo el mismo día.

Un estudio llevado a cabo por las autoridades en 2018 describió el uso de otros tipos de base de datos. El estudio afirma que los sistemas de reconocimiento facial instalados en las proximidades de escuelas podrían buscar personas incluidas en bancos de datos de sospechosos de delitos o de portadores de enfermedades psiquiátricas.

Una base de datos generada por el software de Yitu y evaluada por The New York Times muestra cómo la policía de la ciudad de Sanmenxia utilizó software instalado en cámaras más de 500 mil veces en un intento de identificar a los residentes que duró alrededor de un mes y comenzó en la mitad de febrero.

Los códigos de reconocimiento incluían etiquetas como "rec_gender" [reconhecer gênero]y "rec_sunglasses" [reconhecer óculos escuros] , y también "rec_uygur", que recibía valor uno, en contraposición a cero, si el software creyera haber identificado un uigur.

De los 500 mil intentos de identificación por las cámaras, el software supuso haber distinguido uigures en 2.834 ocasiones. Las imágenes almacenadas al lado de la entrada relativa a eso, en el registro, permiten que la policía verifique las identificaciones.

Yitu y sus rivales tienen ambición de expansión en el exterior. Un esfuerzo en ese sentido podría fácilmente poner software de reconocimiento étnico en manos de otros gobiernos, dijo Jonathan Frankle, investigador de inteligencia artificial en el Instituto de Tecnología de Massachusetts (MIT).

"No creo que sea una exageración tratar esta cuestión como amenaza a la existencia de la democracia", dijo Frankle.

"Una vez que un pa√≠s adopte ese modelo pesadamente autoritario, utilizar√° datos para imponer pensamientos y reglas mucho m√°s profundamente que lo que era posible hacer hace 70 a√Īos en la Uni√≥n Sovi√©tica. En ese sentido, estamos hablando de una crisis urgente, nos parecemos entrar a los pozos, como son√°mbulos.

Nacho Vega

Nacho Vega. Nac√≠ en Cuba pero resido en Espa√Īa desde muy peque√Īito. Tras cursar estudios de Historia en la Universidad Complutense de Madrid, muy pronto me interes√© por el periodismo y la informaci√≥n digital, campos a los que me he dedicado √≠ntegramente durante los √ļltimos 7 a√Īos. Encargado de informaci√≥n pol√≠tica y de sociedad. Colaborador habitual en cobertura de noticias internacionales y de sucesos de actualidad. Soy un apasionado incansable de la naturaleza y la cultura. Perfil en Facebook:¬†https://www.facebook.com/nacho.vega.nacho Email de contacto: nacho.vega@noticiasrtv.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *