LUIS SORIANO | @luissorianortz
El uso de tecnologías de reconocimiento facial con “fines de seguridad” podría expandirse en México y poner en riesgo a la población, de acuerdo con distintas organizaciones civiles.
En 2018, el gobernador de Coahuila, Miguel Riquelme, se convirtió en el primer mandatario del país en iniciar un proyecto de videointeligencia y vigilancia junto con la compañía china Dahua Technology, que a través de una adjudicación directa inició con la instalación de mil 300 cámaras en la entidad.
En octubre del siguiente año, Dahua fue señalada por el Departamento de Comercio de Estados Unidos por participar en actos de represión orquestados por el gobierno chino; sin embargo, un mes después el gobierno de Coahuila anunció que Torreón y Saltillo contaban con el 95% de las cámaras instaladas.
TE PUEDE INTERESAR: Lo que debes saber sobre los códigos QR y la seguridad digital
Para José Flores, vocero de la Red en Defensa de los Derechos Digitales (R3D), este tipo de tecnologías prometen ser una solución a la inseguridad. No obstante, se ha comprobado en diversas partes del mundo que los algoritmos de reconocimiento facial han incriminado a personas inocentes en algún acto delictivo.
“Existen casos documentados en los que el reconocimiento facial ha fallado con márgenes de error que pueden oscilar entre un 92 y 95 por ciento. En ocasiones, estos fallos conducen a detenciones arbitrarias”, destacó Flores en entrevista para Manatí..
En el caso de Coahuila, la Secretaría de Seguridad Pública ha evitado responder solicitudes de información en la que se le pide que haga público el número de personas detenidas con el uso de esta tecnología, la fecha en la que comenzó a operar el proyecto, la ubicación de las cámaras con reconocimiento facial y su tasa de error.
Esta situación también deja ver que ante la falta de regulación de estos servicios, en México se permiten ejecutar programas de seguridad opacos en la manera de operar.
“La implementación en México va a ocurrir en espacios donde vivimos rodeados de autoridades sumamente corruptas y muchas veces ligadas a la delincuencia organizada”, agregó Flores.
De acuerdo con un estudio del Massachusetts Institute of Technology (MIT), los sistemas de reconocimiento facial registran entre 12% y 19% más de equivocaciones al identificar rostros con piel oscura. Además, la tasa de error para identificar mujeres es hasta 20 por ciento más elevada que con hombres.
La organización también reiteró que “la vigilancia masiva del espacio público es prácticamente inescapable y permite generar registros de los hábitos y rutinas de una persona: a dónde va, con quién interactúa, sus horarios”, por lo que podrían revelarse aspectos íntimos de las personas.
Ante este panorama, R3D lanzó #NoNosVeanLaCara, una iniciativa para mantener informada a la población sobre este problema e instarlas a no normalizar el uso de la vigilancia por parte del estado.
Para obtener más detalles, las personas interesadas tendrán que ingresar a https://nonosveanlacara.r3d.mx/ o mantenerse al pendiente de las redes sociales de la organización.
CHECA ESTO: TikTok, entre el ocio, la privacidad y la mercadotecnia
Fotografía de portada: Ennio Dybeli / Unsplash