Anuncio

Opinión: ¿Le preocupa cómo se utiliza la tecnología de reconocimiento facial? Está en lo cierto

Share via

Si le preocupa cómo se utiliza la tecnología de reconocimiento facial, está en lo cierto. Y las cosas están a punto de volverse mucho más aterradoras, a menos que se establezca una nueva regulación.

Esta tecnología ya se emplea en muchas ciudades de EE.UU y en todo el mundo. Los grupos de derechos humanos han advertido sobre su uso para monitorear espacios públicos y protestas, rastrear y calificar a las minorías, y señalar a sospechosos en investigaciones criminales. La investigación de viajeros, asistentes a conciertos y fanáticos de los deportes con la tecnología también ha generado preocupaciones sobre la privacidad y las libertades civiles.

El reconocimiento facial depende cada vez más del aprendizaje automático, una forma de inteligencia artificial (IA), para examinar imágenes fijas o videos de los rostros de las personas y obtener coincidencias de identidad. Se está trabajando en formas aún más dudosas de monitoreo habilitado para la IA.

Anuncio

Las compañías tecnológicas han comenzado a vender una gama de productos a clientes gubernamentales que intentan inferir y predecir emociones, intenciones y comportamientos “anómalos” a partir de expresiones faciales, lenguaje corporal, tono de voz e incluso la dirección de una mirada. Estas tecnologías se promocionan como herramientas poderosas para que los gobiernos anticipen la actividad criminal, eviten las amenazas terroristas y vigilen una serie cada vez más amorfa de comportamientos sospechosos. ¿Pero pueden realmente hacer eso?

Las aplicaciones de la IA para el reconocimiento de la emoción y el comportamiento están en desacuerdo con los estudios científicos que advierten que las expresiones faciales y otros comportamientos externos no son un indicador confiable de los estados mentales o emocionales. Y eso es preocupante.

Uno de los temores es que estas tecnologías podrían señalar a las minorías raciales y étnicas y otras poblaciones marginadas para un escrutinio injustificado, si la forma en que hablan, visten o caminan se desvía del comportamiento que el software está programado para interpretar como normal, un estándar que probablemente no se ajuste a expresiones culturales, comportamientos y entendimientos de la mayoría.

Quizá conscientes de esos desafíos, la Organización para la Cooperación y el Desarrollo Económico (OCDE , por sus siglas en inglés) y la Unión Europea están formulando directrices basadas en la ética para la IA. Los Principios de la OCDE y las directrices de ética desarrolladas por el Grupo de Expertos de Alto Nivel de la Comisión Europea contienen recomendaciones importantes. Pero varias sugerencias clave relacionadas con las obligaciones de derechos humanos no tendrían que ser sólo normas voluntarias: deberían ser adoptadas por los gobiernos como normas legalmente vinculantes.

Por ejemplo, ambos conjuntos de directrices reconocen que la transparencia es clave. Indican que los gobiernos deberían revelar cuándo alguien podría interactuar con un sistema de inteligencia artificial, como cuando las cámaras de circuito cerrado de TV (CCTV) en un vecindario están equipadas con un software de reconocimiento facial. También exigen la divulgación de la lógica interna de un sistema y el impacto en la vida real: ¿qué caras o comportamientos, por ejemplo, el software señalará a la policía? Y si es así, ¿qué puede pasar cuando se señala la cara o el comportamiento de un individuo?

Dichas divulgaciones no deberían ser opcionales. La transparencia es un requisito previo, tanto para proteger los derechos individuales como para evaluar si las prácticas gubernamentales son legales, necesarias y proporcionadas.

Ambos conjuntos de pautas también enfatizan la importancia de desarrollar pautas para el despliegue responsable de la IA con los aportes de los afectados. Las discusiones deben tener lugar antes de que los sistemas sean adquiridos o implementados. La ley de supervisión de vigilancia de Oakland ofrece un modelo prometedor.

Según esa norma, las agencias gubernamentales deben proporcionar documentación pública de cuáles son las tecnologías, cómo y dónde planean implementarlas, por qué son necesarias y si hay medios menos intrusivos para lograr los objetivos de la agencia. La ley también exige salvaguardas, como reglas en la recopilación de datos y auditorías periódicas para monitorear y corregir un mal uso. Dicha información debe presentarse para su consideración en una audiencia pública, y es necesaria la aprobación del Ayuntamiento para adquirir la tecnología.

Este tipo de proceso de colaboración asegura una discusión amplia sobre si una tecnología amenaza la privacidad o afecta desproporcionadamente los derechos de las comunidades marginadas. Estas discusiones abiertas pueden generar suficientes alertas sobre los riesgos vinculados con los derechos humanos de los gobiernos que utilizan el reconocimiento facial como para prohibirlo, tal como sucedió en Oakland, San Francisco, y en Somerville, Massachusetts.

Las empresas que brindan reconocimiento facial para uso comercial también deben ser legalmente responsables ante altos estándares. Como mínimo, se les debe exigir que mantengan registros completos sobre cómo está programado su software para clasificar e identificar caras, incluidos los registros de los datos que emplean para capacitar al software de modo que califique las características faciales y los cambios realizados en el código subyacente, que afectan la forma en que las caras son identificadas o emparejadas.

Estas prácticas de mantenimiento de registros son clave para cumplir con los estándares de transparencia y responsabilidad propuestos por la OCDE y en la UE. También pueden ser críticas para analizar si el software de reconocimiento facial es preciso para algunos rostros pero no para otros, o por qué alguien fue identificado erróneamente.

Para proporcionar tiempo en el desarrollo de estos marcos regulatorios vitales, los gobiernos deberían imponer una moratoria sobre el uso del reconocimiento facial. Sin regulaciones vinculantes, no podemos estar seguros de que estos cumplan con sus obligaciones de derechos humanos.

Amos Toh es investigador principal sobre inteligencia artificial y derechos humanos en Human Rights Watch.

Para leer esta nota en inglés, haga clic aquí

Anuncio