ACLU procesó una foto de cada legislador del estado de California a través de un programa de reconocimiento facial que compara imágenes faciales con una base de datos de 25.000 fotos de delincuentes.
San Francisco y otras ciudades de Estados Unidos ya han prohibido el uso de la tecnología de reconocimiento facial, lo que significa que las agencias locales, como la policía y otras entidades municipales, como el departamento de transporte, no podrán utilizar la tecnología en ninguno de sus sistemas.
El programa de reconocimiento facial señaló a 26 legisladores como delincuentes. Adicionalmente, más de la mitad de los legisladores falsamente identificados eran personas de color, según la ACLU. Los sistemas de reconocimiento facial han sido previamente criticados en los Estados Unidos después de que una investigación de la Oficina de Responsabilidad del Gobierno descubriera que los algoritmos del FBI eran inexactos el 14 por ciento de las veces, además de ser más propensos a identificar erróneamente a las personas de raza negra.
“Este experimento refuerza el hecho de que el software de reconocimiento facial no está listo para su uso adecuado, y mucho menos para las cámaras corporales que usan las fuerzas del orden”, dijo a ACLU el legislador Phil Ting, cuya foto fue seleccionada por el software como coincidente con una fotografía de una ficha policial.
La ACLU, con sede en California, también se opone a un proyecto de ley llamado The Body Camera Accountability Act, cuyo objetivo es utilizar el reconocimiento facial y otros elementos de vigilancia biométrica en las cámaras corporales usadas por la policía. Actualmente, no hay ciudades en California que tengan esa tecnología en tales cámaras, dijo Ting, citado por CNN y USA Today. “Pude ver a californianos inocentes sometidos a controles policiales callejeros debido a falsos positivos. No debemos permitir que esto suceda”, dijo Ting en una conferencia de prensa.
Microsoft se ha negado recientemente a instalar tecnología de reconocimiento facial para una fuerza policial estadounidense, debido a la preocupación por el evidente sesgo de estos sistemas basados en inteligencia artificial (IA).
Ilustración: “Facial Recognition Art Mural, Hollywood CA #bornmodern” por YO! What Happened To Peace? con licencia CC BY-SA 2.0