Investigación revela uso generalizado y descontrolado de la IA en el gobierno británico

Investigación periodística revela el uso generalizado de la IA en el gobierno del Reino Unido, a menudo de una forma opaca y no regulada que preocupa a los expertos.

Un reportaje publicado hoy por The Guardian revela que funcionarios del gobierno británico están utilizando herramientas de inteligencia artificial (IA) y algoritmos para ayudar a tomar decisiones sobre una serie de servicios públicos críticos. La investigación pone de relieve el uso a menudo incontrolado y opaco de estas tecnologías por parte de los departamentos de Whitehall y de algunas fuerzas policiales seleccionadas.

Las conclusiones revelan cómo la IA puntera se utiliza de forma incoherente en múltiples facetas de la administración pública y la prestación de servicios. Entre los casos de uso específicos se incluyen determinar el derecho a la asistencia social y a prestaciones, tramitar las solicitudes de inmigración y de licencias matrimoniales e informar los procesos de justicia penal. 

Los expertos advierten que algunos de estos sistemas algorítmicos han mostrado sesgos que conducen a resultados potencialmente discriminatorios. Algunos ejemplos son:

– Una herramienta del Departamento de Trabajo y Pensiones que erróneamente señala a las personas como solicitantes fraudulentos, lo que conduce a la suspensión de las prestaciones.

– La tecnología de reconocimiento facial utilizada por la Policía Metropolitana, de la que se descubrió que presentaba tasas de error más elevadas para los rostros no blancos.

– Un sistema del Ministerio del Interior para identificar matrimonios falsos que selecciona de forma desproporcionada a determinadas nacionalidades.

Si los datos subyacentes contienen sesgos, es probable que el modelo de IA los propague y amplifique. De este modo, una supervisión inadecuada aumenta el riesgo de que se utilicen sistemas ilegales y poco éticos que tengan un impacto significativo en la vida de las personas.

Aunque la IA promete mejoras en la eficiencia, los expertos sostienen que deben establecerse salvaguardias para garantizar responsabilidades. Reclaman una mayor transparencia para que el público entienda dónde se están aplicando estas tecnologías. Las personas merecen poder examinar las decisiones tomadas por los algoritmos que les afectan.

La reciente supresión de un órgano consultivo gubernamental independiente sobre la ética de la IA ha suscitado preocupaciones adicionales sobre la falta de una gobernanza robusta. Aunque el gobierno ha introducido una norma de transparencia de la IA, la participación sigue siendo voluntaria.

Expertos como Shameem Ahmad, director ejecutivo del Proyecto de Derecho Público, advierten de los riesgos asociados al creciente uso de la IA en la toma de decisiones gubernamentales. “La IA tiene un enorme potencial para el bien social. Por ejemplo, podemos hacer que las cosas sean más eficientes. Pero no podemos ignorar los graves riesgos”, dijo Ahmad. Marion Oswald, catedrática de Derecho de la Universidad de Northumbria, se hizo eco de la preocupación por la falta de transparencia: “Hay una falta de coherencia y transparencia en la forma en que se está utilizando la IA en el sector público. Muchas de estas herramientas afectarán a muchas personas en su vida cotidiana, por ejemplo a quienes solicitan prestaciones, pero la gente no entiende por qué se están utilizando y no tiene capacidad para cuestionarlas.”

Mientras el gobierno intenta ampliar el uso de la IA en los servicios públicos, los expertos instan a los responsables políticos a dar prioridad a las consideraciones éticas. Una aplicación apresurada sin los controles adecuados entraña el riesgo de provocar daños tecnológicos que podrían afectar de forma desproporcionada a los grupos vulnerables. Se necesita un enfoque equilibrado para aprovechar los beneficios y mitigar al mismo tiempo los riesgos.

Ilustración: Diario TI vía Midjourney


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022