Diversidad e inclusión son cruciales para un proyecto de IA

Hay un riesgo enorme de sesgo en la aplicación de IA considerando que esta tecnología interviene en múltiples procesos crediticios, sanitarios e investigativos.

en actividades que van desde la autorización para la concesión de un crédito hasta el diagnóstico absolutamente preciso de una enfermedad y su consecuente tratamiento y desde la detección de un fraude en una operación financiera hasta la identificación de un sospechoso por parte de las fuerzas de seguridad.

Está mucho más presente de lo que percibimos: cada vez más aplicaciones sacan provecho de la inteligencia artificial (IA) y muchas de ellas habilitan el progreso social, incrementan la posibilidad de éxito de las organizaciones y mejoran la calidad de vida de la sociedad.

Pero como ocurre con toda innovación, los beneficios y las oportunidades se combinan con nuevos desafíos a los que debemos prestar atención si queremos evitar dolores de cabeza o impactos negativos: hemos visto casos en los que los algoritmos de IA discriminaron personas negras en sistemas de reconocimiento facial o relegaron mujeres en un proceso de selección de candidatos para un empleo. 

Un riesgo enorme considerando que la IA interviene en actividades que van desde la autorización para la concesión de un crédito hasta el diagnóstico absolutamente preciso de una enfermedad y su consecuente tratamiento y desde la detección de un fraude en una operación financiera hasta la identificación de un sospechoso por parte de las fuerzas de seguridad.

Un reflejo de los datos de entrenamiento

¿Por qué ocurre esto? Las razones son múltiples. Una de las más comunes es que exista un sesgo en el conjunto de datos que se utilizan para que la solución aprenda. Esos datos suelen ser un reflejo de la sociedad: por ejemplo, un sistema de personal podría tener registros mayormente de hombres, lo que condicionaría las decisiones futuras del sistema en términos de equidad de género. También puede suceder que en determinadas situaciones no previstas en la fase de construcción la herramienta funcione de manera incorrecta.

Las soluciones de IA y machine learning no surgen en el vacío, sino que constituyen un reflejo, tanto de los datos utilizados para crearlas como del punto de vista del equipo de ingenieros que estará a cargo de su desarrollo, lo que hace que el origen, las características y las vivencias de cada uno de ellos resulte relevante.

Existe una opinión generalizada acerca que los algoritmos de IA deben corregir el bias propio de los humanos en los datos utilizados en entrenamiento, lo que permitiría a su vez eliminarlos de la solución. La realidad es mucho más compleja: los modelos de machine learning tienen como virtud la capacidad de generalizar para tomar decisiones en base a datos diferentes a los utilizados en su entrenamiento. Esto hace que sea difícil prever o evitar comportamientos discriminatorios o erróneos en el futuro.

La responsabilidad del desarrollador de IA

Los creadores de soluciones de IA y machine learning, por lo tanto, tenemos una responsabilidad enorme: la de garantizar que los métodos de implementación y monitoreo logren mitigar cualquier impacto negativo que pudieran ocasionar y que cumplan con la premisa FAT (siglas en inglés por fair, accountability and transparent, que sean justas, puedan rendir cuentas sobre su funcionamiento y resulten transparentes). La experiencia se acumula y hoy disponemos de metodologías, buenas prácticas y técnicas que pueden aplicarse antes, durante y después de la puesta en marcha de la solución. En muchas geografías, incluso, ya existen marcos regulatorios específicos sobre este tema.

Factores, como la diversidad y la inclusión son dos motores que deben estar presentes desde el diseño de la solución: es esencial que en todo momento del proyecto se consideren visiones de personas con diferentes estilos de vida, orígenes y puntos de vista. Pero reunir equipos de IA diversos no es una tarea sencilla. Según un informe del World Economic Forum fechado en 2020 solo el 26% de las profesionales de data e IA son mujeres. Es cierto que existen organizaciones como AI4diversity para romper estos paradigmas y que empresas como NTT DATA están poniendo cada vez más esfuerzo en desarrollar procesos de contratación y formación de profesionales con un enfoque diverso, pero queda aún mucho recorrido por delante.

La IA tiene el potencial de mejorar la calidad de vida de las personas de numerosas formas, algunas ya conocidas, algunas otras esperando para darse a conocer en un futuro inmediato. La única manera de que esta premisa se convierta en realidad es garantizando un desarrollo de soluciones sin prejuicios y que incluya a los seres humanos en toda su diversidad.

Por Lluis Quiles Ardila, Artificial Intelligence Director en NTT DATA Europe & LATAM


Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022