Cinco prioridades clave para ayudar a mitigar el sesgo en los sistemas de IA

Es difícil discernir cuán generalizados son los sesgos humanos en las tecnologías que desarrollamos y utilizamos.

No cabe duda de que los sesgos humanos pueden influir en los algoritmos de inteligencia artificial (IA) y dar lugar a resultados discriminatorios. Sin embargo, es difícil discernir cuán generalizados son estos sesgos en las tecnologías que desarrollamos y utilizamos en nuestra vida. Aunque mitigar los sesgos en IA puede ser un reto para algunos modelos y sistemas automatizados de toma de decisiones, es imperativo reducir la probabilidad de resultados indeseables.

Nuestra sociedad contin√ļa evolucionando con la r√°pida innovaci√≥n de las tecnolog√≠as emergentes, especialmente la IA. La industria, la academia, los gobiernos y los consumidores tienen la responsabilidad compartida de asegurar que los sistemas de IA sean debidamente probados y evaluados ante la posibilidad de sesgos. Adem√°s, cualquier acci√≥n o pr√°ctica prohibida por la legislaci√≥n antidiscriminatoria vigente tambi√©n deber√≠a aplicarse. Para respaldar las estrategias de mitigaci√≥n de sesgos, las organizaciones deben trabajar para crear, implementar y poner en pr√°ctica los principios √©ticos de la IA y garantizar una gobernanza adecuada para una revisi√≥n y supervisi√≥n continua.

IBM cree que, para aprovechar el potencial transformador de la IA, es necesario el compromiso activo de desarrollarla y usarla de manera responsable, para prevenir resultados discriminatorios que podr√≠an perjudicar a las personas y a sus familias. Un aspecto cr√≠tico del desarrollo responsable de la IA es el enfoque en la identificaci√≥n y mitigaci√≥n de los sesgos. En los √ļltimos a√Īos, IBM ha compartido los resultados de investigaciones, ha puesto a disposici√≥n herramientas y ha proporcionado a las empresas y a sus consumidores una mejor comprensi√≥n de los sistemas de IA. Esto incluye el kit de herramientas de AI Fairness 360, AI FactSheets e IBM Watson OpenScale, as√≠ como las nuevas capacidades de IBM Watson, dise√Īadas para ayudar a las empresas a crear una IA confiable.

El a√Īo pasado, IBM Policy Lab hizo un llamado a una ‚Äúregulaci√≥n de precisi√≥n‚ÄĚ para fortalecer la confianza en la IA, con un marco basado en principios como la responsabilidad, la transparencia, la equidad y la seguridad, que solicitaba tomar medidas a la industria y los gobiernos. A la luz de c√≥mo ha evolucionado el di√°logo p√ļblico sobre los sesgos en IA, esa perspectiva es m√°s importante que nunca. Es por lo que, en respuesta a la atenci√≥n renovada sobre las desigualdades y la forma en que la tecnolog√≠a -en √°reas como la justicia penal, servicios financieros, atenci√≥n sanitaria y recursos humanos- puede ser mal utilizada para exacerbar las injusticias, IBM sugiere que los encargados de la formulaci√≥n de pol√≠ticas p√ļblicas tomen medidas adicionales para dar forma a un entorno legislativo adecuado que aborde las preocupaciones leg√≠timas de la sociedad.

IBM se compromete con la defensa de la diversidad, la equidad y la inclusión en nuestra sociedad, economía y la tecnología que construimos. Como tal, solicitamos a los gobiernos que implementen cinco prioridades para fortalecer la adopción de pruebas, evaluaciones y estrategias de mitigación de los sesgos en los sistemas de IA:

1. Reforzar el conocimiento y alfabetización en IA para toda la sociedad. Una mayor comprensión sobre qué es la IA, sus beneficios potenciales y cómo interactuar con los sistemas podría acelerar su crecimiento y la confianza en ellos. Además, el desarrollo y la implementación de una agenda nacional de IA puede promover un ecosistema más inclusivo y diverso, así como apoyar la erradicación de conceptos equivocados. En esta línea, el aumento de la inversión en educación para incluir IA en los planes de estudio y el incremento del financiamiento para la investigación pueden garantizar una gama más diversa de partes interesadas que guíen la planificación, desarrollo y aplicación de los sistemas de IA en el futuro. Los ministerios y organismos de ciencia y tecnología también deben dar prioridad al establecimiento de alianzas que promuevan la equidad en IA.

2. Requerir evaluaciones y pruebas para los sistemas de IA de alto riesgo, centrándose en proteger a los consumidores, al tiempo que permite la innovación. Esto significa exigir pruebas y mitigación de sesgos -realizadas de forma sólida y transparente- para sistemas de IA como los utilizados en la justicia. Estos sistemas también deben monitorearse y probarse de forma continua. Además, centrar los requisitos de evaluación antes de la implementación para los sistemas de IA de alto riesgo que presentan el mayor potencial de perjuicio; documentar los procesos de evaluación, hacerlos auditables y conservarlos durante un periodo mínimo de tiempo; convocar y realizar foros nacionales e internacionales para acelerar el consenso para una IA confiable; proporcionar recursos y experiencias para ayudar a todas las organizaciones a garantizar IA responsable; aumentar la inversión en investigación y desarrollo para pruebas y mitigación de sesgos; y apoyar la capacitación acelerada de los desarrolladores sobre reconocimiento de sesgos.

3. Exigir transparencia en la IA a trav√©s de la divulgaci√≥n. Los desarrolladores y propietarios deben informar a los usuarios cuando interact√ļan con tecnolog√≠as de IA con poca o nula participaci√≥n humana, as√≠ como cuando se utiliza un sistema de IA de alto riesgo. Adem√°s, en el caso de los sistemas automatizados de toma de decisiones, como m√≠nimo, debe comunicarse al usuario por qu√© y c√≥mo se tom√≥ una decisi√≥n particular utilizando IA.

4. Solicitar mecanismos para la revisi√≥n y retroalimentaci√≥n de los consumidores. Los operadores de aplicaciones de alto riesgo deben poner a disposici√≥n canales de comunicaci√≥n (por ejemplo, correo electr√≥nico, n√ļmero de tel√©fono o direcci√≥n postal) para recibir las preguntas, preocupaciones o quejas de los usuarios. Los propietarios deben actuar de forma responsable al realizar revisiones continuas de las inquietudes planteadas por los consumidores y, cuando sea necesario, trabajar en cuestiones sist√©micas.

5. Establecer limitaciones universales al uso de la IA y adoptar prácticas responsables de licenciamiento. Para evitar que los sistemas se aprovechen para usos ilegales, irresponsables y perjudiciales, IBM solicita el establecimiento de limitaciones universales al uso de aplicaciones de IA de alto riesgo para prohibir su empleo en vigilancia masiva, discriminación racial y la violación de los derechos humanos y las libertades básicas. También, ampliar el desarrollo, la educación y la adopción de términos de licencia responsables para el software de código abierto y las aplicaciones basadas en IA.

Se avecinan nuevas leyes, marcos normativos y directrices para mitigar los sesgos en los sistemas de IA. Si se elaboran sobre la base de las prioridades mencionadas, estas medidas pueden proporcionar a la industria y a las organizaciones requisitos claros de prueba, evaluación, mitigación y educación para aumentar la confianza y la seguridad del consumidor en la inteligencia artificial.

Por Anjelica Dortch, Ejecutiva de Políticas de Tecnología, IBM Government & Regulatory Affairs, y Dra. Stacy Hobson, Directora de Tecnologías Responsables e Inclusivas, IBM Research




Contacto | Diario TI es una publicación de MPA Publishing International Ltd.