Por qué el 2022 puede ser el año en el que los servicios financieros adopten la IA ética

Los bancos latinoamericanos experimentan dificultades para lograr resultados innovadores, debido a desafíos de infraestructura tecnológica, una cultura interna que obstaculiza los avances y limitaciones presupuestarias.

Casi dos años después de que la pandemia obligara a los clientes bancarios a realizar sus operaciones en línea, la mayoría de las instituciones financieras se han visto obligadas a adoptar la transformación digital. Sin embargo, todavía hay un largo camino por recorrer. De acuerdo con Infocorp, en 2021 el 73% de las iniciativas de digitalización de los bancos en América Latina se aceleraron en comparación con el ritmo que tenían en 2020, pero tienen dificultades en lograr resultados innovadores por desafíos relacionados con su infraestructura tecnológica (29%), una cultura interna que obstaculiza los avances (25%) y limitaciones de presupuesto (22%). Una de las razones detrás de este rezago es que muchos bancos se niegan a utilizar tecnologías de inteligencia artificial (IA) y aprendizaje automático.

Organizaciones de todos los tamaños pueden adoptar la ética de la IA

La aplicación responsable de inteligencia artificial y aprendizaje automático, explicable y ética, es fundamental para analizar y, en última instancia, monetizar los múltiples datos de clientes, que son un subproducto de la transformación digital efectiva de cualquier institución. 

Sin embargo, las bajas tasas de adopción pueden ilustrar la renuencia de algunos ejecutivos de Nivel C de utilizar la IA, lo cual no está totalmente injustificado, ya que existen algunos estudios que indican que la IA podría ser una tecnología no confiable.

No obstante, ignorar la IA no es una estrategia viable, pues ya ha sido adoptada ampliamente en el mundo empresarial. Incluso en las economías emergentes, la adopción de IA continúa en aumento constante: el 57% de los encuestados por McKinsey reportan haber adoptado la IA en al menos una función del negocio en 2021, frente al 45% en 2020. Más importante aún, la IA y el aprendizaje automático presentan la mejor solución posible para uno de los problemas que enfrentan muchas instituciones financieras: después de implementar acceso digital en todo lugar y momento –y recopilar el alto volumen de datos de clientes–, las organizaciones comúnmente se percatan de que no están usando esos datos de manera adecuada para brindar un mejor servicio a los clientes.

En un estudio de FICO, publicado el año pasado, puede observarse el impacto que tienen la mala combinación entre un mayor acceso digital y los datos digitales proporcionados, aunado a las necesidades insatisfechas de los clientes. Este estudio encontró que, aunque el 86% de los consumidores están satisfechos con los servicios de sus bancos, el 34% tienen, al menos, una cuenta financiera, o bien participan en alguna actividad “adicional” con un proveedor de servicios financieros no bancario. Incluso, el 70% de los encuestados indicó que para ellos es “probable” o “muy probable” abrir una cuenta con un proveedor competidor que ofrezca productos y servicios que cumplan sus necesidades insatisfechas, tales como asesoría experta, presupuestos automatizados, planes de ahorros personalizados, inversiones en línea y transferencias de dinero electrónicas.

La solución, muy popular a lo largo del 2021, es que las instituciones financieras implementen una IA que sea explicable, ética y responsable, y que incorporen tecnologías interpretables, auditables y humildes.

Por qué la ética desde el diseño es la solución

El 15 de septiembre de 2021 hubo un avance significativo hacia el estándar global de la IA responsable con el lanzamiento de la Norma IEEE 7000-2021. Esta norma brinda a las empresas (incluyendo los proveedores de servicios financieros) una estructura ética para implementar inteligencia artificial y aprendizaje automático con normas establecidas para:

  • La calidad de los datos utilizados en el sistema de IA;
  • Los procesos de selección que alimentan la IA;
  • El diseño de algoritmos;
  • La evolución de la lógica de la IA, y
  • La transparencia de la IA 

En México, todavía no ha sido liberado dicho estándar, y no se cuenta con algún principio de IA ética, pero es un hecho que en algún momento habrá regulación en este sentido. México es miembro de la Organización para la Cooperación y Desarrollo Económico (OCDE), la cual, de acuerdo con un documento de la IEEE, promueve 5 principios de IA: 1) Crecimiento inclusivo, desarrollo sostenible y bienestar; 2) Valores y equidad centrados en el ser humano; 3) Transparencia y explicabilidad; 4) Robustez, seguridad y protección, y 5) Responsabilidad.

Como CDAO de FICO he abogado durante años por la Ética desde el Diseño como estándar para el desarrollo de modelos de IA. Desde hace tiempo esperábamos la estructura establecida por IEEE 7000. A medida que se adopte ampliamente, considero que tres nuevas ramas complementarias de la IA adquirirán popularidad en el 2022:  

  • La IA Interpretable se enfoca en los algoritmos de aprendizaje automático que especifican qué modelos de aprendizaje automático son interpretables y cuáles son explicables. La IA explicable aplica algoritmos a los modelos de aprendizaje automático para deducir las conductas que produjeron un resultado (por lo general una puntuación), mientras que la IA Interpretable especifica los modelos de aprendizaje automático que proporcionan una visión irrefutable de las características latentes que producen la puntuación. Esta es una diferenciación significativa, pues el aprendizaje automático interpretable permite explicaciones exactas (respecto a inferencias) y, más importante aún, este conocimiento profundo de las características latentes específicas nos permite asegurar que el modelo de IA pueda probarse para verificar su tratamiento ético.  
  • La IA Auditable deja una pista de detalles de sí misma, incluyendo variables, datos, transformaciones y procesos de modelos, como diseño de algoritmos, aprendizaje automático y lógica del modelo, lo que simplifica las auditorías (de ahí su nombre). Dado que aborda el requisito de transparencia de la norma IEEE 7000, la IA Auditable está respaldada por estructuras de gobernabilidad de desarrollo de modelos firmemente establecidas, como la cadena de bloques.
  • La IA Humilde es una inteligencia artificial que acepta que no tiene la respuesta correcta. La IA Humilde utiliza medidas de incertidumbre, tales como decisiones numéricas, para medir la confianza de un modelo en sus propias decisiones, lo que finalmente brinda a los investigadores más confianza en las decisiones producidas.

Cuando se implementan de forma adecuada, la IA Interpretable, la IA Auditable y la IA Humilde son simbióticas. La IA Interpretable elimina las dudas de aquello que impulsa el aprendizaje automático para fines explicativos y éticos; la IA Auditable registra las fortalezas, debilidades y transparencia de un modelo durante la etapa de desarrollo y establece el criterio y las medidas de incertidumbre evaluadas por la IA Humilde. Las tres en conjunto brindan a las instituciones de servicios financieros y sus clientes no sólo un mayor sentido de confianza en las herramientas que impulsan la transformación digital, sino también en los beneficios que ofrecen esas herramientas.

Por Scott Zoldi, Chief Data & Analytics Officer en FICO


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022