La “equidad” es un concepto complicado de abordar en el mundo de los negocios, pero frente a eso, la Inteligencia Artificial (IA) constituye un arma afilada que podría usarse para niveles de bondad sin precedentes a medida que las empresas buscan liberarse de la discriminación.
Pero retrocedamos un poco: siempre que miras los datos, rápidamente descubres que las decisiones humanas son intrínsecamente injustas. Eso no quiere decir correcto o incorrecto, porque a menudo es subjetivo. Pero literalmente injusto. Esto se debe a que el mundo en el que vivimos está desequilibrado; y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza. ¿Deberían los ricos pagar impuestos más altos? Muchos dirían que “sí”, que es justo. ¿Le cobrarías más a ese mismo rico por un trozo de pan? La idea de un gasto proporcional a los ingresos ya se vuelve inconsistente, y tal vez eso sea injusto en sí mismo.
Ahora aplique esa noción a la IA: un sistema en el que los datos se introducen en una máquina para que ese algoritmo derive las decisiones resultantes para que los humanos actúen con mayor precisión de la que podrían lograr ellos mismos. Si los datos que se alimentan están contaminados por sesgos históricos, eso es lo que se utilizará para tomar decisiones futuras. Ese ciclo no solo continuará, sino que se exacerbará hasta un grado sin precedentes.
Tomemos los patrones de contratación, por ejemplo. El género y la raza son los parámetros clásicos que la mayoría de las empresas buscan equilibrar y hacer “justos”. Pero los datos y sesgos históricos desvían el objetivo previsto de la IA, por lo que se debe tomar una decisión humana sobre qué información introducir en el algoritmo.
Sin orientación hacia la equidad, el Aprendizaje Automático (Machine Learning, ML) aún puede descubrir a los mejores candidatos, pero no hay garantía de que se adhiera a una cuota o aborde la discriminación si solo se basa en pruebas discriminatorias para tomar sus decisiones.
Algunos ejemplos en donde la IA se dejó a sus propios dispositivos enfatizan la batalla ética de la que hablamos:
– Se ha descubierto que la tecnología de reconocimiento facial funciona mucho mejor para los blancos que para otras razas (y los hombres mejor que las mujeres) porque se probó y se entrenó principalmente en estadounidenses blancos. En China, con los productos locales, sucede lo contrario, con rostros europeos más difíciles de identificar.
– En el lado de género, Amazon fue desafiada por sus procesos de selección, que se encontraron más basados en los hombres como consecuencia de confiar en data histórica (con decisiones injustas).
Estos resultados fueron inicialmente sorprendentes. Al menos se identificó el problema. La comunidad de IA tomó esto como una oportunidad para desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos. Muchas empresas ahora se preocupan por utilizar datos de formación más equilibrados. Es un paso en la dirección correcta, aunque aún queda trabajo por hacer.
¿Quién decide qué es justo?
Las empresas necesitan armar la IA con los datos correctos. Necesita el conjunto de instrucciones más éticas, que elimine los prejuicios humanos y las deficiencias históricas, de modo que se pueda lograr el equilibrio en un grado óptimo.
La buena noticia es que los algoritmos y las “instrucciones” son relativamente fáciles de adaptar. La tecnología está ahí, lista y esperando para eliminar la discriminación.
Pero… ¿quién decide lo que es justo?
No solo debe establecer qué es “correcto”, sino que luego debe cuantificarlo de una manera que pueda ser calculada por los tipos de sistemas que creamos.
¿Debería haber el mismo número de profesores de TI hombres que de mujeres, incluso si hay cinco veces el número de hombres que estudian TI? ¿Puede retroceder más y deducir que a las mujeres no se les dio tanta oportunidad o estímulo para buscar TI y decidir que en realidad es justo abordar ese equilibrio más adelante?
Por el contrario, la medicina en Alemania está compuesta por dos tercios de mujeres. Pero la electroingeniería se divide en un 72% -28% en la otra dirección. Entonces, ¿es justo aprovechar las oportunidades de 50 a 50 cuando se trata de contratar, o la instrucción de IA debería reflejar esa diferencia potencialmente social?
Cuando se trata de la empresa, la equidad social es una red de complejidad, y primero debe establecer lo que evalúa como ético para lograr esos objetivos.
Un arma afilada para empuñar
Cuando se hayan elaborado las pautas éticas, la IA se convertirá en un revolucionario cambio de juego. Es la razón por la que dos países europeos llevaron el tema a la mesa (en la primera conferencia franco – alemana de Inteligencia Artificial, AIXIA).
Es importante tomar la decisión sobre lo que es justo y luego introducirlo en una máquina que funcionará con precisión contra esas definiciones de justicia. Podría ser un gran nivelador para algunas de las discriminaciones más flagrantes observadas en áreas de recursos humanos, brechas salariales, etc.
Por supuesto, si una noción contenciosa o incluso injusta se carga en ML, ese status quo discriminatorio o poco ético se agravaría. Pero cuando se usa para bien, tenemos un arma afilada en nuestras manos, hecha de datos y algoritmos que pueden deshacer los desequilibrios culturales, históricos y sociales en las industrias de una manera mucho más acelerada de lo que podríamos hacer cumplir sin esta tecnología.
La razón de su potencial es simple: elimina los mismos prejuicios e influencias humanas que crearon tales desigualdades en primer lugar.
La IA trabaja con datos. Y mientras los datos que se prestan a estos algoritmos se afilen con buenas intenciones, entonces tenemos un arma muy poderosa que esgrimir en la lucha contra la discriminación. Los recientes incidentes discriminatorios y las protestas mundiales en su contra muestran cuán necesaria es tal arma.
Por Michael Feindt, consultor estratégico de Blue Yonder