Opini贸n | La Inteligencia Artificial puede convertirse en la mejor arma contra la discriminaci贸n

驴C贸mo evitar sesgos hist贸ricos y desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos? Cuando se hayan elaborado las pautas 茅ticas, la Inteligencia Artificial (IA) se convertir谩 en un revolucionario cambio de juego.

La “equidad” es un concepto complicado de abordar en el mundo de los negocios, pero frente a eso, la Inteligencia Artificial (IA) constituye un arma afilada que podr铆a usarse para niveles de bondad sin precedentes a medida que las empresas buscan liberarse de la discriminaci贸n.

Pero retrocedamos un poco: siempre que miras los datos, r谩pidamente descubres que las decisiones humanas son intr铆nsecamente injustas. Eso no quiere decir correcto o incorrecto, porque a menudo es subjetivo. Pero literalmente injusto. Esto se debe a que el mundo en el que vivimos est谩 desequilibrado; y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza. 驴Deber铆an los ricos pagar impuestos m谩s altos? Muchos dir铆an que 鈥渟铆鈥, que es justo. 驴Le cobrar铆as m谩s a ese mismo rico por un trozo de pan? La idea de un gasto proporcional a los ingresos ya se vuelve inconsistente, y tal vez eso sea injusto en s铆 mismo.

Ahora aplique esa noci贸n a la IA: un sistema en el que los datos se introducen en una m谩quina para que ese algoritmo derive las decisiones resultantes para que los humanos act煤en con mayor precisi贸n de la que podr铆an lograr ellos mismos. Si los datos que se alimentan est谩n contaminados por sesgos hist贸ricos, eso es lo que se utilizar谩 para tomar decisiones futuras. Ese ciclo no solo continuar谩, sino que se exacerbar谩 hasta un grado sin precedentes.

Tomemos los patrones de contrataci贸n, por ejemplo. El g茅nero y la raza son los par谩metros cl谩sicos que la mayor铆a de las empresas buscan equilibrar y hacer “justos”. Pero los datos y sesgos hist贸ricos desv铆an el objetivo previsto de la IA, por lo que se debe tomar una decisi贸n humana sobre qu茅 informaci贸n introducir en el algoritmo.

Sin orientaci贸n hacia la equidad, el Aprendizaje Autom谩tico (Machine Learning, ML) a煤n puede descubrir a los mejores candidatos, pero no hay garant铆a de que se adhiera a una cuota o aborde la discriminaci贸n si solo se basa en pruebas discriminatorias para tomar sus decisiones.

Algunos ejemplos en donde la IA se dej贸 a sus propios dispositivos enfatizan la batalla 茅tica de la que hablamos:

–          Se ha descubierto que la tecnolog铆a de reconocimiento facial funciona mucho mejor para los blancos que para otras razas (y los hombres mejor que las mujeres) porque se prob贸 y se entren贸 principalmente en estadounidenses blancos. En China, con los productos locales, sucede lo contrario, con rostros europeos m谩s dif铆ciles de identificar.

–          En el lado de g茅nero, Amazon fue desafiada por sus procesos de selecci贸n, que se encontraron m谩s basados en los hombres como consecuencia de confiar en data hist贸rica (con decisiones injustas).

Estos resultados fueron inicialmente sorprendentes. Al menos se identific贸 el problema. La comunidad de IA tom贸 esto como una oportunidad para desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos. Muchas empresas ahora se preocupan por utilizar datos de formaci贸n m谩s equilibrados. Es un paso en la direcci贸n correcta, aunque a煤n queda trabajo por hacer.

驴Qui茅n decide qu茅 es justo?

Las empresas necesitan armar la IA con los datos correctos. Necesita el conjunto de instrucciones m谩s 茅ticas, que elimine los prejuicios humanos y las deficiencias hist贸ricas, de modo que se pueda lograr el equilibrio en un grado 贸ptimo.

La buena noticia es que los algoritmos y las “instrucciones” son relativamente f谩ciles de adaptar. La tecnolog铆a est谩 ah铆, lista y esperando para eliminar la discriminaci贸n.

Pero鈥 驴qui茅n decide lo que es justo?

No solo debe establecer qu茅 es “correcto”, sino que luego debe cuantificarlo de una manera que pueda ser calculada por los tipos de sistemas que creamos.

驴Deber铆a haber el mismo n煤mero de profesores de TI hombres que de mujeres, incluso si hay cinco veces el n煤mero de hombres que estudian TI? 驴Puede retroceder m谩s y deducir que a las mujeres no se les dio tanta oportunidad o est铆mulo para buscar TI y decidir que en realidad es justo abordar ese equilibrio m谩s adelante?

Por el contrario, la medicina en Alemania est谩 compuesta por dos tercios de mujeres. Pero la electroingenier铆a se divide en un 72% -28% en la otra direcci贸n. Entonces, 驴es justo aprovechar las oportunidades de 50 a 50 cuando se trata de contratar, o la instrucci贸n de IA deber铆a reflejar esa diferencia potencialmente social?

Cuando se trata de la empresa, la equidad social es una red de complejidad, y primero debe establecer lo que eval煤a como 茅tico para lograr esos objetivos.

Un arma afilada para empu帽ar

Cuando se hayan elaborado las pautas 茅ticas, la IA se convertir谩 en un revolucionario cambio de juego. Es la raz贸n por la que dos pa铆ses europeos llevaron el tema a la mesa (en la primera conferencia franco – alemana de Inteligencia Artificial, AIXIA).

Es importante tomar la decisi贸n sobre lo que es justo y luego introducirlo en una m谩quina que funcionar谩 con precisi贸n contra esas definiciones de justicia. Podr铆a ser un gran nivelador para algunas de las discriminaciones m谩s flagrantes observadas en 谩reas de recursos humanos, brechas salariales, etc.

Por supuesto, si una noci贸n contenciosa o incluso injusta se carga en ML, ese status quo discriminatorio o poco 茅tico se agravar铆a. Pero cuando se usa para bien, tenemos un arma afilada en nuestras manos, hecha de datos y algoritmos que pueden deshacer los desequilibrios culturales, hist贸ricos y sociales en las industrias de una manera mucho m谩s acelerada de lo que podr铆amos hacer cumplir sin esta tecnolog铆a.

La raz贸n de su potencial es simple: elimina los mismos prejuicios e influencias humanas que crearon tales desigualdades en primer lugar.

La IA trabaja con datos. Y mientras los datos que se prestan a estos algoritmos se afilen con buenas intenciones, entonces tenemos un arma muy poderosa que esgrimir en la lucha contra la discriminaci贸n. Los recientes incidentes discriminatorios y las protestas mundiales en su contra muestran cu谩n necesaria es tal arma.

Por Michael Feindt, consultor estrat茅gico de Blue Yonder


Destacamos

Contacto | Diario TI es una publicaci贸n de MPA Publishing International Ltd.