Inteligencia artificial responsable

El ritmo acelerado al que avanza la tecnolog铆a y la innovaci贸n impone nuevos retos para los desarrollos de hoy. Lo que hay y lo que viene.

La Inteligencia Artificial (IA) se ha puesto en boga por sus grandes aportes a los diferentes sectores de la econom铆a para solucionar problemas de las organizaciones y atender muchas de las necesidades de los consumidores. Sin embargo, esto impone grandes retos, especialmente 茅ticos, que vale la pena tener en cuenta durante los a帽os venideros.

Cuando hablamos de IA podemos relacionarlo directamente con m谩quinas que exhiben rasgos de la mente humana como aprendizaje, automatizaci贸n de procesos y resoluci贸n de problemas. Su objetivo es simular cierta 鈥榠nteligencia鈥 en m谩quinas programadas para pensar como humanos e imitar sus acciones. Les mostramos c贸mo resolver situaciones siguiendo patrones espec铆ficos o mediante algoritmos, y ellas absorben toda esa informaci贸n que se les entrega.

Los resultados obtenidos por una IA dependen del objetivo para la que fue dise帽ada y de los datos utilizados. Por esto, si la data suministrada tiene un sesgo o un problema, esta podr铆a llegar a conclusiones inesperadas o incorrectas. A la m谩quina debe indic谩rsele claramente el conjunto de reglas a seguir para que pueda determinar qu茅 es correcto o esperable y qu茅 est谩 mal. Es ah铆 donde radica el control que debemos mantener como seres humanos, y que no puede ser obviado.

Encontramos inteligencia artificial en herramientas de uso diario que facilitan el reconocimiento de voz, facial, huella dactilar, im谩genes, etiquetas en las fotos y escaneos e incluso, chatbots capaces de solucionar las dudas de un banco o entidad, eliminando la necesidad de llamadas y reduciendo tiempos en procesos de las organizaciones.

En este punto, y viendo el creciente uso de soluciones cada d铆a m谩s complejas y aut贸nomas es importante hablar sobre la inteligencia artificial responsable, el papel de la academia, de las organizaciones y la regulaci贸n para la misma en un futuro cercano: 

Podemos acu帽ar el t茅rmino inteligencia artificial responsable a la 茅tica o c贸digo de valores asociados con esta tecnolog铆a. A saber, todo resultado de la m谩quina es producto de la informaci贸n y de las indicaciones que le suministra el ser humano. Pero, adem谩s se deben establecer l铆mites y reglas, especialmente en la toma de decisiones, para que esta pueda afrontar dilemas complejos.

Por ejemplo hemos escuchado casos de herramientas dise帽adas para la toma de decisiones en juicios en donde la informaci贸n estuvo sesgada, donde por ende los veredictos terminaron siendo injustos y afectados por prejuicios. La m谩quina, sin embargo, solo hizo lo que se le indic贸 y para lo que hasta ese momento hab铆a sido codificada siguiendo los patrones encontrados. 

La Inteligencia Artificial responsable exige ingresar informaci贸n sin sesgos. Pensemos en un veh铆culo aut贸nomo: este se alimenta de los datos que indican la ruta y el lugar de destino, pero adem谩s las normas viales. Esa es la clave, conocer lo que se tiene, para d贸nde queremos llegar y cu谩l es nuestro c贸digo de reglas.

Otro reto que exige la IA es el papel de la Academia en la formaci贸n del talento TI. Aunque nuestra 茅tica y reglas morales se empiezan a aprender desde casa, indudablemente se requiere el refuerzo desde la Academia. Adem谩s de programaci贸n y tecnolog铆a avanzada, este valor debe ser uno de los fundamentos de los p茅nsum, tanto en las universidades como de los institutos y/u organizaciones dedicadas a formar a los expertos de este sector. Sin duda, la 茅tica combinada con la experiencia ser谩n los atributos en los servicios de TI para la regi贸n y para el mundo.

Por otro lado, en cada compa帽铆a se deber铆an tener lineamientos 茅ticos en la pr谩ctica tecnol贸gica, incluso contar con un Comit茅 脡tico que entregue las directrices para su ejecuci贸n. Cada colaborador debe tener claros los objetivos, la cultura de la organizaci贸n en donde labora y los l铆mites de hasta donde llegar con el uso y manejo de la informaci贸n para mitigar posibles riesgos asociados.

La 茅tica es, sin duda, ese conjunto de normas morales que aseguran que la IA est茅 centrada en el ser humano y que se respeten los derechos fundamentales y las regulaciones aplicables. 

Por ende tambi茅n el desarrollo de la IA demanda una regulaci贸n m谩s exigente, porque aunque existen medidas a nivel internacional, es importante que en cada pa铆s se busque la forma de 鈥榣ocalizarla鈥 o adaptarla a su propia realidad, que siempre est茅n en pro del bienestar de las personas. Poco a poco se va viendo que las normas van avanzando.

Para concluir, la Inteligencia Artificial requiere ser responsable, con normas claras y con la intervenci贸n asertiva de m煤ltiples actores como la academia, la empresa y los colaboradores, que act煤en 茅ticamente con el manejo de la informaci贸n y la creaci贸n de los algoritmos. Los seres humanos somos responsables de los resultados de las m谩quinas.

Por David Ricardo Montero, Technical Architect en Prodigious Latin America




Contacto | Diario TI es una publicaci贸n de MPA Publishing International Ltd.