La Inteligencia Artificial (IA) se ha puesto en boga por sus grandes aportes a los diferentes sectores de la economía para solucionar problemas de las organizaciones y atender muchas de las necesidades de los consumidores. Sin embargo, esto impone grandes retos, especialmente éticos, que vale la pena tener en cuenta durante los años venideros.
Cuando hablamos de IA podemos relacionarlo directamente con máquinas que exhiben rasgos de la mente humana como aprendizaje, automatización de procesos y resolución de problemas. Su objetivo es simular cierta ‘inteligencia’ en máquinas programadas para pensar como humanos e imitar sus acciones. Les mostramos cómo resolver situaciones siguiendo patrones específicos o mediante algoritmos, y ellas absorben toda esa información que se les entrega.
Los resultados obtenidos por una IA dependen del objetivo para la que fue diseñada y de los datos utilizados. Por esto, si la data suministrada tiene un sesgo o un problema, esta podría llegar a conclusiones inesperadas o incorrectas. A la máquina debe indicársele claramente el conjunto de reglas a seguir para que pueda determinar qué es correcto o esperable y qué está mal. Es ahí donde radica el control que debemos mantener como seres humanos, y que no puede ser obviado.
Encontramos inteligencia artificial en herramientas de uso diario que facilitan el reconocimiento de voz, facial, huella dactilar, imágenes, etiquetas en las fotos y escaneos e incluso, chatbots capaces de solucionar las dudas de un banco o entidad, eliminando la necesidad de llamadas y reduciendo tiempos en procesos de las organizaciones.
En este punto, y viendo el creciente uso de soluciones cada día más complejas y autónomas es importante hablar sobre la inteligencia artificial responsable, el papel de la academia, de las organizaciones y la regulación para la misma en un futuro cercano:
Podemos acuñar el término inteligencia artificial responsable a la ética o código de valores asociados con esta tecnología. A saber, todo resultado de la máquina es producto de la información y de las indicaciones que le suministra el ser humano. Pero, además se deben establecer límites y reglas, especialmente en la toma de decisiones, para que esta pueda afrontar dilemas complejos.
Por ejemplo hemos escuchado casos de herramientas diseñadas para la toma de decisiones en juicios en donde la información estuvo sesgada, donde por ende los veredictos terminaron siendo injustos y afectados por prejuicios. La máquina, sin embargo, solo hizo lo que se le indicó y para lo que hasta ese momento había sido codificada siguiendo los patrones encontrados.
La Inteligencia Artificial responsable exige ingresar información sin sesgos. Pensemos en un vehículo autónomo: este se alimenta de los datos que indican la ruta y el lugar de destino, pero además las normas viales. Esa es la clave, conocer lo que se tiene, para dónde queremos llegar y cuál es nuestro código de reglas.
Otro reto que exige la IA es el papel de la Academia en la formación del talento TI. Aunque nuestra ética y reglas morales se empiezan a aprender desde casa, indudablemente se requiere el refuerzo desde la Academia. Además de programación y tecnología avanzada, este valor debe ser uno de los fundamentos de los pénsum, tanto en las universidades como de los institutos y/u organizaciones dedicadas a formar a los expertos de este sector. Sin duda, la ética combinada con la experiencia serán los atributos en los servicios de TI para la región y para el mundo.
Por otro lado, en cada compañía se deberían tener lineamientos éticos en la práctica tecnológica, incluso contar con un Comité Ético que entregue las directrices para su ejecución. Cada colaborador debe tener claros los objetivos, la cultura de la organización en donde labora y los límites de hasta donde llegar con el uso y manejo de la información para mitigar posibles riesgos asociados.
La ética es, sin duda, ese conjunto de normas morales que aseguran que la IA esté centrada en el ser humano y que se respeten los derechos fundamentales y las regulaciones aplicables.
Por ende también el desarrollo de la IA demanda una regulación más exigente, porque aunque existen medidas a nivel internacional, es importante que en cada país se busque la forma de ‘localizarla’ o adaptarla a su propia realidad, que siempre estén en pro del bienestar de las personas. Poco a poco se va viendo que las normas van avanzando.
Para concluir, la Inteligencia Artificial requiere ser responsable, con normas claras y con la intervención asertiva de múltiples actores como la academia, la empresa y los colaboradores, que actúen éticamente con el manejo de la información y la creación de los algoritmos. Los seres humanos somos responsables de los resultados de las máquinas.
Por David Ricardo Montero, Technical Architect en Prodigious Latin America