En un interesante cambio de perspectiva sobre la inteligencia artificial, el periodista Scott Rosenberg insta en Axios a reevaluar nuestra comprensión del papel y las capacidades de la IA. La idea principal es la crucial influencia humana detrás de la IA, contrarrestando la narrativa común de su funcionalidad autónoma.
La IA, a menudo percibida como una entidad independiente, es en realidad una creación del ingenio humano. Sólo posee las capacidades y objetivos que sus desarrolladores le confieren. Esta constatación es vital, ya que hace recaer la responsabilidad de los impactos y errores de la IA directamente sobre sus creadores. Scott Rosenberg aboga por una transformación conceptual, animándonos a concebir la IA no como un robot, sino como una marioneta, guiada por manos humanas.
La complejidad de la programación de la IA y la naturaleza opaca de sus procesos de toma de decisiones dificultan a veces determinar el vínculo directo entre las intenciones de sus creadores y las acciones de la IA. Sin embargo, es imperativo reconocer que cada acción y decisión tomada por un sistema de IA se origina a partir de instrucciones y datos proporcionados por humanos.
Según Scott Rosenberg, se espera que en los próximos años, especialmente con importantes elecciones en perspectiva, se produzca un aumento de los contenidos sintéticos generados por IA. Este avance, aunque no es inherentemente problemático, alberga el potencial de amplificar la desinformación y erosionar la confianza pública. La responsabilidad, por tanto, no recae en la IA, sino en quienes la utilizan para tales fines.
La antropomorfización de la IA, es decir, la tendencia a atribuirle características humanas, no es nueva. Esta inclinación, conocida como efecto Eliza, se ha visto reforzada con los avances en IA, especialmente con herramientas como ChatGPT que imitan la conversación humana. Esto ha llevado a una proyección generalizada e incontrolada de la agencia humana en el software de IA.
Lo intrigante reside en la comodidad que esta antropomorfización ofrece a los desarrolladores de IA. Enmascara su limitada comprensión de los resultados de sus productos y desvía la atención de la necesidad de profundizar en el funcionamiento de la IA. Este fenómeno es paralelo al de otros debates tecnológicos, como el de las armas, en el que la atención se desplaza de la herramienta al usuario.
Sin embargo, muchos defensores de la IA destacan su potencial para el bien de la sociedad, por ejemplo en educación y sanidad. Argumentan que los beneficios de los avances de la IA no deberían verse obstaculizados por preocupaciones sobre su autonomía percibida.
En resumen, el debate sobre la IA, como escribe Scott Rosenberg en Axios, requiere alejarse de las percepciones místicas para llegar a una comprensión más fundamentada y clara. Es necesario reconocer el elemento humano en el núcleo de la IA, garantizando así la rendición de cuentas y el desarrollo responsable de esta tecnología transformadora.