¿Puede la humanidad manejar la revolución de la IA de forma responsable?

La humanidad debe actuar con prudencia y urgencia para garantizar que la IA enriquezca nuestro futuro en lugar de amenazarlo, afirma Yuval Noah Harari en una entrevista. Aunque tiene un potencial transformador, su uso descontrolado plantea riesgos sin precedentes.

El rápido desarrollo de la inteligencia artificial (IA) presenta tanto enormes oportunidades como riesgos existenciales para la humanidad, advierte el célebre historiador, filósofo y escritor Yuval Noah Harari en una entrevista disponible en YouTube.

Harari aborda los principales retos y riesgos asociados a la inteligencia artificial (IA). Harari describe la IA como una herramienta que cambia las reglas del juego, con una capacidad única para la toma de decisiones y la ideación autónomas, a diferencia de cualquier otra herramienta que los humanos hayan desarrollado hasta ahora. Aunque la IA tiene un enorme potencial para catalizar el progreso en sectores que van desde la sanidad a las finanzas, también plantea peligros éticos, sociales e incluso existenciales sin precedentes.

Harari distingue la IA de las tecnologías tradicionales, argumentando que su capacidad para tomar decisiones de forma autónoma la sitúa en una categoría aparte. A diferencia de las armas nucleares, que requieren autorización humana para su uso, la IA puede emprender acciones -beneficiosas o catastróficas- por sí sola. Afirma que los sistemas de IA también pueden manifestar una ideación creativa, generando conceptos y soluciones mucho más allá de la imaginación humana.

Como ejemplo ilustrativo, cita la crisis financiera de 2007-2008, desencadenada por complejos instrumentos financieros que nadie comprendía. Otra área de preocupación resaltada es la mano de obra. A medida que la IA se utilice cada vez más en la industria, muchos empleos tradicionales podrían quedar obsoletos. Aunque se crearán nuevos puestos de trabajo, los retos logísticos que plantea el reciclaje de una mano de obra desplazada son inmensos. Los desequilibrios geográficos podrían agravarse, ya que las regiones centradas en la tecnología prosperarían mientras que otras se enfrentarían a un declive económico.

Además, la conversación ahondó en el lado oscuro de la IA, explorando cómo los actores maliciosos podrían convertirla en un arma para crear “falsos humanos” capaces de socavar la confianza social o, peor aún, desencadenar acontecimientos catastróficos. Para contrarrestar esto se necesitarán marcos normativos sólidos, similares a las medidas contra la falsificación de moneda, lo que subraya la necesidad de un enfoque disciplinado del desarrollo y el despliegue de la IA.

Además, Harari afirma que la IA puede difundir tanto contenidos como desinformación, aumentando los riesgos de división social y desconfianza. Sugiere que la IA no está constreñida por las limitaciones de la bioquímica orgánica, y puede moldear la cultura humana de una forma fundamentalmente diferente.

El debate concluye con un llamamiento al desarrollo responsable de la IA. Harari subraya la necesidad de un enfoque mesurado de la integración de la IA en la sociedad, dado su profundo potencial para influir -positiva o negativamente- en el tejido de la civilización humana. La responsabilidad, subrayan, recae en nosotros para dirigir esta potente tecnología en una dirección que mejore el bienestar humano al tiempo que mitiga sus numerosos riesgos.

Cabe destacar que Noah Harari firmó una carta abierta redactada por el Future of Life Institute y publicada en marzo. Junto a figuras notables como el cofundador de Apple, Steve Wozniak, el CEO de Stability AI, Emad Mostaque, y el magnate de la tecnología Elon Musk, Harari se unió a más de mil firmantes que pedían detener el avance de los potentes modelos de IA. La carta sostenía que no debemos dejar que estos modelos queden sin control, sobre todo teniendo en cuenta su potencial de uso indebido en ámbitos como la ciberdelincuencia, la suplantación de identidad y la difusión de desinformación.

La petición surgió como respuesta directa a los rápidos avances de la tecnología de IA, incluido el lanzamiento de modelos lingüísticos como ChatGPT, que para entonces sólo llevaba 4 meses en el mercado. Los peticionarios instaron a una moratoria de seis meses en la formación de sistemas de IA más potentes que el GPT-4. La pausa debía servir para realizar una evaluación exhaustiva e independiente y para trabajar en mecanismos de seguridad comunes supervisados por expertos independientes. La carta afirmaba rotundamente que nos encontramos en una encrucijada, presionando para que se tomen medidas inmediatas para mitigar los riesgos antes de que la tecnología supere nuestra sabiduría colectiva.

Ilustración: fotograma, YouTube


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022