Expertos en IA solicitan abordar sus riesgos potenciales con urgencia equivalente a pandemias y guerra nuclear

Una coalición de más de 375 científicos, académicos y líderes empresariales firmaron una declaración que advierte sobre los profundos riesgos del mal uso de la inteligencia artificial.

Una coalición conformada por líderes en el campo de la inteligencia artificial (IA) ha publicado una declaración pública en la que alertan sobre lo que denominan ‘riesgos de magnitud social’ derivados del mal uso de esta tecnología. Este pronunciamiento, firmado por más de 375 científicos informáticos, académicos y directivos empresariales, hace un llamado a abordar los problemas potenciales de la IA con el mismo nivel de urgencia que se tratarían amenazas como las pandemias o la guerra nuclear. “Debería ser una prioridad global mitigar el riesgo de extinción de la humanidad por la IA, al igual que otros riesgos de magnitud social”, expone la declaración del Centro para la Seguridad en IA, una entidad sin fines de lucro comprometida con minimizar los riesgos asociados a esta tecnología.

Esta declaración culmina una serie de llamamientos recientes que piden implementar alguna forma de regulación gubernamental sobre los modelos de IA, con el objetivo de prevenir su mal uso y la generación de consecuencias negativas no deseadas. A principios de este mes, Sam Altman de OpenAI LLC, instó al Subcomité de Justicia del Senado de los Estados Unidos a considerar la aplicación de requisitos de licencia o registro sobre los modelos de IA. Asimismo, propuso que las empresas que los desarrollan debieran cumplir con un conjunto adecuado de requisitos de seguridad, incluyendo la realización de pruebas internas y externas antes de su implementación y la publicación de los resultados de dichas evaluaciones.

Por su parte, Microsoft solicitó la semana pasada la instauración de un conjunto de regulaciones para los sistemas empleados en infraestructuras críticas, así como la ampliación de las leyes que esclarezcan las obligaciones legales de los modelos de IA. Asimismo, abogó por el uso de etiquetas que hagan evidente cuando una computadora ha generado una imagen o un video.

El Centro para la Seguridad de la Inteligencia Artificial ha identificado ocho riesgos principales inherentes al uso de la IA. A medida que la IA se vuelve más avanzada, puede eventualmente representar riesgos catastróficos o existenciales.

  1. Militarización: Los actores malintencionados podrían redirigir la IA con el fin de hacerla altamente destructiva, lo que representa un riesgo existencial en sí mismo y aumenta la probabilidad de desestabilización política.
  2. Desinformación: Un aluvión de desinformación generada por la IA, sumado a contenidos altamente persuasivos, podrían hacer que la sociedad esté menos preparada para manejar desafíos contemporáneos importantes.
  3. Manipulación de Proxy: Los sistemas de IA entrenados con objetivos divergentes podrían encontrar formas novedosas de perseguir sus propias metas a expensas de los valores individuales y sociales.
  4. Debilitamiento: Este puede ocurrir si se delegan tareas importantes a las máquinas; en esta situación, la humanidad pierde la capacidad de autogobernarse y se vuelve completamente dependiente de las máquinas.
  5. Cierre de Valores: Los sistemas altamente competentes podrían dar a pequeños grupos de personas una enorme cantidad de poder, lo que conduciría a un bloqueo de sistemas opresivos.
  6. Metas Emergentes: Los modelos demuestran comportamientos inesperados, cualitativamente diferentes, a medida que se vuelven más competentes. La repentina aparición de capacidades o metas podría aumentar el riesgo de que las personas pierdan el control sobre los sistemas avanzados de IA.
  7. Engaño: Queremos entender qué están haciendo los sistemas de IA poderosos y por qué están haciendo lo que están haciendo. Una forma de lograrlo es tener a los sistemas mismos reportando con precisión esta información.
  8. Comportamiento en Busca de Poder: Las empresas y los gobiernos tienen fuertes incentivos económicos para crear agentes que puedan lograr un amplio conjunto de metas. Estos agentes tienen incentivos instrumentales para adquirir poder, lo que potencialmente los hace más difíciles de controlar.

Entre las figuras destacadas que firmaron la declaración se incluyen Sam Altman y el cofundador de OpenAI, Ilya Sutskever. Asimismo, la suscribieron personalidades como Demis Hassabis, CEO de DeepMind, propiedad de Google LLC; Kevin Scott, Director Tecnológico de Microsoft; Bruce Schneier, experto en ciberseguridad; los cofundadores de Anthropic PBC, una empresa pionera en la seguridad de la IA; y Geoffrey Hinton, galardonado con el Premio Turing, quien recientemente abandonó Google debido a sus preocupaciones sobre el potencial mal uso de la IA.

Ilustración generada vía DALL-E


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022