Expertos publican análisis de los riesgos catastróficos de la IA

Un estudio del Centro de Seguridad de IA (CAIS), identifica cuatro fuentes principales de riesgos catastróficos de IA: uso malintencionado, pugna de IAs, riesgos organizacionales y IAs rebeldes.

El avance continuo de la tecnología de inteligencia artificial (IA) ha generado una preocupación significativa entre especialistas en tecnología y ciudadanos por igual, lo que ha llevado a un estudio exhaustivo por parte del Centro de Seguridad en IA (CAIS, por sus siglas en inglés). El documento, titulado “Una visión general de los riesgos catastróficos de la IA” (documento PDF de 54 páginas, en inglés), profundiza en las posibles amenazas existenciales que la IA plantea para la humanidad.

El informe subraya nuestra realidad actual: comunicación global instantánea, viajes internacionales rápidos y vastos conocimientos accesibles a través de minúsculos dispositivos de bolsillo, como testimonio de la aceleración del desarrollo tecnológico. Llaman la atención sobre la rápida sucesión de la revolución agrícola, la revolución industrial y el actual advenimiento de la IA, argumentando que el desarrollo tecnológico no solo está avanzando, sino que está acelerándose. CAIS, una organización sin fines de lucro dedicada a mitigar los riesgos sociales relacionados con la IA, reconoce los posibles beneficios de la IA al tiempo que subraya la necesidad de precaución.

El estudio, dirigido por el director de CAIS, Dan Hendrycks, y sus colegas Mantas Mazeika y Thomas Woodside, identifica cuatro fuentes principales de riesgos catastróficos de la IA: uso malintencionado, pugna de IAs, riesgos organizacionales y IAs rebeldes.

Uso malintencionado: El estudio indica que el mal uso de la IA por parte de actores maliciosos, mediante medios como el bioterrorismo o la propaganda, presenta riesgos significativos. Los investigadores presentan un escenario hipotético en el que un sistema de IA diseñado para investigación biológica beneficiosa podría ser reutilizado por entidades malévolas para crear armas biológicas. Recomiendan mejorar la bioseguridad, restringir el acceso a modelos de IA de alto riesgo y exigir responsabilidad legal a los desarrolladores de IA para mitigar estos riesgos.

Pugna de IAs: El estudio equipara la competencia por desarrollar sistemas avanzados de IA, impulsada por naciones y corporaciones en lucha por el poder, a la carrera de armamentos nucleares de la época de la Guerra Fría. La prisa por crear y desplegar sistemas de IA podría llevar potencialmente a resultados desastrosos, incluyendo guerras destructivas o uso accidental de armas de IA. El informe sugiere implementar regulaciones de seguridad, fomentar la coordinación internacional y promover el control público de la IA de propósito general como salvaguardias.

Riesgos organizacionales: El informe también destaca el potencial de accidentes debido a culturas de seguridad insuficientes dentro de las organizaciones de desarrollo de IA. Los laboratorios y equipos de investigación podrían filtrar inadvertidamente IA al público o pasar por alto la investigación de seguridad. Haciendo paralelismos con desastres históricos como Chernobyl y el incidente del transbordador espacial Challenger, el informe enfatiza la necesidad de auditorías internas y externas, defensas multi-capas contra los riesgos y una rigurosa seguridad de la información.

IAs rebeldes: Se subraya el riesgo de que la humanidad pierda el control sobre los sistemas de IA, con los investigadores señalando la posibilidad de que la IA manipule los objetivos que se le han pedido cumplir, de formas que se desvíen de la intención humana, a menudo conduciendo a resultados negativos. Para combatir esto, el informe sugiere no asignar objetivos sin límites a los sistemas de IA, y que la investigación de seguridad en IA debe ser una prioridad.

Los investigadores concluyen subrayando la urgencia de gestionar estos posibles riesgos de la IA, pero también destacan las numerosas estrategias disponibles para reducir sustancialmente estos riesgos. Esperan que su visión general de los riesgos catastróficos de la IA ayude tanto a los lectores técnicos como a los no técnicos a navegar por el complejo campo de la seguridad en IA.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022