El gobierno británico dio inicio el 1° de noviembre a una cumbre mundial sobre la seguridad de la IA, que ha congregado a influyentes líderes políticos y tecnológicos con el fin de debatir sobre los riesgos asociados a la inteligencia artificial. La cumbre busca abordar tanto las amenazas percibidas como las reales mediante esfuerzos coordinados a nivel internacional. Un punto clave para las empresas es obtener claridad sobre cómo desarrollar con seguridad soluciones empresariales de IA en el contexto de los riesgos de seguridad nacionales e internacionales más amplios.
Según un comunicado de prensa de los organizadores, la cumbre explorará cinco prioridades empresariales clave:
1. Riesgo de litigio: La cumbre reconoce la preocupación de las empresas por el hecho de que los datos de su propiedad se hagan públicos inadvertidamente o se utilicen para entrenar modelos lingüísticos de gran tamaño (LLM). Hace hincapié en la necesidad de claridad sobre el uso aceptable, la propiedad de los datos y las leyes de responsabilidad, así como en la importancia de la higiene y la segregación de los datos.
2. Riesgos para la privacidad de los datos: Los debates destacarán la importancia de la privacidad de los datos en aplicaciones de IA como la IA generativa y el reconocimiento facial, señalando que las infracciones pueden conllevar consecuencias legales y dañar la reputación de una empresa. La cumbre observará que la regulación y la aplicación de la IA son fundamentales para garantizar el cumplimiento de las leyes de privacidad de datos.
3. Regulación transfronteriza: El fragmentado panorama normativo mundial plantea retos a las empresas que utilizan IA generativa. La cumbre busca ofrecer orientación a las empresas internacionales sobre cómo mantenerse ágiles mientras esperan una dirección legislativa clara de actores clave como la UE, EE.UU. y China.
4. Ciberriesgo de la IA: La cumbre reconoce que, aunque la IA puede utilizarse para automatizar y ampliar los ciberataques, también puede formar parte de la solución de ciberseguridad. Hace hincapié en que la integración de la IA puede mejorar la detección de vulnerabilidades y amenazas, y subsanar las carencias de competencias en los equipos de ciberseguridad.
5. Riesgo medioambiental: La cumbre llama la atención sobre los costes medioambientales de la formación de modelos de IA y el potencial de sesgo algorítmico, e insta a las empresas a establecer equipos de IA y ética para garantizar el cumplimiento de las normas éticas corporativas.
Por último, la cumbre busca aportar mayor claridad a los compromisos normativos exigidos a las empresas que trabajan en IA.
Ilustración: Diario TI vía Midjourney