Google lanza SAIF: un nuevo marco para proteger la IA

Google ha lanzado un conjunto de recomendaciones en su nuevo marco, SAIF, para proteger los modelos de IA contra ciberataques.

Google presentó el 8 de junio un conjunto de recomendaciones para proteger los modelos de Inteligencia Artificial (IA) contra ciberataques. Este compendio de mejores prácticas se encuentra en una nueva guía técnica llamada Marco de Inteligencia Artificial Segura (SAIF, por sus siglas en inglés).

SAIF es una herramienta que Google define como esencial para garantizar que los avances tecnológicos en IA sean seguros de manera estándar. Según han señalado los ejecutivos de ciberseguridad de Google, Royal Hansen y Phil Venables en el blog se Google, este marco proporciona un apoyo crucial para prevenir el robo de código de las redes neuronales y sus conjuntos de datos de entrenamiento, además de ofrecer protección contra otros tipos de amenazas. En concreto, SAIF dificulta que los hackers manipulen los modelos de IA para generar resultados malintencionados.

Las mejores prácticas propuestas por Google se agrupan en seis categorías, cada una centrada en mejorar un aspecto diferente de la seguridad en IA. La primera hace hincapié en la importancia de extender los controles de ciberseguridad existentes en las empresas a sus sistemas de IA. Por ejemplo, Google sugiere que el software de depuración de entrada, utilizado para bloquear ataques de inyección SQL, puede ser también útil para filtrar indicaciones de IA maliciosas.

La segunda categoría se enfoca en la detección de amenazas, instando a las empresas a no sólo bloquear indicaciones maliciosas de IA, sino también a monitorizar activamente tales entradas. Por otra parte, Google recomienda implementar procedimientos para detectar resultados anómalos de IA.

El tercer grupo de mejores prácticas aborda la forma en que la IA puede ayudar a incrementar la productividad de los equipos de ciberseguridad. No obstante, Google también recuerda la necesidad de supervisión humana, ya que las herramientas de IA pueden generar resultados erróneos.

Las tres categorías restantes abordan otros aspectos de la seguridad en IA, como realizar un inventario de los sistemas de IA utilizados por los empleados y mapear los riesgos asociados. Google propone además estandarizar las herramientas utilizadas en la ciberseguridad, argumentando que un conjunto de herramientas consistente y generalizado mejora la productividad. Google concluye reafirmando su compromiso de seguir avanzando con SAIF, explorar métodos seguros para utilizar IA y trabajar en conjunto con gobiernos, la industria y entornos académicos para compartir ideas y lograr objetivos comunes.

Ilustración: capturas, blog de Google. Imagen compuesta vía Canva


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022