Analista cuestiona viabilidad de la iniciativa de seguridad en IA de los gigantes tecnológicos

Una alianza entre los gigantes tecnológicos Microsoft, Google, OpenAI y Anthropic pretende mejorar la seguridad y la responsabilidad de la IA, pero una analista de Gartner cree que estos objetivos pueden ser inalcanzables.

Recientemente, los gigantes de la industria Microsoft, Google, OpenAI y Anthropic unieron fuerzas para formar una ambiciosa alianza destinada a reforzar la seguridad y la responsabilidad en materia de IA. Sin embargo, Avivah Litan, analista de Gartner, cree que estos objetivos tan ambiciosos pueden resultar un reto abrumador.

Este consorcio, conocido como Frontier Model Forum, se dedica al desarrollo seguro de “modelos fronterizos”. Estos modelos representan la cúspide de la tecnología de aprendizaje automático, superando en capacidad a los modelos líderes actuales.

El objetivo del Foro es determinar las mejores prácticas en IA, ayudar a empresas privadas, académicos y responsables políticos a aplicar protocolos de seguridad, aumentar la concienciación pública y aprovechar la IA para combatir problemas globales como el cambio climático.

Avivah Litan, distinguida vicepresidenta analista de Gartner, reconoce la importancia de esta iniciativa, pero se muestra escéptica sobre su posible éxito. Sostiene que la probabilidad de que estas empresas, que compiten entre sí, logren una solución de aplicación universal y garanticen su implantación global a través de modelos tanto propietarios como de código abierto es prácticamente inexistente.

Por el momento, el Foro está formado únicamente por sus socios fundadores. Sin embargo, está abierto a solicitudes de adhesión de organizaciones comprometidas con el desarrollo de modelos fronterizos seguros y que contribuyan a iniciativas más amplias del sector.

Entre los miembros que no formaban parte del grupo desde su creación destacan Meta, conocida por su modelo de IA “abierto” Llama 2, y AWS, que aboga por una IA “democratizada” y prefiere un enfoque amplio del acceso a los modelos.

OpenAI y Microsoft han disfrutado de un fructífero año de colaboración, produciendo el modelo líder del sector GPT-4 y 365 Copilot. Google, por su parte, ha invertido mucho en sus modelos, como PaLM 2, utilizado para su chatbot Bard. La filial de IA de Google, Google DeepMind, se ha comprometido públicamente con la seguridad de la IA bajo la dirección de su director ejecutivo, Demis Hassabis, defensor desde hace tiempo de una tecnología ética.

Anthropic, aunque aparece con menos frecuencia en los titulares que sus cofundadores, ha tenido un impacto significativo en la industria desde su creación por antiguos miembros de OpenAI en 2021. Anthropic afirma que su chatbot, Claude, es más seguro que otras opciones, lo que demuestra un enfoque de mercado cauteloso que lo distingue de sus competidores.

Litan se muestra optimista ante la posibilidad de que estas empresas trabajen en pro de soluciones gubernamentales vinculantes y subraya la necesidad de un organismo rector mundial que defienda las normas de la IA. Sin embargo, señala que la creación de un organismo de este tipo es difícil, y cita como ejemplo la falta de cooperación internacional en la lucha contra el cambio climático.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022