La reciente decisión de Meta de disolver su equipo de IA Responsable (RAI) ha causado inquietud en la comunidad tecnológica, según The Information. La medida consiste en redistribuir a los miembros del equipo en varios departamentos de Meta, como el equipo de productos de IA generativa y los proyectos de infraestructura de IA. La reorganización forma parte de la estrategia de Meta de incorporar consideraciones éticas de IA directamente a sus equipos de desarrollo de productos.
Sin embargo, la decisión ha suscitado dudas sobre el compromiso de la empresa con la seguridad y la ética en materia de IA. Anteriormente, el equipo RAI desempeñó un papel decisivo en el perfeccionamiento de las prácticas de entrenamiento de IA de Meta. Su disolución, tras una reestructuración que ya debilitaba al equipo, sugiere un cambio significativo en el enfoque de Meta sobre el desarrollo responsable de la IA.
La decisión del gigante tecnológico llega en un momento en que se intensifica el debate mundial sobre la seguridad y la ética de la IA. Cuestiones como la pérdida de puestos de trabajo relacionada con la IA, el uso de la IA para desinformar y el potencial de sesgo discriminatorio están en primera línea de los debates entre legisladores y reguladores de la UE y EE.UU.. En respuesta, las principales empresas tecnológicas han tomado la iniciativa para abordar estas preocupaciones, y varias de ellas han formado una coalición para establecer normas de seguridad de la IA.
La decisión de Meta de centrarse más en el desarrollo de IA generativa, posiblemente para seguir el ritmo de competidores como Microsoft y Google, parece restar prioridad a sus principios previamente declarados de IA responsable, que incluyen transparencia, seguridad, privacidad y responsabilidad. Jon Carvill, director senior de comunicaciones de Meta para la IA, ha declarado que la empresa seguirá dando prioridad al desarrollo seguro y responsable de la IA a pesar de estos cambios.
En un contexto más amplio, otros gigantes tecnológicos han adoptado medidas similares. Empresas como X (antes Twitter) y Microsoft también han reducido los recursos dedicados al desarrollo ético de la IA. Esta tendencia, combinada con el historial de enfrentamientos que Meta ha librado con las autoridades reguladoras, sugiere un enfoque potencialmente arriesgado a la hora de priorizar la innovación sobre la seguridad en el desarrollo de la IA.