Gigantes tecnológicos crean un foro para proteger el desarrollo de IA avanzada

Microsoft, Google, OpenAI y Anthropic fundan el Frontier Model Forum, un organismo especializado cuyo objetivo es establecer las mejores prácticas para la gestión y el desarrollo de modelos avanzados de IA.

En un anuncio publicado el 26 de julio en el sitio de Microsoft, los socios fundadores explican que la iniciativa surge de un compromiso compartido para garantizar que la tecnología de IA siga siendo segura y esté bajo control humano.

El Frontier Model Forum pretende aunar las capacidades técnicas y operativas de sus empresas afiliadas para hacer avanzar el sector de la IA de forma responsable y hacer frente a los retos que surjan. Este esfuerzo de colaboración incluirá iniciativas como el avance de las evaluaciones técnicas, el establecimiento de puntos de referencia y la creación de una biblioteca pública de soluciones para promover los estándares y las mejores prácticas del sector.

Últimamente, numerosas empresas han lanzado potentes herramientas de IA capaces de producir contenidos originales, como texto, imágenes o vídeos, aprovechando los recursos existentes. Estos saltos tecnológicos han suscitado preocupación por las posibles infracciones de la privacidad, las violaciones de los derechos de autor y la posibilidad de que la IA desplace a las funciones humanas.

La misión del Foro de Modelos Fronterizos se centra en fomentar el desarrollo responsable de la IA, identificar y promover las mejores prácticas de seguridad para los modelos de vanguardia, fomentar el intercambio de conocimientos con diversas partes interesadas y apoyar iniciativas que aprovechen la IA para abordar retos sociales acuciantes.

Pueden ser miembros las organizaciones que participan en la creación de modelos punteros, caracterizados como “modelos de aprendizaje automático a gran escala” que superan las capacidades de los modelos más avanzados existentes. Para dar forma a sus prioridades estratégicas, el foro creará un consejo asesor.

Esta evolución se produce en medio de una creciente demanda de regulación de la IA. La FTC investiga actualmente a OpenAI por posibles prácticas “desleales o engañosas” en materia de privacidad y seguridad de datos. Mientras tanto, una medida provisional de la Casa Blanca anima a las empresas tecnológicas a comprometerse voluntariamente con el “desarrollo y uso seguro y transparente de la tecnología de IA”. A pesar de estas medidas, algunos críticos sostienen que la autorregulación en la industria tecnológica a menudo se ha quedado corta y reclaman una intervención gubernamental más enérgica en aras del interés público.

Ilustración: captura del blog de Microsoft


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022