El G7 establece un foro para discutir la regulación y los estándares de la IA

Este acuerdo entre los países del G7 se produce después de una iniciativa de la UE para introducir legislación destinada a regular la IA. La legislación podría ser la primera ley de IA integral del mundo, sentando un precedente para que otros países la sigan.

Los líderes del Grupo de los Siete (G7) han enfatizado la necesidad de desarrollar y adoptar estándares técnicos internacionales para garantizar la confiabilidad de la Inteligencia Artificial (IA) en su reunión en Hiroshima esta semana. Los líderes de Estados Unidos, Japón, Alemania, Reino Unido, Francia, Italia y Canadá acordaron establecer un foro ministerial conocido como el proceso de Hiroshima IA. Este foro facilitará las discusiones sobre IA generativa y temas relacionados, y se espera que comience las deliberaciones a finales de este año.

Los líderes del G7 subrayaron que las regulaciones deberían alinearse con sus valores democráticos colectivos. En áreas como la IA y otras tecnologías emergentes, la gobernanza de la economía digital debería continuar actualizándose en línea con nuestros valores democráticos compartidos. Estos incluyen la equidad, la responsabilidad, la transparencia, la seguridad, la protección contra el acoso en línea, el odio y el abuso, y el respeto por la privacidad y los derechos humanos, las libertades fundamentales y la protección de los datos personales.

El G7 instó a organizaciones internacionales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) a realizar análisis exhaustivos sobre las implicaciones de la IA para el desarrollo de políticas. Este acuerdo entre los países del G7 se produce después de una iniciativa de la UE para introducir legislación destinada a regular la IA. La legislación podría ser la primera ley de IA integral del mundo, sentando un precedente para que otros países la sigan.

Las preocupaciones recientes sobre el uso generalizado y a veces no regulado de la IA se han amplificado con la introducción del ChatGPT de OpenAI el año pasado. Estas preocupaciones se intensificaron cuando figuras prominentes de la industria y expertos en IA pidieron una pausa de seis meses en el desarrollo de sistemas de IA avanzados, citando posibles riesgos para la sociedad. El mes pasado, el CEO de Google, Sundar Pichai, reconoció que Google no comprende completamente su propia IA generativa y pidió una mayor regulación.

El G7 publicó un comunicado de 40 páginas donde incluye sus recomendaciones sobre IA (punto 38, páginas 27 7 28).


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022