La Unión Europea (UE) es objeto de críticas por su próxima ley sobre inteligencia artificial (IA), ante la preocupación de que sus estrictas regulaciones puedan tener un impacto negativo en las startups de IA, sofocando potencialmente la innovación y la competitividad. DigitalEurope, un grupo de política tecnológica, ha expresado su profunda preocupación por la normativa propuesta, sobre todo en relación con la regulación de los modelos de fundación.
La ley de la UE sobre IA pretende clasificar los modelos de IA según su nivel de riesgo, desde “mínimo” a “inaceptable” y “alto riesgo”. Esta clasificación tendrá en cuenta el daño potencial que estos modelos podrían causar a las personas y a la sociedad. Las empresas emergentes que desarrollen modelos fundacionales de alto riesgo se enfrentarán a requisitos adicionales, como la presentación periódica de informes sobre la calidad de los datos y los algoritmos. Estos requisitos podrían aumentar los costes y ralentizar el desarrollo, obstaculizando potencialmente la innovación a largo plazo y la competencia con las empresas globales.
DigitalEurope subraya la necesidad de que Europa sea líder en innovación en IA, incluido el uso de modelos fundacionales y de IA de propósito general (GPAI). El grupo advierte contra el exceso de regulación de las nuevas empresas europeas de la industria digital, que podría conducir a su desaparición o a su reubicación fuera de Europa.
La declaración también destaca el escaso uso actual de la IA por parte de las empresas europeas y la baja proporción de unicornios de IA procedentes de la región. Restringir el uso de modelos fundacionales en virtud de la ley de IA podría reducir aún más las oportunidades para los nuevos participantes en el campo de la IA.
Las críticas a la ley de IA de la UE no son nuevas. La comunidad del código abierto en particular se ha hecho oír, con informes y documentos políticos de organizaciones como el grupo de reflexión Brookings, GitHub y Hugging Face que destacan cómo la Ley podría socavar el desarrollo de la IA de código abierto y los objetivos más amplios de la industria. Preocupa especialmente la interpretación de la investigación y las pruebas de modelos de IA como actividades comerciales, lo que conllevaría una regulación más estricta.
Entre los últimos avances se incluye un acuerdo conjunto de Francia, Alemania e Italia para apoyar la “autorregulación obligatoria” de los modelos de base y el establecimiento de códigos de conducta voluntarios. Este acuerdo ha sido acogido por DigitalEurope como un paso positivo para centrar la legislación sobre IA en las aplicaciones de alto riesgo, en lugar de en tecnologías específicas.
Ilustración: Diario TI vía Midjourney