El 30 de mayo, la Comisión Europea presentó directrices internas para su personal sobre el uso e interacción con modelos de Inteligencia Artificial (IA) generativa en línea, como ChatGPT, Bard y Stable Diffusion. Según estas directrices, publicadas en el sistema de información interna de la Comisión y vistas por EURACTIV, el objetivo es ayudar al personal a comprender y gestionar los riesgos y limitaciones que estas herramientas pueden presentar.
Estos modelos de IA generativa, que producen contenido a partir de indicaciones del usuario, pueden potenciar la eficiencia y mejorar la calidad del trabajo de oficina, facilitando la redacción de informes y el desarrollo de código informático. Sin embargo, la entidad recalca que su uso también debe ser regulado y condicionado.
El documento señala que las directrices son específicas para herramientas de terceros y no se aplican necesariamente a las herramientas internas de IA generativa desarrolladas por la Comisión, las cuales se evaluarán individualmente bajo la gobernanza corporativa existente para los sistemas de TI.
Además, las directrices serán actualizadas constantemente en función de los avances tecnológicos y las futuras intervenciones regulatorias, como la próxima Ley de IA de la UE.
El documento advierte sobre varios riesgos. El primero es la divulgación de información sensible o datos personales, ya que cualquier información introducida en un modelo de IA generativa en línea se transmite al proveedor de IA. Por tanto, se prohíbe a los miembros del personal de la UE compartir información que no sea de dominio público o datos personales con estas herramientas.
Otro riesgo es la posibilidad de obtener respuestas erróneas o sesgadas debido a un conjunto de datos incompleto o al diseño del algoritmo, aspectos sobre los que los desarrolladores de IA no siempre son transparentes.
Según EURACTIV, el documento también menciona el riesgo de infracción de los derechos de Propiedad Intelectual, en particular los derechos de autor, ya que los contenidos protegidos pueden ser utilizados para entrenar a los modelos de IA.
Finalmente, las directrices recuerdan que los modelos de IA generativa pueden tener un tiempo de respuesta largo o no estar siempre disponibles, por lo que se prohíbe al personal de la Comisión depender de estas herramientas para tareas críticas y urgentes.