Califican de “reacción exagerada” la prohibición de ChatGPT en Italia

Con su prohibición, Italia se une a países como Rusia, Irán y Corea del Norte, que prohíben el ChatGPT como parte de una censura más general de Internet.

La decisión de los reguladores italianos de prohibir el acceso a ChatGPT ha suscitado las críticas de los expertos del sector, que la tachan de obstáculo a la innovación y distracción de las preocupaciones legítimas en torno a la IA y la privacidad.

Las autoridades italianas prohibieron el acceso a ChatGPT a finales de marzo. Consideraron que el grado en que la tecnología recopila datos con fines de entrenamiento algorítmico carecía de base legal.

La falta de verificación de la edad integrada en la tecnología, que podría proteger a los usuarios menores de edad de contenidos inapropiados, también se destacó como un problema clave.

La autoridad italiana de protección de datos, Garante per la protezione dei dati personali, emitió una decisión el 31 de marzo en la que declaraba que suspendería temporalmente el tratamiento de datos de usuarios italianos por parte de OpenAI.

OpenAI ha restringido el acceso a ChatGPT en Italia mientras trabaja con Garante para llegar a un acuerdo.

Quienes adquirieron suscripciones ChatGPT Plus en marzo recibirán un reembolso, y todos los suscriptores de la región han visto pausados sus pagos recurrentes.

La prohibición suscitó un debate entre expertos legales y de IA que han cuestionado la legitimidad y la sensatez de la decisión.

La autoridad italiana también pidió a OpenAI que notificara las medidas aplicadas para cumplir su resolución o se enfrentaría a una multa de hasta 20 millones de euros (21 millones de dólares) o el 4% de la facturación anual mundial de la empresa.

Al convertirse en el primer país europeo que prohíbe el acceso a ChatGPT, Italia ha sentado un precedente que otros países podrían seguir. Mientras dure la prohibición, se ha unido a países como Rusia, Irán y Corea del Norte, que prohíben ChatGPT como parte de una censura más amplia de Internet. OpenAI tiene sus servicios geobloqueados en China, lo que significa que las empresas y los consumidores no pueden acceder a ChatGPT y DALL-E en la región.

Empresas nacionales como Baidu han presentado chatbots alternativos, pero hasta ahora ninguno ha demostrado capacidades a la altura del GPT-4 de OpenAI.

Reuters informó de que la Comisión de Protección de Datos irlandesa (DPC) y la Comisión Nacional de Informática y Libertades francesa (CNIL) están en conversaciones con sus homólogos italianos para establecer las bases de la decisión.

Si las conversaciones resultan convincentes, los organismos reguladores de toda la UE podrían exigir pronto a OpenAI nuevos compromisos en materia de privacidad.

En la actualidad, los modelos de IA funcionan en gran medida según el principio de “caja negra”, en el que los usuarios o incluso los socios comerciales tienen poca o ninguna supervisión de los datos utilizados para entrenar los modelos, o de qué datos se procesan para mejorarlos. En un futuro próximo, las empresas de IA podrían verse obligadas a arrojar más luz sobre sus actividades de raspado, procesamiento y entrenamiento de datos.

Un reciente panel de expertos señaló que es necesaria una mayor transparencia de la IA para evitar futuras penalizaciones reglamentarias, y este debate no hará sino intensificarse en los próximos años.

Andy Patel, investigador de WithSecure, calificó la resolución de “reacción exagerada” y advirtió de que podría poner a Italia en desventaja a la hora de desarrollar la IA. A Future Publishing, Patel dijo: “ChatGPT es una herramienta útil que permite la creatividad y la productividad – al cerrarla, Italia ha cortado quizás la herramienta más importante disponible para nuestra generación. Todas las empresas tienen preocupaciones en materia de seguridad y, por supuesto, se debe instruir a los empleados para que no proporcionen a ChatGPT y sistemas similares datos sensibles de la empresa. Tales políticas deberían ser controladas por las organizaciones individuales y no por el país anfitrión. Más bien, deberíamos buscar una mayor apertura en torno a qué datos se recopilan, cómo se recopilan y cómo se entrenan los modelos.”


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022