Samsung se ha enfrentado recientemente a múltiples incidentes de seguridad en su negocio de semiconductores con sede en Corea, relacionados con empleados que subieron código propietario a ChatGPT, escribe Economist Korea. Estos incidentes se produjeron poco después de que la empresa levantara una prohibición en toda la división sobre el uso del chatbot de IA. El 1 de mayo, Samsung alertó a su personal de una nueva prohibición de ChatGPT y herramientas similares.
Economist Korea informa que, a pesar de la advertencia de la empresa de no compartir información sensible en ChatGPT, dos empleados utilizaron la herramienta de IA para corregir errores de programación, mientras que otro subió una reunión grabada a través de una aplicación de asistente personal. En respuesta a la infracción, Samsung restringió las futuras subidas a ChatGPT a un máximo de 1.024 bytes. Una encuesta interna posterior reveló que el 65% de los encuestados de Samsung consideraban la IA generativa un riesgo para la seguridad. El memorando de la gerencia, dirigido a toda la plantilla, advertía de que las consecuencias de ignorar la prohibición podrían incluir el despido.
La publicación no especifica si los empleados de Samsung utilizaron la versión de pago de la API de ChatGPT, que según OpenAI no utiliza datos enviados para el conjunto de entrenamiento de la IA, o la versión gratuita que sí contribuye a su entrenamiento. Sin embargo, el citado memorando subrayaba que las violaciones de la política se producían automáticamente cuando los datos de la empresa salían del control de Samsung, sin hacer distinción entre las versiones de ChatGPT utilizadas.