Google advierte a sus empleados sobre los riesgos de usar Bard

Alphabet, la empresa matriz de Google, alerta a sus empleados sobre el envío de información confidencial a través de chatbots de IA, como Bard.

La agencia Reuters informa que Alphabet, la empresa matriz de Google, ha distribuido una notificación a sus empleados respecto al uso de chatbots de Inteligencia Artificial (IA), incluyendo a Bard. Específicamente, se les sugiere evitar subir todo tipo de información confidencial a Bard o a cualquier otro chatbot de IA.

La existencia del memo interno fue confirmada a Reuters por cuatro empleados de Google, que declinó referirse al tema.

Según se ha podido constatar, numerosos usuarios de ChatGPT, Bard u otros chatbots de IA no se detienen a pensar que las conversaciones que sostienen con estas plataformas no se limitan al chat en cuestión. Las empresas que operan en el sector de la IA suelen almacenar el contenido de estas conversaciones. Además, cuentan con personal humano autorizado a acceder y revisar los mensajes intercambiados entre los usuarios y los chatbots.

Este hecho puede suscitar serias preocupaciones en cuanto a la privacidad y la protección de los datos personales. Los usuarios de chatbots pueden no darse cuenta de que la información personal que comparten en estas plataformas puede ser accedida, revisada y potencialmente utilizada por terceros.

A esto se suma otro aspecto importante: los modelos de lenguaje de IA a menudo son entrenados utilizando los datos suministrados por los usuarios. El objetivo de este proceso es que el chatbot de IA ‘aprenda’ a mejorar su servicio al usuario. Sin embargo, este proceso también puede llevar a que los chatbots de IA compartan información proporcionada por un usuario en sus conversaciones con otros usuarios.

OpenAI informó en abril pasado que ChatGPT había implementado nuevas opciones de privacidad para los usuarios que deseen asegurarse de que sus datos no se utilizan para el entrenamiento de los algoritmos de la empresa. De esa forma, la empresa respondió a la preocupación por la exposición de información sensible durante el auge de la IA generativa.

OpenAI señaló que el nuevo modo impide que las consultas y respuestas se guarden en el historial de chat de un usuario, agregando que la información introducida no se utilizará para entrenar el sistema. Los usuarios pueden activar o desactivar esta función a través de una nueva opción en el menú de configuración (ver ilustración).

ChatGPT también permite a los usuarios exportar sus datos, junto con informarles qué datos está almacenando.

Aunque los datos del modo más privado no se utilizan para mejorar el chatbot, OpenAI seguirá conservando esta información durante un máximo de 30 días para investigar casos de uso indebido del sistema.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022