Un estudio reciente publicado en la revista Nature Neuroscience describe el nuevo sistema llamado decodificador semántico, que utiliza un modelo transformador similar al que emplean Open AI’s ChatGPT y Google’s Bard.
A diferencia de otros sistemas similares, esta técnica no requiere implantes quirúrgicos. La actividad cerebral se mide utilizando un escáner fMRI tras un entrenamiento exhaustivo del decodificador; luego, los participantes escuchan una nueva historia o imaginan contarla para que la máquina genere texto correspondiente solo a partir de la actividad cerebral.
La inteligencia artificial (IA) permite a los investigadores interpretar los pensamientos humanos, y esta tecnología está generando preocupaciones sobre la privacidad. El nuevo sistema puede traducir la actividad cerebral de una persona mientras escucha una historia en un flujo continuo de texto. Está diseñado para ayudar a las personas que no pueden hablar, como aquellas afectadas por derrames cerebrales, a comunicarse. Sin embargo, hay preocupaciones de que las mismas técnicas podrían usarse algún día para invadir nuestros pensamientos.
“El momento de pensar en cómo proteger adecuadamente la privacidad mental es ahora”, dijo Jennifer Miller, profesora que estudia ética y medicina en la Facultad de Medicina de Yale. “Es mejor diseñar protecciones de privacidad en una tecnología desde el principio y no como una ocurrencia tardía”.
“A pesar de las prometedoras investigaciones, nadie leerá tus pensamientos pronto”, dijo David Bader, director del Instituto de Ciencias de Datos del Instituto Tecnológico de Nueva Jersey.
Algunos expertos señalan que no es demasiado pronto para comenzar a pensar en cómo podría avanzar la tecnología de decodificación cerebral y en formas de proteger los pensamientos humanos. Thomas P. Keenan, profesor de la Universidad de Calgary, dijo que estas técnicas “plantean una amenaza existencial a algo que nunca nos preocupó: nuestra privacidad cerebral”.