ChatGPT, DALL-E y la clonación de voz por IA causan preocupación para las elecciones de 2024

La desinformación generada por IA es motivo de preocupación de cara a las futuras elecciones, y expertos advierten del potencial perjudicial de los vídeos deepfake y las grabaciones de audio falsas.

Es probable que las herramientas de IA potencien la desinformación de los electores y, por otra parte, la combatan. ChatGPT es un ejemplo. Paralelamente, el software de ElevenLabs puede clonar voces a partir de unos segundos de audio, y DALL-E 2, Stable Diffusion y Midjourney de OpenAI pueden generar imágenes fijas fotorrealistas. Runway, una startup, ha creado un software que produce videos de unos pocos segundos de duración.

Recientemente se publicó en Twitter una grabación de audio falsa del candidato a la alcaldía de Chicago, Paul Vallas, en la que parecía restar importancia a los excesos policiales del tipo “gatillo fácil”, abogando de paso por mayor financiamiento para la policía. La grabación, creada utilizando software de IA, fue rápidamente desmentida como falsa. Si bien no tuvo un impacto significativo en la contienda por la alcaldía, pone de relieve el potencial de la desinformación generada por IA en futuras elecciones.

Gary Marcus, profesor emérito de ciencia cognitiva en la Universidad de Nueva York y experto en inteligencia artificial, declaró a la revista Fortune que cree que la desinformación generada por IA dominará las próximas elecciones estadounidenses. “Deberíamos estar cagados de miedo” (sic) por la capacidad de la IA generativa para producir y difundir desinformación a un volumen y velocidad sin precedentes. Cree que, además, el hecho de que hablantes no nativos puedan ahora escribir textos fluidos en la mayoría de los idiomas con unas pocas pulsaciones de teclas, convierte a esta IA en una amenaza.

Pero no todos coinciden con la visión pavorosa que Marcus intenta presentar. Chris Meserole, miembro de la Brookings Institution que estudia los efectos de la Inteligencia Artificial y las tecnologías emergentes, afirma que en las pasadas elecciones presidenciales hubo tanta desinformación escrita por humanos que los nuevos modelos lingüísticos podrían no suponer una diferencia. “No creo que esto cambie por completo el juego y 2024 tendrá un aspecto considerablemente diferente a 2020 o 2016”, afirma.

Meserole también cree que la tecnología de vídeo deepfake no estará lista hasta 2024. Son más bien las clonaciones de vozque por ahora preocupan a Meserole, quien plantea como ejemplo un clip de audio de un candidato diciendo algo inapropiado en una reunión secreta, filtrado en un momento electoral crucial. “Quizás los asistentes a la reunión protesten por la autenticidad del clip, pero es difícil saberlo. Es probable que la desinformación de la IA afecte a las próximas elecciones”, concluyó.

Sandra Wachter, catedrática de tecnología y regulación del Instituto de Internet de Oxford, declaró a Fortune que los estudios muestran resultados inconsistentes  en el sentido de si las narrativas falsas persuaden o refuerzan las creencias actuales. Incluso influencias menores podrían decidir unas elecciones reñidas.

Paralelamente, hay quienes proponen que la inteligencia artificial puede combatir las noticias falsas generadas por máquinas. Newtral, una empresa española de comprobación de hechos políticos, está probando grandes modelos lingüísticos como ChatGPT. El director técnico de Newtral, Rubén Míguez Pérez, afirma que estos modelos pueden ayudar a las personas a detectar información falsa. “Claim matching” puede identificar el contenido que hace afirmaciones factuales y el contenido adicional que empuja la misma narrativa. Miguez Perez dice que los grandes modelos lingüísticos y otras tecnologías de aprendizaje automático pueden ayudar a determinar si el contenido es falso basándose en el sentimiento. Newtral afirma que puede identificar comentarios susceptibles de comprobación factual entre un 70% y un 80% más rápido utilizando estos métodos.

Meta y YouTube, en tanto, están desarrollando tecnologías de inteligencia artificial similares. Meta, propietaria de Facebook, dice haber publicado advertencias sobre más de 180 millones de contenidos refutados por verificadores de hechos de terceros antes de las elecciones presidenciales estadounidenses de 2020. La desinformación persiste y los modelos de inteligencia artificial tienen dificultades para reconocer los memes, que combinan texto y elementos visuales. Aunque Meta afirma que sus sistemas han mejorado desde las elecciones de 2020, quienes difunden falsas narrativas siempre están ideando nuevas versiones  gracias a la creciente capacidad de los modelos de IA.

Marcus sugiere una regulación lógica: los principales creadores de modelos lingüísticos deberían verse obligados a expedir “sellos de agua digitales” para ayudar a otros algoritmos a identificar la información creada por IA. OpenAI, creadores de ChatGPT, se ha interesado por la idea, aunque sin llevarla a la práctica. Su software gratuito de detección de contenidos creados por la IA funciona en alrededor de un tercio de los casos. Marcus también cree que los legisladores deberían ilegalizar la desinformación masiva. Cree que los legisladores nunca se imaginaron una tecnología que podría fabricar ilimitadas cantidades de mentiras creíbles con sólo pulsar un botón.

Ilustración: Imagen falsa del Papa Benedicto vistiendo una chaqueta del diseñador Balenciaga (vía Twitter)


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022