Ahora que la tecnología deepfake avanza rápidamente, las imágenes generadas por IA presentan tanto oportunidades sin precedentes como amenazas potenciales. Junto con reconocer las aplicaciones creativas y prácticas de esta poderosa herramienta, es crucial reconocer los riesgos y desarrollar estrategias para contrarrestar la desinformación y el uso indebido.
Las imágenes falsas generadas por IA han acaparado una gran atención últimamente debido a su creciente realismo y a su potencial de uso indebido. Un ejemplo de lo anterior es la foto viral del Papa Francisco con una chaqueta blanca de Balenciaga, creada por IA. Muchos usuarios de redes sociales creyeron que la imagen era real. Elon Musk, que usa Twitter como plataforma de sus extravagancias y caprichos, publicó durante el fin de semana una foto inspirada en la del Papa, tuiteando: “Acabo de tomar prestada la chaqueta de mi amigo wdyt (what do you think – qué te parece)”.
Todo payasadas hasta aquí. Sin embargo, la misma tecnología que puede poner al Papa en una chaqueta de diseñador puede ser explotada para crear fotos tendenciosas con fines de abuso y desinformación. Un ejemplo es la fotografía del ex presidente estadounidense Donald Trump, que se hizo viral al mismo tiempo que la del Papa. Esto último es políticamente sensible.
Las imágenes deepfake se crean utilizando algoritmos avanzados de aprendizaje automático, que suelen emplear redes generativas adversariales (GAN), que contraponen dos redes neuronales para generar imágenes de gran realismo. Esta tecnología presenta aspectos positivos y negativos:
Aspectos positivos:
- Aplicaciones creativas: La tecnología deepfake puede utilizarse para crear contenidos novedosos e imaginativos en diversos campos, como el arte, el entretenimiento, la publicidad y los juegos.
- Restauración y conservación histórica: Las imágenes generadas por IA pueden ayudar a restaurar fotografías dañadas o perdidas, reconstruir escenas históricas o incluso dar vida a personajes históricos.
- Educación y formación: Creación de simulaciones y escenarios realistas con fines educativos, como la formación médica o los simulacros de respuesta ante catástrofes.
Aspectos negativos:
- Desinformación y manipulación: El creciente realismo de las imágenes deepfake facilita la difusión de información engañosa y la manipulación de la opinión pública, lo que supone una amenaza para la democracia y la estabilidad social.
- Acoso y extorsión: Las imágenes generadas por la IA pueden utilizarse para crear contenidos comprometedores o perjudiciales en los que aparezcan personas sin su consentimiento, lo que puede provocar daños a la reputación, angustia emocional y violaciones de la privacidad.
- Preocupaciones legales y éticas: El uso de la tecnología deepfake plantea cuestiones sobre la propiedad intelectual, la privacidad, el consentimiento y la posibilidad de que las imágenes generadas por IA perpetúen estereotipos o prejuicios.
Cómo detectar deepfakes de imágenes y videos
Detectar deepfakes puede ser todo un reto debido a la creciente sofisticación de las imágenes y vídeos generados por IA. Sin embargo, varias técnicas pueden ayudar a identificar las deepfakes:
- Incoherencias visuales: Busque artefactos o incoherencias inusuales en la imagen o el vídeo, como expresiones faciales extrañas, movimientos antinaturales o una iluminación y unas sombras desajustadas.
- Incoherencias de audio: En los videos deepfake, el audio puede estar desincronizado con el vídeo, o la voz puede no coincidir con la persona que habla.
- Patrones de parpadeo: Los rostros generados por IA suelen tener patrones de parpadeo irregulares o no parpadear en absoluto, lo que puede ser un signo revelador de un deepfake.
- Calidad de imagen inconsistente: Un deepfake puede tener zonas con una calidad de imagen inferior, sobre todo alrededor del rostro o en las que la IA se ha esforzado por crear una fusión entre el contenido original y el manipulado.
- Análisis de metadatos: El análisis de los metadatos de un archivo de imagen o vídeo puede proporcionar pistas sobre su origen y sobre si ha sido manipulado.
- Búsqueda inversa de imágenes: Realice una búsqueda inversa de imágenes para encontrar otras instancias de la imagen en línea y compárelas con la presunta deepfake para ver si existen diferencias.
- Herramientas de detección de deepfakes basadas en IA: Varias empresas e investigadores están desarrollando herramientas de detección de deepfakes que utilizan algoritmos de aprendizaje automático para identificar incoherencias y artefactos en imágenes y vídeos generados por IA. Una simple búsqueda en Google presentará una lista, cada vez más nutrida, de empresas dedicadas a este nuevo nicho.
- Análisis de expertos: En los casos en los que resulte difícil determinar si una imagen o un vídeo es una deepfake, puede ser útil solicitar la opinión de un experto en análisis forense digital o de una organización de verificación de hechos acreditada.
- Compruebe la fuente de la imagen. Para el caso de fotografías, indague sobre su origen, quién la ha compartido y si coincide con acontecimientos comprobables. Visite la cuenta de la persona en las redes sociales para ver si simplemente está compartiendo una imagen o si es el autor o autora. Si la imagen ha sido publicada por una agencia de noticias, es mucho más probable que esta haya verificado la fuente.
Claro está, ningún método es infalible y que puede ser necesaria una combinación de estas técnicas para detectar con precisión las deepfakes. A medida que evoluciona la tecnología de las deepfakes, también deben hacerlo las herramientas y técnicas utilizadas para identificarlas y contrarrestarlas.
Las deepfake generadas por IA presentan un panorama complejo con aplicaciones tanto beneficiosas como perjudiciales. A medida que la tecnología sigue avanzando, es crucial establecer marcos reguladores, desarrollar métodos de detección y promover normas éticas para minimizar las consecuencias negativas y maximizar los beneficios potenciales de las imágenes generadas por IA.
Por Héctor Pizarro, redactor jefe, Diario TI