
EFE Madrid |
La inteligencia artificial se ha integrado en la rutina de la desinformación de una forma cada vez más acelerada, donde los montajes y los «deepfakes» han pasado de ser excepcionales, casi humorísticos y fáciles de identificar, a integrarse en el flujo de actualidad con una apariencia cada vez más creíble e incluso capaces de alterar la percepción de la realidad.
Los datos recopilados por el Observatorio Europeo de Medios Digitales (EDMO) muestran una realidad evidente: los contenidos manipulados con inteligencia artificial (IA) para desinformar se han disparado de forma sostenida en los últimos meses. Una tendencia que también se aprecia en el trabajo de EFE Verifica.
Pero el cambio no es solo cuantitativo. La expansión de estas herramientas no solo facilita fabricar bulos cada vez más creíbles y adaptados a la actualidad, sino que también alimenta el nuevo fenómeno de acusar un vídeo o imagen de ser sintético para desacreditar pruebas auténticas.
Auge de la presencia en las verificaciones
La presencia de la IA en la desinformación ya no corresponde a casos aislados, los datos del EDMO muestran una subida progresiva de los contenidos sintéticos dentro del total de verificaciones de todos los miembros europeos, tendencia que va de la mano con EFE Verifica entre septiembre de 2025 y marzo de 2026.
Aunque la evolución no es completamente lineal, los datos muestran una tendencia común al alza.
El punto más alto se alcanza en marzo, cuando EFE Verifica registró un 34 % de verificaciones sobre contenidos sintéticos respecto al total de sus comprobaciones. En el conjunto de EDMO, esa proporción llegó al 20 %, el mayor porcentaje registrado en ambos casos.
Además, esta subida coincide con una sucesión de lanzamientos de modelos de imagen y vídeo más realistas y accesibles desde septiembre de 2025. En apenas meses se presentaron herramientas como Ray3, Sora 2, Veo 3.1, Firefly Image Model 5 o Nano Banana Pro, todas con mejoras en generación audiovisual. (1, 2, 3, 4, 5)
Estas herramientas permiten fabricar imágenes, vídeos o audios falsos y adaptarlos a casi cualquier conversación pública, aprovechando vacíos de información o manipulando hechos reales para transformar la narrativa.
Guerras, crisis políticas y escándalos
La IA se adapta con facilidad a los temas que ocupan la parrilla de actualidad en cualquier momento. Además de servir como propaganda, los eventos que acaparan el debate público son objeto del llamado «AI slop», contenidos sensacionalistas que buscan generar clics e interacciones y su principal fin es la monetización.
En las verificaciones de EFE Verifica entre septiembre de 2025 y abril de 2026, los contenidos sintéticos aparecen directamente vinculados a eventos que marcaron el debate público.
La guerra de Irán irrumpió con fuerza en marzo y se situó como el principal foco de narrativas desinformadoras con IA. Antes, la captura de Maduro ya había provocado en enero una ola de contenidos sintéticos, mientras que otros asuntos como el caso Epstein, la inmigración o los sucesos virales han concentrado materiales falsos desde septiembre.
El patrón es claro. La IA prende con más fuerza donde hay incertidumbre, tensión política, imágenes impactantes o poca información en los primeros momentos.
No toda la IA desinforma igual
Aún así, la desinformación con IA no responde a un único patrón. EFE Verifica ha analizado las verificaciones publicadas en marzo por los miembros de Iberifier en español —Newtral, Maldita, Verificat y EFE Verifica— y las ha clasificado por tipo de engaño.
Se han clasificado por contenidos creados desde cero, imágenes o vídeos reales manipulados, y materiales auténticos a los que se añade una capa falsa. Esto último incluye atribuciones engañosas, errores de chatbots o acusaciones sin pruebas de que un contenido real ha sido generado con IA.
Estos datos muestran que la IA se usa sobre todo para fabricar escenas falsas, pero también puede generar un escepticismo generalizado sobre pruebas auténticas.
Un ejemplo es la difusión de teorías sobre la supuesta muerte de Benjamin Netanyahu. En este caso, la sospecha sobre la inteligencia artificial no sirvió para detectar un engaño, sino para alimentar otro: desacreditar una prueba auténtica y avivar una narrativa falsa.
EFE Verifica ha detectado un total de 6 verificaciones de Iberifier (Observatorio Ibérico de Medios Digitales) en marzo en relación a contenidos reales acusados de ser IA, en los que encontramos las teorías conspirativas de la muerte de Netanyahu y el supuesto fraude de la misión de Artemis II a la Luna.
Una desinformación cada vez más visual
Los formatos visuales dominan las verificaciones sobre IA analizadas en marzo. El vídeo concentra más de la mitad de los casos, seguido de la imagen, mientras que los contenidos vinculados a chatbots o formatos mixtos tienen menos peso.
El vídeo predomina porque conserva una fuerza probatoria que no tienen otros formatos. Frente a una imagen fija o a un texto atribuido a un chatbot, una secuencia en movimiento suele percibirse como una prueba más completa de que algo ocurrió.
Varias investigaciones sobre ‘deepfakes’ sugieren que el contenido audiovisual suele generar más confianza que el verbal porque se aproxima más a la lógica de «ver para creer». La IA aprovecha esa confianza a base de escenas que parecen grabadas en directo como supuestas evidencias. (1, 2)
En este sentido, el impacto depende no solo del realismo de la escena, si no de que se pueda adaptar rápido a una crisis, conflicto o figuras públicas y que circulen como una prueba visual a un público vulnerable.
Fuentes
Observatorio Europeo de Medios Digitales (EDMO).
Análisis de las verificaciones publicadas en marzo de 2026 de los miembros de IBERIFIER en español.
Análisis de las verificaciones de EFE Verifica, entre septiembre de 2025 y abril de 2026.
Lanzamiento y actualizaciones de modelos de IA. (1, 2, 3, 4, 5)
Köbis, N. C. y otros, «People cannot detect deepfakes but think they can», 2021.
Wegmann D. y otros, «Is Seeing Believing? Evaluating Human Sensitivity to Synthetic Video», 2026.



Debe estar conectado para enviar un comentario.