10 de mayo de 2026

Deepfakes: cómo detectar vídeos, voces e imágenes falsas generadas con IA

Representación de la detección de deepfakes mostrando un rostro dividido entre real y digital con un escáner de verificación

Ves un vídeo de un político diciendo algo escandaloso. Suena como él, se mueve como él, el fondo parece real. Pero nunca lo dijo. Es un deepfake: un contenido audiovisual generado o manipulado con inteligencia artificial para que parezca auténtico. Y en 2026, con herramientas como Kling 3.0, Veo 3 de Google o los generadores de vídeo e imagen de Freepik, crear uno convincente está al alcance de cualquiera con un portátil y 15 minutos.

Después de analizar decenas de deepfakes virales —desde vídeos de políticos hasta estafas con voces clonadas de familiares pidiendo dinero— he comprobado que la tecnología ha avanzado hasta el punto donde la detección visual a simple vista ya no es fiable. La mejor defensa no es tecnológica sino cognitiva: verificar la fuente antes de creer el contenido.

Un deepfake utiliza redes neuronales (normalmente autoencoders o modelos de difusión) para reemplazar el rostro de una persona en vídeo, clonar una voz a partir de segundos de audio real, o generar imágenes fotorrealistas de personas que no existen. El volumen de deepfakes creció un 245% en 2024 según datos de Sumsub, y las pérdidas por fraudes relacionados podrían alcanzar los 40.000 millones de dólares anuales en 2027 según Deloitte. Es un problema real y en expansión.

Las señales que delatan un deepfake de vídeo

Parpadeo irregular. Las primeras generaciones de deepfakes no replicaban bien el parpadeo natural. Los modelos actuales lo han corregido, pero en vídeos de baja calidad sigue siendo un indicador útil.

Bordes del rostro. Busca inconsistencias donde el rostro se encuentra con el cuello, las orejas o el pelo. Los deepfakes a veces muestran un «halo» borroso o un cambio sutil de tono de piel en la línea de la mandíbula.

Dientes, orejas y manos. Los detalles finos siguen siendo difíciles de replicar. Dientes demasiado uniformes, orejas asimétricas o manos con dedos extraños pueden delatar una manipulación.

Iluminación inconsistente. Si la luz sobre el rostro no coincide con la del entorno (sombras en dirección opuesta, reflejos ausentes en gafas o joyas), algo no cuadra.

Audio desincronizado. En deepfakes con voz clonada puede haber ligera desincronización entre el movimiento labial y el audio. Reproduce a velocidad 0.5x para detectarlo.

Deepfakes de voz: la amenaza que crece más rápido

Clonar una voz requiere tan poco como 3 segundos de audio original. Con eso, un modelo genera frases completas que suenan exactamente como la persona real. Esto ya se usa en estafas de suplantación de directivos donde alguien «llama» al departamento financiero simulando ser el CEO. En 2024, una empresa de Hong Kong perdió 25 millones de dólares en una estafa con vídeo deepfake en tiempo real.

La defensa personal: si recibes una llamada o nota de voz pidiendo dinero, datos o acciones urgentes, verifica por otro canal. Llama tú a la persona por su número conocido. La urgencia extrema es siempre la señal de alarma más fiable. Es una variante más sofisticada del phishing clásico, pero con audio que engaña al oído.

Herramientas para verificar contenido sospechoso

Microsoft Video Authenticator analiza vídeos frame a frame buscando manipulaciones. Sensity AI, utilizada por gobiernos de todo el mundo, emplea modelos de aprendizaje profundo para escanear grandes volúmenes de contenido. Google SynthID marca las imágenes generadas con IA con una marca de agua invisible. En 2026, plataformas como TruthScan permiten verificar imágenes, vídeo, audio y texto desde un mismo panel con detección en tiempo real. Pero ninguna herramienta es infalible.

La mejor defensa sigue siendo el pensamiento crítico: ¿esta fuente es fiable? ¿Quién publicó esto y por qué? ¿Lo ha confirmado algún medio verificado? En un mundo donde las actualizaciones de software son críticas para la seguridad, mantenerse informado es igual de importante.

Mi valoración

Los deepfakes son la evolución natural de la desinformación en la era de la IA generativa. En 2026 ya no puedes confiar en lo que ves o escuchas solo porque «parece real». La regla de oro que aplico personalmente: cuanto más escandaloso es un contenido, más necesita verificación. Si un vídeo te genera indignación inmediata, detente antes de compartirlo. La indignación es el combustible de la viralización, y los creadores de deepfakes lo saben. Verificar antes de reaccionar ya no es prudencia: es higiene informativa básica.

Preguntas frecuentes

¿Los deepfakes son ilegales?

Depende del uso y la jurisdicción. Fines artísticos, educativos o de parodia no son ilegales en la mayoría de países. Fraude, difamación, contenido sexual sin consentimiento o manipulación electoral sí lo son. La regulación europea (AI Act, en vigor desde 2025) exige etiquetar el contenido generado con IA, con sanciones de hasta el 3% de la facturación global. En España, los deepfakes sexuales sin consentimiento están tipificados como delito desde la reforma del Código Penal de 2023.

¿Cómo protegerme de las estafas con voz clonada?

Establece una «palabra de seguridad» con tu familia: una palabra que solo vosotros conozcáis para verificar la identidad en llamadas urgentes. Parece rudimentario, pero es la defensa más efectiva. Si alguien te llama simulando ser un familiar y pidiendo dinero urgentemente, pide la palabra de seguridad. Un deepfake no la conoce.

¿Las fotos de perfil de redes sociales pueden ser deepfakes?

Sí, y es cada vez más común. Sitios como thispersondoesnotexist.com generan rostros de personas que no existen. Se usan en perfiles falsos, estafas románticas y campañas de desinformación. Señales: fondo borroso o inconsistente, accesorios asimétricos, y la búsqueda inversa en Google Images no devuelve resultados.


La noticia Deepfakes: cómo detectar vídeos, voces e imágenes falsas generadas con IA fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.


☞ El artículo completo original de Juan Diego Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario