Ahora Gemini nos dice si un vídeo es falso: así funciona su detector secreto de IA

El increíble avance de la IA ha provocado que distinguir entre un vídeo generado por inteligencia artificial de uno real sea cada vez más difícil. Google lo sabe, y por ello ha añadido una función perfecta para Gemini, que se ha convertido en un verificador perfecto para vídeos que levanten sospechas.

Ahora actúa como un detector de este tipo de vídeos, capaz de analizarlos y decirnos si han pasado por alguno de sus propios modelos de IA. Una idea simple pero muy efectiva. Todo pasa por subir un archivo y preguntarle mediante el prompt más simple: ¿ha sido generado por IA?.

A partir de aquí, la app de IA examina la imagen y el sonido en busca de una marca de agua invisible que muchos ya conoceréis: SynthID. Esta se incrusta en los datos del vídeo y está pensada para sobrevivir a modificaciones como el reescalado o la compresión. De hecho, Gemini es capaz de señalar el momento exacto en que detecta esa huella. Un instrumento que puede ser muy efectivo para los usuarios, pero del que también hemos de analizar matices.

Cómo funciona la verificación de Gemini

Lo primero es saber qué tipo de vídeos puede analizar Gemini. Y en concreto, puede hacerlo de vídeos de hasta 100 MB de peso y un máximo de 90 segundos de duración. Tanto para la versión de móvil como para el escritorio. Nosotros solo debemos subir el vídeo a la plataforma y hacerle una pregunta relativa a su originalidad:

«¿Ha sido creado por IA?»

De esta manera, el modelo comienza a analizar las pistas de audio y vídeo en busca de SynthID, una marca de agua digital que Google incrusta directamente en sus generaciones por IA, sea creando un contenido desde cero o modificándolo con nuestros prompts.

Imagen usuario de twitter
Sai Nemani
@SaiNemani1
For everyone,
be careful and luckily @GeminiApp does have SynthID checker on Gemini so it could tell if it’s AI generated or not.

Here’s how to check:

(I recommend choosing the Fast mode instead of Thinking as Fast mode is ofc faster)

Happy Holidays 🙂 https://t.co/I2yN8VnoX7 https://t.co/z2PJ3gtbRQ

28 de noviembre, 2025 • 12:58

260

0

Pero a diferencia de la típica marca de agua, este sello es imperceptible para el ojo humano. Y de paso, es casi imposible de eliminar sin que afecte a la calidad del archivo. En caso de encontrarla, Gemini nos muestra los momentos concretos del vídeo en que aparece, y también nos dice si la huella está en la imagen o en el sonido.

Los matices de SynthID

SynthID podría considerarse el «DNI» de los contenidos generados por las herramientas de IA de Google. Esta marca invisible se incrusta en las imágenes y los vídeos con un claro propósito identificativo. Además, la compañía de Mountain View asegura que es lo bastante sólida como para no desaparecer ante modificaciones de contenido audiovisual como recortes, compresión o retoques.

Un movimiento que gana sentido especialmente dada la avalancha del contenido generado por IA que encontramos en las redes sociales. Contenido que puede ir desde fake news, anuncios manipulados, discursos políticos alterados… todo lo que sea susceptible a circular en vídeos de 30-60 segundos.

Pero este sistema de SynthID también tiene un matiz importante que debemos mencionar, y es que Gemini solo puede identificar contenido generado o modificado por los propios modelos de Google. Por lo que, en el caso de que los vídeos procedan de OpenAI, Meta, Adobe o cualquier otra IA, la app no podrá detectar su procedencia. Por lo que aún está lejos de ser un «detector universal» de contenido creado por IA. Aun así, es un movimiento claro de Google de responsabilizarse y ayudar a la detección de todo lo que pase por Gemini y sus herramientas asociadas.

La falta de identificación en el mundo de la IA

Más allá de este movimiento de Google, seguimos enfrentándonos a un problema común entre todas las IA, y es que no existe un método o formato estandarizado para etiquetar el contenido generado por IA. En el caso de Google, utiliza SynthID, y los metadatos C2PA en imágenes.

Pero muchas redes sociales se encargan de eliminar estos metadatos al subir los archivos, lo que se encarga de eliminar cualquier pista sobre su origen por el camino. Por su parte, OpenAI ya ha reconocido que sus marcas de agua generadas con Sora eran relativamente fáciles de borrar.

Lo que demuestra que, incluso entre los líderes de este sector, no existe aún un consenso ni un modelo para proteger la credibilidad -o no- de los vídeos.