Debido a la inteligencia artificial, cada vez es más importante verificar el contenido al que estamos accediendo y consumiendo. Debido a la evolución de la IA, cada vez es más complicado distinguir entre un contenido original y fidedigno, que uno generado por esta tecnología. YouTube se ha cansado y aplicará medidas para evitar que se suban vídeos falsos generados por IA.
Hace unos meses se hacía viral en TikTok una canción de Bad Bunny falsa que se había generado la voz con IA. El tema parecía realmente propiedad del artista puertorriqueño, y es que el tono era exactamente el mismo.
Debido a esto, muchos usuarios han aprovechado para generar videos con IA y subirlos a YouTube. Esto es un problema muy grande, ya que la información dada puede ser falsa o incorrecta. Incluso, se podrían usar estos contenidos para intentar estafar a los usuarios.
YouTube se cargará los videos generados con IA
La plataforma quiere seguir preservando la calidad de los contenidos, terminando con estas «falsificaciones». Para evitarlo, ya están trabajando en medidas eficaces que le eviten al usuario acceder ha contenido generado por IA.
Según se informa en el blog oficial de YouTube, están trabajando en una tecnología para identificar canciones auténticas. Esta nueva solución se engloba dentro del Content ID, que sirve para identificar material con derechos de autor. La idea es que el usuario pueda saber si está ante una canción real o generada por una IA.
El problema es que dentro de la plataforma han empezado a proliferar canciones generadas por inteligencia artificial. Tienen la capacidad de imitar tan bien las voces, que es muy difícil distinguir si es un tema real o falso. Pero, YouTube trabaja en una solución que pueda corregir este problema.
Actualmente, la plataforma está colaborando con varios socios para pulir esta herramienta. La idea es lanzar una prueba piloto el próximo año. Si la prueba funciona como es debido, se espera que poco después se implemente de manera generalizada y definitiva.
También destaca YouTube que están trabajando con creadores, actores, músicos y deportistas, entre otros, para detectar y gestionar el contenido generado por una IA que utilice su rostro. Permitirá detectar deepfakes generados por IA, garantizando así que no se use una identidad de un personaje reconocido para estafas.
Según indica YouTube en su blog:
Estas dos nuevas capacidades se basan en nuestra trayectoria de desarrollo de enfoques basados en la tecnología para abordar cuestiones de derechos a gran escala. Desde 2007, Content ID ha proporcionado un control granular a los titulares de derechos en todos sus catálogos en YouTube (se procesan miles de millones de reclamaciones cada año) y, al mismo tiempo, ha generado miles de millones de dólares en nuevos ingresos para artistas y creadores a través de la reutilización de su trabajo. Nos comprometemos a llevar este mismo nivel de protección y empoderamiento a la era de la inteligencia artificial.
Lo que queda claro es que la plataforma se ha cansado de encontrar videos falsos en la plataforma. Quiere limpiarla o, al menos, avisar que estamos ante contenido falso. Además, se pretende que estos usuarios que utilizan la IA para generar contenido, no se lucren.