YouTube cree tener una solución con IA para frenar los deepfakes, pero por ahora solo unos pocos podrán usarla

Pablo Hernández

Editor

YouTube acaba de dar un paso importante en la lucha contra la desinformación digital: la plataforma anunció que su sistema de detección de deepfakes mediante inteligencia artificial se extenderá a figuras políticas, funcionarios gubernamentales y periodistas. Con esta medida, quienes se encuentren en el centro del debate público podrán identificar y solicitar la eliminación de videos manipulados que usen su imagen sin autorización.

La decisión llega en un momento en que los modelos de IA generativa producen videos cada vez más realistas, lo que ha multiplicado los riesgos de suplantación y fraude. De acuerdo con YouTube, la función para identificar deepfakes busca "equilibrar la protección de la identidad de las personas con la preservación de la libertad de expresión", incluyendo parodias y sátiras que forman parte del discurso público.

YouTube amplía su detector de deepfakes: políticos y periodistas podrán denunciar videos falsos

La nueva función opera de manera similar a Content ID, pero enfocada en la semejanza de rostros y voces. Si la IA detecta coincidencias con un participante en un video generado artificialmente, la persona afectada puede revisar el contenido y solicitar su eliminación en caso de que infrinja las normas de privacidad.

YouTube aclara que no todos los videos serán eliminados automáticamente: se mantendrán excepciones para contenidos satíricos o paródicos, incluso cuando critiquen a líderes mundiales o figuras influyentes (por más que a algunos no les guste). La idea es proteger la identidad sin limitar el debate público.

Por ahora, el acceso está limitado a un grupo piloto de periodistas, candidatos y funcionarios, con planes de ampliar la disponibilidad en los próximos meses, YouTube no ha dado detalles sobre los participantes.

Protección y verificación de identidad

Eso sí, para evitar abusos, YouTube exige que los participantes verifiquen su identidad antes de inscribirse en el programa. La compañía asegura que los datos proporcionados se usan únicamente para confirmar la autenticidad y no se emplean para entrenar modelos de IA.

Además, la compañía subraya que esta herramienta busca proteger a quienes están más expuestos a campañas de desinformación, especialmente en contextos de elecciones o noticias de última hora. Al mismo tiempo, insiste en que la tecnología debe complementarse con marcos legales sólidos, como la propuesta Ley NO FAKES en Estados Unidos, que establece un derecho federal de publicidad y podría servir de modelo internacional.

El objetivo es que la detección de semejanzas se convierta en un "estándar de seguridad digital", donde YouTube además promete ampliar su alcance a más usuarios en el futuro.

Entre tanto, la expansión de esta herramienta refleja la creciente preocupación por el uso de deepfakes en la política y el periodismo. Según el artículo "Deepfakes and Democracy (Theory)", publicado en PubMed Central, los videos falsos pueden dañar reputaciones, manipular la opinión pública y generar confusión en momentos críticos.

Con esta medida, YouTube busca ofrecer un mecanismo de defensa para quienes son más vulnerables a este tipo de ataques, al tiempo que mantiene su "compromiso" con la libertad de expresión. La compañía reconoce que la tecnología por sí sola no basta y que se necesitan regulaciones claras para enfrentar el problema.

En un entorno donde la IA avanza más rápido que las leyes, la iniciativa de YouTube marca un precedente en la protección de la identidad digital de figuras públicas. Situación que ha llevado incluso al Gobierno de México a tomar acciones para eliminar lo que considere falso.

Ver todos los comentarios en https://www.xataka.com.mx

VER 0 Comentario