Cuando OpenAI lanzó su aplicación de generación de vídeo con IA, Sora, en septiembre, prometido que «tienes el control de tu imagen de principio a fin». La aplicación permite a los usuarios incluirse a sí mismos y a sus amigos en videos a través de una función llamada «cameos»: la aplicación escanea el rostro de un usuario y realiza una verificación de vida, proporcionando datos para generar un video del usuario y autenticar su consentimiento para que sus amigos usen su imagen en la aplicación.
Pero Reality Defender, una empresa especializada en identificar deepfakes, dice que pudo derivación Las salvaguardias anti-suplantación de Sora dentro de las 24 horas. Plataformas como Sora dan una «sensación plausible de seguridad», dice Ben Colman, director ejecutivo de Reality Defender, a pesar de que «cualquiera puede utilizar herramientas completamente disponibles» para pasar la autenticación como otra persona.
Los investigadores de Reality Defender utilizaron imágenes disponibles públicamente de personas notables, incluidos directores ejecutivos y artistas, de llamadas sobre ganancias y entrevistas con los medios. La empresa logró violar las salvaguardias con cada imagen que intentaron suplantar. Colman sostiene que “cualquier estudiante inteligente de décimo grado” podría descubrir las herramientas que utilizaba su empresa.
Un portavoz de OpenAI dijo en un comunicado enviado por correo electrónico a TIME que «los investigadores construyeron un sofisticado sistema de deepfake de directores ejecutivos y artistas para tratar de eludir esas protecciones, y estamos fortaleciendo continuamente a Sora para hacerlo más resistente contra este tipo de uso indebido».
La liberación de Sora y la rápida elusión de sus mecanismos de autenticación es un recordatorio de que la sociedad no está preparada para la próxima ola de deepfakes personalizados y cada vez más realistas. La brecha entre el avance de la tecnología y la regulación rezagada deja a los individuos solos para navegar en un panorama informativo incierto y protegerse de posibles fraudes y acosos.
«Las plataformas saben absolutamente que esto está sucediendo y saben absolutamente que podrían resolverlo si quisieran. Pero hasta que las regulaciones se pongan al día (estamos viendo lo mismo en todas las plataformas de redes sociales) no harán nada», dice Colman.
Sora alcanzó 1 millón de descargas en menos de cinco días, más rápido que ChatGPT, que en ese momento era la aplicación para consumidores de más rápido crecimiento, a pesar de requerir que los usuarios tuvieran una invitación. de acuerdo a a Bill Peebles, director de Sora de OpenAI. El lanzamiento de OpenAI siguió a una oferta similar de Meta llamada Vibes, que está integrada en la aplicación Meta AI.
La creciente accesibilidad a deepfakes convincentes ha alarmado a algunos observadores. «La verdad es que detectar (deepfakes) a simple vista se está volviendo casi imposible, dados los rápidos avances en las capacidades de clonación de texto a imagen, texto a video y audio», dijo Jennifer Ewbank, ex subdirectora de innovación digital de la CIA, en un correo electrónico a TIME.
Los reguladores han estado lidiando con cómo abordar los deepfakes desde al menos 2019, cuando el presidente Trump firmado una ley que exige que el Director de Inteligencia Nacional investigue el uso de deepfakes por parte de gobiernos extranjeros. Sin embargo, a medida que ha aumentado la accesibilidad de los deepfakes, el foco de la legislación se ha acercado más a casa. En mayo de 2025, se aprobó la Ley Take It Down. firmado en la ley federal, prohibiendo la publicación en línea de “representaciones visuales íntimas” de menores y de adultos que no hayan dado su consentimiento, y exigiendo a las plataformas que eliminen el contenido ofensivo dentro de las 48 horas posteriores a la solicitud, pero la aplicación de la ley solo comenzar en mayo de 2026.
La legislación que prohíbe los deepfakes puede resultar complicada. «En realidad, es realmente complicado, técnica y legalmente, porque la Primera Enmienda preocupa la posibilidad de eliminar ciertos discursos», dice Jameson Spivack, subdirector de política estadounidense en el Foro sobre el Futuro de la Privacidad. En agosto, un juez federal anuló una ley de California sobre deepfakes, cuyo objetivo era restringir el contenido deepfake generado por IA durante las elecciones, después de que X de Elon Musk demandado al estado sobre la base de que la ley violaba las protecciones de la Primera Enmienda. Como resultado, los requisitos para etiquetar el contenido generado por IA son más comunes que las prohibiciones absolutas, afirma Spivack.
Otro enfoque prometedor es que las plataformas adopten mejores esquemas de conocimiento de sus clientes, dice Fred Heiding, investigador del Programa de Estrategia, Tecnologías Emergentes y Defensa de la Universidad de Harvard. Los esquemas de «conozca a su cliente» requieren que los usuarios de plataformas como Sora inicien sesión utilizando una identificación verificada, lo que aumenta la responsabilidad y permite a las autoridades rastrear comportamientos ilegales. Pero aquí también hay compensaciones. «El problema es que en Occidente realmente valoramos el anonimato», dice Heiding. «Eso es bueno, pero el anonimato tiene un costo, y el costo es que estas cosas son realmente difíciles de hacer cumplir».
Mientras los legisladores luchan contra la creciente prevalencia y realismo de los deepfakes, los individuos y las organizaciones pueden tomar medidas para protegerse. Spivack recomienda el uso de software de autenticación como Credenciales de contenidodesarrollado por la Coalición para la Procedencia y Autenticidad del Contenido, que añade metadatos sobre la procedencia de imágenes y vídeos. Cámaras de Canon y sony admite la marca de agua, al igual que el Google Píxel 10. El uso de dicha autenticación aumenta la confianza en las imágenes genuinas y socava las falsificaciones.
A medida que cambia el panorama de la información en línea, lo que hace que sea más difícil confiar en las cosas que vemos y escuchamos en línea, tanto los legisladores como los individuos deben desarrollar la resiliencia de la sociedad ante los medios falsos. “Cuanto más cultivamos esa resiliencia, más difícil resulta para alguien monopolizar nuestra atención y manipular nuestra confianza”, dice Ewbank.




