En un video sobre el nuevo Tiktok de Openai Aplicación de redes sociales Sorauna granja de fábrica interminable de cerdos rosados está gruñendo y resoplando en sus bolígrafos: cada una está equipada con un canal de alimentación y una pantalla de teléfono inteligente, que reproduce un feed de videos verticales. Un Sam Altman terriblemente realista mira directamente a la cámara, como si estuviera haciendo contacto visual directo con el espectador. El Altman generado por la IA pregunta: «¿Están mis cerdos disfrutando de su pendiente?»
Esto es lo que es usar la aplicación Sora, menos de 24 horas después de que se lanzó al público en un período de acceso temprano solo por invitación.
En el siguiente video sobre Sora's For You Feed, Altman aparece nuevamente. Esta vez, está parado en un campo de Pokémon, donde criaturas como Pikachu, Bulbasaur y una especie de gruñido a medias se están rompiendo a través de la hierba. El CEO de Operai mira la cámara y dice: «Espero que Nintendo no nos demanda». Entonces, hay muchas más escenas fantásticas pero realistas, que a menudo presentan al mismo Altman.
Sirve bebidas Pikachu y Eric Cartman en Starbucks. Él grita a un cliente detrás del mostrador en un McDonald's. Roba las GPU de Nvidia de un objetivo y huye, solo para que lo atrapen y le rueguen a la policía que no tome su preciosa tecnología.
Las personas en SORA que generan videos de Altman están haciendo una vuelta especialmente de cuán descaradamente Openai parece estar violando las leyes de derechos de autor. (Sora Will Según se informa, requerir Los titulares de derechos de autor para optar por no participar en el uso de su contenido, revertir el enfoque típico donde los creadores deben aceptar explícitamente dicho uso, cuya legalidad es discutible).
«Este contenido puede violar nuestras barandillas con respecto a la semejanza de terceros», dice Ai Altman en un video, haciendo eco del aviso que aparece después de enviar algunas indicaciones para generar celebridades o personajes reales. Luego, estalla en una risa histérica como si supiera que lo que dice es una tontería: la aplicación está llena de videos de Pikachu haciendo ASMR, Naruto ordenando a Krabby Patties y Mario fumando hierba.
Esto no sería un problema si Sora 2 no fuera tan impresionante, especialmente en comparación con la pendiente aún más aturdida en la aplicación Meta AI y su nueva alimentación social (sí, Meta también está tratando de hacer ai tiktoky no, nadie quiere esto).
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Operai afinó su generador de videos para retratar adecuadamente las leyes de la física, lo que hace que los resultados más realistas. Pero cuanto más realistas sean estos videos, más fácil será para este contenido creado sintéticamente proliferar en la web, donde puede convertirse en un vector para la desinformación, el acoso escolar y otros usos nefastas.
Además de su feed y perfiles algorítmicos, la característica definitoria de Sora es que es básicamente un generador de defake, así es como obtuvimos tantos videos de Altman. En la aplicación, puede crear lo que Openai llama un «cameo» de usted mismo cargando datos biométricos. Cuando se une a la aplicación por primera vez, se le solicita inmediatamente que cree su cameo opcional a través de un proceso rápido en el que se registre leyendo algunos números y luego gire la cabeza de lado a lado.
Cada usuario de Sora puede controlar quién puede generar videos usando su cameo. Puede ajustar esta configuración entre cuatro opciones: «Solo yo», «personas que apruebo», «mutuos» y «todos».
Altman ha puesto su cameo a disposición de todos, por lo que el feed de Sora se ha inundado con videos de Pikachu y Bob Esponja rogándole a Altman que deje de entrenar AI en ellos.
Este tiene que ser un movimiento deliberado por parte de Altman, tal vez como una forma de demostrar que no cree que su producto sea peligroso. Pero los usuarios ya se están aprovechando del cameo de Altman para cuestionar la ética de la aplicación en sí.
Después de ver suficientes videos de GPU de Sam Altman en cuencos de personas en cocinas de sopa, decidí probar la función de cameo. Generalmente es una mala idea cargar sus datos biométricos a una aplicación social o cualquier aplicación para el caso. Pero desafié mis mejores instintos para el periodismo, y, si soy honesto, un poco de curiosidad mórbida. No sigas mi ejemplo.
Mi primer intento de hacer un cameo no tuvo éxito, y una ventana emergente me dijo que mi carga violó las pautas de la aplicación. Pensé que seguí las instrucciones bastante de cerca, así que lo intenté nuevamente, solo para encontrar la misma ventana emergente. Luego, me di cuenta del problema: estaba usando una camiseta sin mangas, y mis hombros estaban quizás demasiado arriesgados por el gusto de la aplicación. En realidad, es una característica de seguridad razonable, diseñada para evitar contenido inapropiado, aunque, de hecho, estaba completamente vestido. Entonces, me cambié a una camiseta, lo intenté nuevamente, y contra mi mejor juicio, creé mi cameo.
Para mi primer profundo de mí mismo, decidí crear un video de algo que nunca haría en la vida real. Le pedí a Sora que creara un video en el que profeso mi amor eterno por los Mets de Nueva York.
Ese aviso fue rechazado, probablemente porque nombré una franquicia específica, así que le pedí a Sora que hiciera un video de mí hablando de béisbol.
«Crecí en Filadelfia, por lo que los Filis son básicamente la banda sonora de mis veranos», dijo mi IA Deepfake, hablando con una voz muy diferente a la mía, pero en una habitación que se ve exactamente como la mía.
No le dije a Sora que soy fanático de los Filis. Pero la aplicación Sora puede usar su dirección IP y su historial de chatgpt para adaptar sus respuestas, por lo que hizo una suposición educada, ya que grabé el video en Filadelfia. Al menos Openai no sabe que en realidad no soy del área de Filadelfia.
Cuando compartí y expliqué el video en tiktokun comentarista escribió: «Todos los días me despierto a nuevos horrores más allá de mi comprensión».
Operai ya tiene un problema de seguridad. La compañía enfrenta preocupaciones de que ChatGPT está contribuyendo crisis de salud mentaly es enfrentar una demanda De una familia que alega que ChatGPT le dio a su hijo fallecido instrucciones sobre cómo suicidarse. En su publicación de lanzamiento para SORA, Operai enfatiza su supuesto compromiso con la seguridad, destacando sus controles parentales, así como cómo los usuarios tienen control sobre quién puede hacer videos con su cameo, como si no fuera irresponsable en primer lugar para dar a las personas un recurso gratuito y fácil de usar para crear profundos profundos extremadamente realistas de sí mismos y sus amigos. Cuando se desplaza por la feed de Sora, ocasionalmente ves una pantalla que pregunta: «¿Cómo afecta el uso de Sora tu estado de ánimo?» Así es como Openai está adoptando la «seguridad».
Los usuarios ya están navegando alrededor de las barandillas en Sora, algo inevitable para cualquier producto de IA. La aplicación no le permite generar videos de personas reales sin su permiso, pero cuando se trata de figuras históricas muertas, Sora es un poco más suelta con sus reglas. Nadie creería que un video de Abraham Lincoln montando un waymo es real, dado que sería imposible sin una máquina del tiempo, pero luego ves a un aspecto realista John F. Kennedy decir: «No preguntes qué puede hacer tu país por ti, sino cuánto dinero te debe tu país». Es inofensivo en el vacío, pero es un presagio de lo que vendrá.
Los defensores políticos no son nuevos. Incluso el propio presidente Donald Trump publica Deepfakes en sus redes sociales (solo esta semana, compartió Un video racista de Deepfake de los congresistas demócratas Chuck Schumer y Hakeem Jeffries). Pero cuando Sora se abre al público, estas herramientas estarán en todas nuestras dedos, y estaremos destinados al desastre.




