Chris Lehane es uno de los mejores en el negocio de hacer desaparecer las malas noticias. Secretario de prensa de Al Gore durante los años de Clinton, jefe de gestión de crisis de Airbnb durante todas las pesadillas regulatorias desde aquí hasta Bruselas: Lehane sabe cómo girar. Ahora lleva dos años en lo que podría ser su trabajo más imposible hasta el momento: como vicepresidente de política global de OpenAI, su trabajo es convencer al mundo de que a OpenAI realmente le importa un comino la democratización de la inteligencia artificial mientras la compañía se comporta cada vez más como, bueno, cualquier otro gigante tecnológico que alguna vez haya afirmado ser diferente.
Tuve 20 minutos con él en el escenario del Elevar conferencia en Toronto a principios de esta semana: 20 minutos para pasar de los puntos de conversación y profundizar en las contradicciones reales que corroen la imagen cuidadosamente construida de OpenAI. No fue fácil ni completamente exitoso. Lehane es realmente bueno en su trabajo. Es simpático. Suena razonable. Admite incertidumbre. Incluso habla de despertarse a las 3 de la madrugada preocupado por si algo de esto realmente beneficiará a la humanidad.
Pero las buenas intenciones no significan mucho cuando su empresa está citando a sus críticos, drenando el agua y la electricidad de ciudades económicamente deprimidas y resucitando a celebridades muertas para afirmar su dominio en el mercado.
El problema Sora de la empresa está realmente en la raíz de todo lo demás. La herramienta de generación de videos se lanzó la semana pasada con material protegido por derechos de autor aparentemente integrado. Fue una medida audaz para una empresa que ya estaba siendo demandada por el New York Times, el Toronto Star y la mitad de la industria editorial. Desde el punto de vista empresarial y de marketing, también fue brillante. La aplicación sólo por invitación se disparó al parte superior de la tienda de aplicaciones a medida que las personas creaban versiones digitales de sí mismas, el director ejecutivo de OpenAI, Sam Altman; personajes como Pikachu, Mario y Cartman de “South Park”; y celebridades muertas como Tupac Shakur.
Cuando se le preguntó qué impulsó la decisión de OpenAI de lanzar esta nueva versión de Sora con estos personajes, Lehane ofreció que Sora es una «tecnología de propósito general» como la imprenta, que democratiza la creatividad para personas sin talento ni recursos. Incluso él, que se describe a sí mismo como un cero creativo, puede hacer vídeos ahora, dijo en el escenario.
Lo que dio vueltas es que OpenAI inicialmente «permitió» que los titulares de derechos optaran por no utilizar su trabajo para entrenar a Sora, que no es como normalmente funciona el uso de los derechos de autor. Luego, después de que OpenAI notó que a la gente realmente le gustaba usar imágenes con derechos de autor, «evolucionó» hacia una modelo de suscripción. Eso no es realmente una iteración. Eso es probar cuánto puedes salirte con la tuya. (Por cierto, aunque la Motion Picture Association hizo algo de ruido la semana pasada sobre amenazas legales, OpenAI parece haberse salido con la suya en muchas cosas).
Naturalmente, la situación recuerda el malestar de los editores que acusan a OpenAI de entrenarse en su trabajo sin compartir el botín financiero. Cuando presioné a Lehane sobre la exclusión de los editores de la economía, invocó el uso legítimo, esa doctrina legal estadounidense que se supone equilibra los derechos de los creadores con el acceso público al conocimiento. Lo llamó el arma secreta del dominio tecnológico estadounidense.
Evento tecnológico
san francisco
|
27-29 de octubre de 2025
Tal vez. Pero recientemente entrevistó a Al Gore – el antiguo jefe de Lehane – y me di cuenta de que cualquiera podía simplemente preguntarle a ChatGPT al respecto en lugar de leer mi artículo en TechCrunch. «Es 'iterativo'», dije, «pero también es un reemplazo».
Lehane escuchó y dejó caer su perorata. «Todos vamos a necesitar resolver esto», dijo. «Es realmente simplista y fácil sentarse aquí en el escenario y decir que necesitamos idear nuevos modelos de ingresos económicos. Pero creo que lo haremos». (En resumen, lo vamos inventando sobre la marcha, es lo que escuché).
Luego está la pregunta sobre infraestructura que nadie quiere responder honestamente. OpenAI ya está operando un campus de centro de datos en Abilene, Texas, y recientemente inició la construcción de un centro de datos masivo en Lordstown, Ohio, en asociación con Oracle y SoftBank. Lehane ha comparado la adopción de la IA con la llegada de la electricidad – diciendo que aquellos que accedieron a ella en último lugar todavía están tratando de ponerse al día – sin embargo, el proyecto Stargate de OpenAI aparentemente está apuntando a algunos de esos mismos lugares con dificultades económicas como lugares para establecer instalaciones con sus consiguientes y masivos apetitos por agua y electricidad.
Cuando se le preguntó durante nuestra reunión si estas comunidades se beneficiarán o simplemente pagarán la factura, Lehane se refirió a los gigavatios y la geopolítica. OpenAI necesita alrededor de un gigavatio de energía por semana, señaló. China incorporó 450 gigavatios el año pasado más 33 instalaciones nucleares. Si las democracias quieren una IA democrática, dijo, tienen que competir. “El optimista que hay en mí dice que esto modernizará nuestros sistemas energéticos”, había dicho, pintando un cuadro de Estados Unidos reindustrializado con redes eléctricas transformadas.
Fue inspirador, pero no fue una respuesta sobre si la gente en Lordstown y Abilene verá cómo aumentan sus facturas de servicios públicos mientras OpenAI genera videos de The Notorious BIG (la generación de videos es la La IA que consume más energía por ahí.)
El costo humano se había vuelto más claro el día antes de nuestra entrevista, cuando Zelda Williams se conectó a Instagram para rogar a extraños que dejaran de enviarle videos de su difunto padre, Robin Williams, generados por inteligencia artificial. “No estás haciendo arte«, escribió. «Estás haciendo hot dogs repugnantes y sobreprocesados a partir de la vida de los seres humanos».
Cuando le pregunté cómo concilia la empresa este tipo de daño íntimo con su misión, Lehane respondió hablando de procesos, incluido el diseño responsable, los marcos de prueba y las asociaciones gubernamentales. «No existe un manual para estas cosas, ¿verdad?»
Lehane se mostró vulnerable en algunos momentos y dijo que su sueño se ve interrumpido todas las noches por la preocupación por la democratización, la geopolítica y la infraestructura. «Esto conlleva enormes responsabilidades».
Independientemente de si esos momentos fueron diseñados para la audiencia o no, le creo. De hecho, salí de Toronto pensando que había visto una clase magistral sobre mensajería política: Lehane enhebraba una aguja imposible mientras esquivaba preguntas sobre decisiones de la empresa con las que, hasta donde yo sé, ni siquiera está de acuerdo. Entonces surgió la noticia que complicó ese panorama ya complicado.
Nathan Calvin, un abogado que trabaja en políticas de IA en una organización de defensa sin fines de lucro, Encode AI, reveló que mientras hablaba con Lehane en Toronto, OpenAI había enviado un ayudante del sheriff a la casa de Calvin en Washington, DC, durante la cena para entregarle una citación. Querían sus mensajes privados con legisladores de California, estudiantes universitarios y ex empleados de OpenAI.
Calvin dice que la medida fue parte de las tácticas de intimidación de OpenAI en torno a una nueva norma de IA, la SB 53 de California. Dice que la compañía utilizó como arma su batalla legal en curso con Elon Musk como pretexto para atacar a los críticos, implicando que Encode fue financiado en secreto por Musk. Calvin agregó que luchó contra la oposición de OpenAI al SB 53 de California, un proyecto de ley de seguridad de la IA, y que cuando vio a OpenAI afirmar que «funcionó para mejorar el proyecto de ley», «literalmente se rió a carcajadas». En una madeja de redes sociales, pasó a llamar a Lehane, específicamente, el “maestro de las artes oscuras políticas”.
En Washington, eso podría ser un cumplido. En una empresa como OpenAI, cuya misión es “construir una IA que beneficie a toda la humanidad”, suena como una acusación.
Pero lo que importa mucho más es que incluso la propia gente de OpenAI está en conflicto sobre en qué se están convirtiendo.
Como mi colega Max reportado la semana pasadavarios empleados actuales y anteriores recurrieron a las redes sociales después del lanzamiento de Sora 2, expresando sus dudas. Entre ellos se encontraba Boaz Barak, investigador de OpenAI y profesor de Harvard, quien escribió sobre Sora 2 que es «técnicamente sorprendente, pero es prematuro felicitarnos por evitar los peligros de otras aplicaciones de redes sociales y deepfakes».
El viernes, Josh Achiam, jefe de alineación de misiones de OpenAI, tuiteó algo aún más notable sobre la acusación de Calvin. Antes de sus comentarios diciendo que eran «posiblemente un riesgo para toda mi carrera», Achiam continuó escribiendo sobre OpenAI: «No podemos hacer cosas que nos conviertan en una potencia aterradora en lugar de una virtuosa. Tenemos un deber y una misión para toda la humanidad. El listón para cumplir con ese deber es notablemente alto».
Vale la pena detenerse a pensar. Un ejecutivo de OpenAI que cuestiona públicamente si su empresa se está convirtiendo en “una potencia aterradora en lugar de virtuosa” no está a la par de un competidor que dispara o un periodista que hace preguntas. Se trata de alguien que eligió trabajar en OpenAI, que cree en su misión y que ahora reconoce una crisis de conciencia a pesar del riesgo profesional.
Es un momento de cristalización, cuyas contradicciones solo pueden intensificarse a medida que OpenAI avanza hacia la inteligencia artificial general. También me hace pensar que la verdadera pregunta no es si Chris Lehane puede vender la misión de OpenAI. Se trata de si los demás (incluidas, de manera crítica, las demás personas que trabajan allí) todavía lo creen.




