
Siga ZDNET: Agréguenos como fuente preferida en Google.
Conclusiones clave de ZDNET
- Codex Max procesa cargas de trabajo masivas mediante un manejo de contexto mejorado.
- Una ejecución más rápida y menos tokens ofrecen una mejor eficiencia en el mundo real.
- El primer Codex entrenado en Windows mejora las tareas de desarrollo multiplataforma.
Después de una semana de importantes anuncios de programación de IA por parte de Microsoft y Google, OpenAI se unió a la diversión. Hoy, OpenAI es anunciando una nueva versión del Codexsu modelo de IA centrado en la programación.
Si bien el anuncio fue hoy, la capacidad real GPT-5.1-Codex-Max estará disponible mañana en Codex para ChatGPT Además, usuarios Pro, Business, Edu y Enterprise. El acceso a la API «llegará pronto». OpenAI dice que el nuevo modelo Max «reemplaza a GPT-5.1-Codex como modelo recomendado para tareas de codificación agente en entornos Codex y similares».
(Divulgación: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).
la gran noticia
La gran noticia es que el nuevo modelo Max puede funcionar en tareas más grandes. Las IA tienen una ventana de contexto, que es aproximadamente la cantidad de información y procesamiento que una IA puede manejar de una sola vez. En un ser humano, piense en ello como capacidad de atención o cuánto trabajo puede hacer alguien antes de necesitar una nueva taza de café.
También: Codificará más rápido y gastará menos con la nueva actualización GPT-5.1 de OpenAI: así es como
Internamente, el tamaño de una ventana de contexto es en realidad cuántos tokens puede manejar una IA antes de agotarse. Los tokens son fragmentos de información muy pequeños. No corresponden directamente a palabras, letras o líneas de código, sino que son representaciones de memoria de esas cosas.
Codex tiene una ventana de contexto bastante grande, pero resulta abrumada. Por ejemplo, descubrí que cuando codificaba usando Codex, podía realizar tareas de proyectos muy grandes sin llorar. Pero si le daba un volcado gigante de un fallo de código con una tonelada de texto en el volcado, salía de la ventana de contexto con bastante rapidez. Esto se debe a que los tokens no se consumían durante el procesamiento del proyecto. Estaban consumidos en el manejo del gran volcado de datos.
La característica de la mitad superior de la página de GPT-5.1-Codex-Max es que puede manejar ventanas de contexto mucho más grandes y operar a través de ventanas de contexto mediante un proceso llamado compactación.
La compactación es el proceso que un modelo puede utilizar para reducir o comprimir partes de la conversación o del contexto del código cuando la ventana general del token se está llenando.
¿Sabes cómo cuando estás hablando y hablando y hablando con un amigo y sus ojos se ponen vidriosos, pero luego aplaudes, exclamas «Sal de aquí» y recuperas su atención? Eso es compactación. ¿Qué? No puedo ser sólo yo.
También: La mejor IA gratuita para codificar en 2025: ahora solo 3 pasan el corte
En la IA, significa que Codex Max puede trabajar en tareas mucho más grandes, como refactores muy complejos de todo el sistema (buscar, cambiar y corregir referencias cruzadas). También permite que la IA trabaje en una sola tarea durante horas seguidas. OpenAI dice que Codex puede realizar una tarea de 24 horas.
La compactación no es nueva. Me encontré con él en Claude Code en mi plan Max de $100 al mes. Una diferencia es que Claude tiene una ventana de contexto de aproximadamente 200.000 tokens. En un momento durante mi codificación, Claude me informó que habíamos agotado bastante y me recomendó que comenzara una nueva sesión o ejecutaría una compactación, lo que tomó unos cinco minutos.
Por el contrario, OpenAI dice que Max puede «trabajar coherentemente con millones de tokens en una sola tarea».
menos es más
La evaluación SWE-Bench Verified es básicamente una prueba de precisión del procesamiento de IA. Mide qué tan bien la IA resuelve una serie de problemas de codificación. Según OpenAI, GPT-5.1-Codex-Max «alcanza el mismo rendimiento» que el modelo anterior, GPT-5.1-Codex.
En otras palabras, la IA no se deterioró en su calidad de IA. Pero lo interesante es que Max puede mantener ese rendimiento utilizando un 30 % menos de tokens de pensamiento y ejecutar entre un 27 % y un 42 % más rápido en tareas de codificación del mundo real. En mi imaginación, me imagino a un ingeniero de OpenAI levantando el puño y exclamando: «Maldita sea, estaba intentando alcanzar el 43%, pero no».
Esto tiene algunas implicaciones en el mundo real. Quizás recuerdes que el plan ChatGPT Plus de $20 al mes tiene restricciones bastante altas en el uso del Codex, lo que permite aproximadamente 5 horas de ejecución antes de quedarse sin tokens. Con Max usando un 30% menos de tokens, es posible que obtengas una hora extra de programación por el mismo precio.
OpenAI proporcionó algunos ejemplos del rendimiento del modelo en comparación con la versión que no es Max. En un ejemplo, Max usó 27.000 tokens en comparación con 37.000, generó 707 líneas de código en lugar de 864 y ejecutó un 27% más rápido.
También: Cómo codificar tu primera aplicación de iPhone con IA: no se necesita experiencia
Tomémonos un momento para centrarnos en las líneas de código que se mencionan. Si puede hacer que el código funcione en menos líneas de código, generalmente será más fácil de mantener y, a menudo, se ejecutará más rápido. Si bien puedes volverte loco creando código conciso (estoy mirando los pocos codificadores de Perl que quedan), menos líneas para la misma rutina generalmente es una medida de una mejor práctica de programación o mejores algoritmos.
Entonces, si Codex guarda líneas, generalmente es algo bueno. Veamos algunos otros ejemplos:
- 16.000 en lugar de 26.000 tokens, 586 líneas de código en lugar de 933 y un 38% más rápido
- 8.000 tokens en lugar de 12.000, 578 líneas de código en lugar de 911 y un 33% más rápido
- 16.000 en lugar de 38.000 tokens, 529 líneas de código en lugar de 667 y un 42% más rápido
Obviamente, cada tarea será diferente, pero más rápido, mejor y más barato siempre es bueno.
Mejor ciberseguridad
Desde que se lanzó GPT-5 a principios de año, OpenAI incorporó monitoreo específico de ciberseguridad para detectar e interrumpir actividades maliciosas. Como puede imaginar, si deja que su agente funcione libremente con acceso a la línea de comandos durante horas y horas, podría ser un objetivo jugoso para los piratas informáticos.
OpenAI dice que el modelo GPT-5.1-Codex-Max funciona «significativamente mejor» en un razonamiento sostenido de «largo horizonte». Este desempeño sostenido ayuda al modelo a mejorar también la ciberseguridad.
También: Cómo usar ChatGPT para escribir código y mi principal truco para depurar lo que genera
Codex se ejecuta en un entorno limitado seguro donde la escritura de archivos solo puede realizarse en un espacio de trabajo definido y el acceso a la red está deshabilitado, a menos que un codificador decida hacerlo. baila con el diablo a la pálida luz de la luna y enciéndelo.
La compañía dice: «Recomendamos mantener Codex en este modo de acceso restringido, ya que habilitar Internet o la búsqueda en la web puede presentar riesgos de inyección rápida de contenido que no es de confianza».
Entrenado para Windows
Codex funciona muy bien en Mac. Fue entrenado para hacerlo. Muchos desarrolladores de OpenAI utilizan Mac para codificar. Sin embargo, GPT-5.1-Codex-Max también funciona bien en Windows. OpenAI informa: «También es el primer modelo que hemos entrenado para operar de manera efectiva en entornos Windows, con tareas de capacitación que lo convierten en un mejor colaborador en la CLI del Codex».
También: ¿ChatGPT Plus todavía vale $20? Cómo se compara con los planes Free y Pro
Teniendo en cuenta OpenAI relación creciente con Microsofttiene sentido que OpenAI le dé a Windows un poco más de amor.
eso es un resumen
Bueno, eso es todo para este anuncio.
También: 10 secretos del Codex ChatGPT que solo aprendí después de 60 horas de programación en pareja con él
A medida que Codex Max avanza hacia ventanas contextuales más amplias, tareas de larga duración y nueva capacitación específica de Windows, ¿qué es lo que más le llama la atención? ¿Cree que la compactación y los flujos de trabajo de varios millones de tokens cambiarán la forma en que aborda los grandes proyectos de codificación? ¿Son las ganancias en velocidad y eficiencia de tokens suficientes para cambiar su desarrollo diario? Y si usa Windows, ¿planea probar el nuevo modelo entrenado para Windows en su flujo de trabajo? Déjame saber lo que piensas en los comentarios a continuación.
Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanaly sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtzen Instagram en Instagram.com/DavidGewirtzen Bluesky en @DavidGewirtz.comy en YouTube en YouTube.com/DavidGewirtzTV.




