• Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions
jueves, diciembre 25, 2025
No Result
View All Result
Corresponsal 360
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
No Result
View All Result
Corresponsal 360
No Result
View All Result
Home Tecnología

Codex Max de OpenAI resuelve una de mis mayores molestias con la codificación de IA, y es mucho más rápido

by Team
noviembre 19, 2025
in Tecnología
0
Codex Max de OpenAI resuelve una de mis mayores molestias con la codificación de IA, y es mucho más rápido


Códice máximo
Elyse Betters Picaro / ZDNET

Siga ZDNET: Agréguenos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • Codex Max procesa cargas de trabajo masivas mediante un manejo de contexto mejorado.
  • Una ejecución más rápida y menos tokens ofrecen una mejor eficiencia en el mundo real.
  • El primer Codex entrenado en Windows mejora las tareas de desarrollo multiplataforma.

Después de una semana de importantes anuncios de programación de IA por parte de Microsoft y Google, OpenAI se unió a la diversión. Hoy, OpenAI es anunciando una nueva versión del Codexsu modelo de IA centrado en la programación.

Si bien el anuncio fue hoy, la capacidad real GPT-5.1-Codex-Max estará disponible mañana en Codex para ChatGPT Además, usuarios Pro, Business, Edu y Enterprise. El acceso a la API «llegará pronto». OpenAI dice que el nuevo modelo Max «reemplaza a GPT-5.1-Codex como modelo recomendado para tareas de codificación agente en entornos Codex y similares».

También: Linus Torvalds es sorprendentemente optimista sobre la codificación de vibraciones, excepto por este uso «horrible»

(Divulgación: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).

la gran noticia

La gran noticia es que el nuevo modelo Max puede funcionar en tareas más grandes. Las IA tienen una ventana de contexto, que es aproximadamente la cantidad de información y procesamiento que una IA puede manejar de una sola vez. En un ser humano, piense en ello como capacidad de atención o cuánto trabajo puede hacer alguien antes de necesitar una nueva taza de café.

También: Codificará más rápido y gastará menos con la nueva actualización GPT-5.1 de OpenAI: así es como

Internamente, el tamaño de una ventana de contexto es en realidad cuántos tokens puede manejar una IA antes de agotarse. Los tokens son fragmentos de información muy pequeños. No corresponden directamente a palabras, letras o líneas de código, sino que son representaciones de memoria de esas cosas.

Codex tiene una ventana de contexto bastante grande, pero resulta abrumada. Por ejemplo, descubrí que cuando codificaba usando Codex, podía realizar tareas de proyectos muy grandes sin llorar. Pero si le daba un volcado gigante de un fallo de código con una tonelada de texto en el volcado, salía de la ventana de contexto con bastante rapidez. Esto se debe a que los tokens no se consumían durante el procesamiento del proyecto. Estaban consumidos en el manejo del gran volcado de datos.

La característica de la mitad superior de la página de GPT-5.1-Codex-Max es que puede manejar ventanas de contexto mucho más grandes y operar a través de ventanas de contexto mediante un proceso llamado compactación.

La compactación es el proceso que un modelo puede utilizar para reducir o comprimir partes de la conversación o del contexto del código cuando la ventana general del token se está llenando.

¿Sabes cómo cuando estás hablando y hablando y hablando con un amigo y sus ojos se ponen vidriosos, pero luego aplaudes, exclamas «Sal de aquí» y recuperas su atención? Eso es compactación. ¿Qué? No puedo ser sólo yo.

También: La mejor IA gratuita para codificar en 2025: ahora solo 3 pasan el corte

En la IA, significa que Codex Max puede trabajar en tareas mucho más grandes, como refactores muy complejos de todo el sistema (buscar, cambiar y corregir referencias cruzadas). También permite que la IA trabaje en una sola tarea durante horas seguidas. OpenAI dice que Codex puede realizar una tarea de 24 horas.

La compactación no es nueva. Me encontré con él en Claude Code en mi plan Max de $100 al mes. Una diferencia es que Claude tiene una ventana de contexto de aproximadamente 200.000 tokens. En un momento durante mi codificación, Claude me informó que habíamos agotado bastante y me recomendó que comenzara una nueva sesión o ejecutaría una compactación, lo que tomó unos cinco minutos.

Por el contrario, OpenAI dice que Max puede «trabajar coherentemente con millones de tokens en una sola tarea».

menos es más

La evaluación SWE-Bench Verified es básicamente una prueba de precisión del procesamiento de IA. Mide qué tan bien la IA resuelve una serie de problemas de codificación. Según OpenAI, GPT-5.1-Codex-Max «alcanza el mismo rendimiento» que el modelo anterior, GPT-5.1-Codex.

También: Antigravity de Google antepone la productividad de la codificación a las exageraciones de la IA, y el resultado es sorprendente

En otras palabras, la IA no se deterioró en su calidad de IA. Pero lo interesante es que Max puede mantener ese rendimiento utilizando un 30 % menos de tokens de pensamiento y ejecutar entre un 27 % y un 42 % más rápido en tareas de codificación del mundo real. En mi imaginación, me imagino a un ingeniero de OpenAI levantando el puño y exclamando: «Maldita sea, estaba intentando alcanzar el 43%, pero no».

Esto tiene algunas implicaciones en el mundo real. Quizás recuerdes que el plan ChatGPT Plus de $20 al mes tiene restricciones bastante altas en el uso del Codex, lo que permite aproximadamente 5 horas de ejecución antes de quedarse sin tokens. Con Max usando un 30% menos de tokens, es posible que obtengas una hora extra de programación por el mismo precio.

OpenAI proporcionó algunos ejemplos del rendimiento del modelo en comparación con la versión que no es Max. En un ejemplo, Max usó 27.000 tokens en comparación con 37.000, generó 707 líneas de código en lugar de 864 y ejecutó un 27% más rápido.

También: Cómo codificar tu primera aplicación de iPhone con IA: no se necesita experiencia

Tomémonos un momento para centrarnos en las líneas de código que se mencionan. Si puede hacer que el código funcione en menos líneas de código, generalmente será más fácil de mantener y, a menudo, se ejecutará más rápido. Si bien puedes volverte loco creando código conciso (estoy mirando los pocos codificadores de Perl que quedan), menos líneas para la misma rutina generalmente es una medida de una mejor práctica de programación o mejores algoritmos.

Entonces, si Codex guarda líneas, generalmente es algo bueno. Veamos algunos otros ejemplos:

  • 16.000 en lugar de 26.000 tokens, 586 líneas de código en lugar de 933 y un 38% más rápido
  • 8.000 tokens en lugar de 12.000, 578 líneas de código en lugar de 911 y un 33% más rápido
  • 16.000 en lugar de 38.000 tokens, 529 líneas de código en lugar de 667 y un 42% más rápido

Obviamente, cada tarea será diferente, pero más rápido, mejor y más barato siempre es bueno.

Mejor ciberseguridad

Desde que se lanzó GPT-5 a principios de año, OpenAI incorporó monitoreo específico de ciberseguridad para detectar e interrumpir actividades maliciosas. Como puede imaginar, si deja que su agente funcione libremente con acceso a la línea de comandos durante horas y horas, podría ser un objetivo jugoso para los piratas informáticos.

OpenAI dice que el modelo GPT-5.1-Codex-Max funciona «significativamente mejor» en un razonamiento sostenido de «largo horizonte». Este desempeño sostenido ayuda al modelo a mejorar también la ciberseguridad.

También: Cómo usar ChatGPT para escribir código y mi principal truco para depurar lo que genera

Codex se ejecuta en un entorno limitado seguro donde la escritura de archivos solo puede realizarse en un espacio de trabajo definido y el acceso a la red está deshabilitado, a menos que un codificador decida hacerlo. baila con el diablo a la pálida luz de la luna y enciéndelo.

La compañía dice: «Recomendamos mantener Codex en este modo de acceso restringido, ya que habilitar Internet o la búsqueda en la web puede presentar riesgos de inyección rápida de contenido que no es de confianza».

Entrenado para Windows

Codex funciona muy bien en Mac. Fue entrenado para hacerlo. Muchos desarrolladores de OpenAI utilizan Mac para codificar. Sin embargo, GPT-5.1-Codex-Max también funciona bien en Windows. OpenAI informa: «También es el primer modelo que hemos entrenado para operar de manera efectiva en entornos Windows, con tareas de capacitación que lo convierten en un mejor colaborador en la CLI del Codex».

También: ¿ChatGPT Plus todavía vale $20? Cómo se compara con los planes Free y Pro

Teniendo en cuenta OpenAI relación creciente con Microsofttiene sentido que OpenAI le dé a Windows un poco más de amor.

eso es un resumen

Bueno, eso es todo para este anuncio.

También: 10 secretos del Codex ChatGPT que solo aprendí después de 60 horas de programación en pareja con él

A medida que Codex Max avanza hacia ventanas contextuales más amplias, tareas de larga duración y nueva capacitación específica de Windows, ¿qué es lo que más le llama la atención? ¿Cree que la compactación y los flujos de trabajo de varios millones de tokens cambiarán la forma en que aborda los grandes proyectos de codificación? ¿Son las ganancias en velocidad y eficiencia de tokens suficientes para cambiar su desarrollo diario? Y si usa Windows, ¿planea probar el nuevo modelo entrenado para Windows en su flujo de trabajo? Déjame saber lo que piensas en los comentarios a continuación.


Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanaly sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtzen Instagram en Instagram.com/DavidGewirtzen Bluesky en @DavidGewirtz.comy en YouTube en YouTube.com/DavidGewirtzTV.



Tags: CodexcodificaciónconmásMaxmayoresmismolestiasmuchoOpenAIrápidoresuelveuna
Team

Team

Next Post
Las amistades laborales fortalecen el sentido de pertenencia en Ecuador

Las amistades laborales fortalecen el sentido de pertenencia en Ecuador

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recomendada

Recoleta FC: Vidal establece récord de longevidad en el fútbol paraguayo – Deportivo Recoleta

Recoleta FC: Vidal establece récord de longevidad en el fútbol paraguayo – Deportivo Recoleta

4 semanas ago
Cartas de los Lectores | Cartas Sobre Corrupción, Religión y El Crimen Adolescente

Inteligencia y estupidez | EL ESPECTADOR

1 mes ago

Noticias populares

  • «EVOLARA: TU SEGUNDO VUELO»

    «EVOLARA: TU SEGUNDO VUELO»

    0 shares
    Share 0 Tweet 0
  • 15 lugares para visitar en la Antártida no puede permitirse perderse

    0 shares
    Share 0 Tweet 0
  • Banco de semillas liderado por indígenas protege la biodiversidad del Amazonas – Latin America News Dispatch

    0 shares
    Share 0 Tweet 0
  • La Inteligencia Artificial Gran Aporte al Turismo en la Región de Los Lagos

    0 shares
    Share 0 Tweet 0
  • INFORME: Los demócratas pusieron al corrupto fiscal general de Obama, Eric Holder, a cargo de examinar a los candidatos a vicepresidente para Kamala Harris | The Gateway Pundit

    0 shares
    Share 0 Tweet 0

Sobre nosotras

Bienvenido a corresponsal360.com ¡El objetivo de corresponsal360.com es brindarle las mejores fuentes de noticias para cualquier tema! Nuestros temas se seleccionan cuidadosamente y se actualizan constantemente, ya que sabemos que la web se mueve rápido y nosotros también lo intentamos.

Categoría

  • Blog
  • Cultura
  • Deportes
  • Noticias
  • Política
  • Salud
  • Tecnología
  • Turismo

Mensajes recientes

  • ¿Qué tipo de nuevo mundo está naciendo?
  • Los mejores teléfonos de 2025 también fueron los más extravagantes
  • En el valle de Clare de Australia, un nuevo sendero de 6 días conecta viñedos históricos, cabañas de lujo y campos de lavanda silvestre
  • Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions

Copyright © 2024 Corresponsal360.com | All Rights Reserved.

No Result
View All Result
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura

Copyright © 2024 Corresponsal360.com | All Rights Reserved.