
Antrópico hoy lanzado Obra 4.5su modelo fronterizo insignia, y trae mejoras en el rendimiento de la codificación, así como algunas mejoras en la experiencia del usuario que lo hacen más competitivo en general con los últimos modelos fronterizos de OpenAI.
Quizás el cambio más destacado para la mayoría de los usuarios es que en las experiencias de aplicaciones para el consumidor (web, móviles y de escritorio), Claude será menos propenso a interrumpir abruptamente las conversaciones porque han durado demasiado. La mejora de la memoria dentro de una sola conversación se aplica no sólo a Opus 4.5, sino a cualquier modelo actual de Claude en las aplicaciones.
Los usuarios que experimentaron finales abruptos (a pesar de que les quedaba espacio en su sesión y presupuestos de uso semanales) estaban alcanzando una ventana de contexto difícil (200.000 tokens). Mientras que algunas implementaciones de modelos de lenguaje grandes simplemente comienzan a recortar mensajes anteriores del contexto cuando una conversación pasa el máximo en la ventana, Claude simplemente finaliza la conversación en lugar de permitir que el usuario experimente una conversación cada vez más incoherente en la que el modelo comenzaría a olvidar cosas según su antigüedad.
Ahora, Claude pasará por un proceso detrás de escena para resumir los puntos clave de las partes anteriores de la conversación, intentando descartar lo que considera superfluo y manteniendo lo importante.
Los desarrolladores que llaman a la API de Anthropic pueden aprovechar los mismos principios mediante la gestión y la compactación del contexto.
Rendimiento del Opus 4.5
Opus 4.5 es el primer modelo que supera una puntuación de precisión del 80 por ciento, específicamente, el 80,9 por ciento en el punto de referencia SWE-Bench Verified, superando por poco al GPT-5.1-Codex-Max recientemente lanzado de OpenAI (77,9 por ciento) y al Gemini 3 Pro de Google (76,2 por ciento). El modelo funciona particularmente bien en los puntos de referencia de codificación agente y uso de herramientas agente, pero aún está por detrás de GPT-5.1 en razonamiento visual (MMMU).




