La conferencia tecnológica anual de Amazon Web Services, AWS re:Invent, ha finalizado. Y el mensaje singular, en medio de una avalancha de noticias sobre productos y conferencias magistrales, fue IA para la empresa.
Este año se trató de actualizaciones que brindan a los clientes un mayor control para personalizar los agentes de IA, incluido uno que, según AWS, puede aprender de usted y luego trabajar de forma independiente durante días. El Dr. Werner Vogels, CTO de Amazon, culminó la última noche con un discurso de apertura destinado a animar a los desarrolladores y disipar cualquier temor de que la IA esté llegando a los trabajos de ingeniería.
AWS re: Inventar 2025que se extenderá hasta el 5 de diciembre, comenzó con un discurso de apertura del director ejecutivo de AWS, Matt Garman, quien se inclinó por la idea de que los agentes de IA pueden desbloquear el «verdadero valor» de la IA.
«Los asistentes de IA están empezando a dar paso a agentes de IA que pueden realizar tareas y automatizar en su nombre», dijo durante el discurso de apertura del 2 de diciembre. «Aquí es donde estamos empezando a ver retornos comerciales sustanciales de sus inversiones en IA».
El 3 de diciembre, la conferencia continuó con los mensajes de los agentes de IA, así como con análisis más profundos de las historias de los clientes. Swami Sivasubramanian, vicepresidente de Agentic AI en AWS, pronunció una de las charlas magistrales. Decir que era optimista tal vez sea subestimar la vibra.
«Vivimos tiempos de grandes cambios», dijo Sivasubramanian durante la charla. «Por primera vez en la historia, podemos describir lo que queremos lograr en lenguaje natural y los agentes generan el plan. Escriben el código, llaman a las herramientas necesarias y ejecutan la solución completa. Los agentes te dan la libertad de construir sin límites, acelerando en gran medida la rapidez con la que puedes pasar de la idea al impacto».
Si bien las noticias sobre agentes de IA prometen ser una presencia persistente en AWS re:Invent 2025, también hubo otros anuncios. Aquí hay un resumen de los que llamaron nuestra atención. TechCrunch actualizará este artículo, con las ideas más recientes en la parte superior, hasta el final de AWS re:Invent. Asegúrate de volver a consultar.
Werner fuera…
El CTO de Amazon, Werner Vogels, pronunció el discurso de clausura de la conferencia y parece que esta será la última.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
«Este es mi discurso final sobre re: Invent», dijo, y luego agregó rápidamente que no dejará la empresa. «No voy a dejar Amazon ni nada por el estilo, pero creo que después de 14 re:Invents a ustedes se les deben voces nuevas, frescas y jóvenes».
Luego, Vogels pasó más de una hora hablando ante una sala repleta antes de terminar con un “Werner, fuera” y una caída literal del micrófono.
¿La IA te quitará el trabajo?
Vogels dedicó gran parte del discurso de clausura a hablar sobre la IA y su papel en el futuro, incluida la amenaza inminente de que elimine puestos de trabajo.
«¿La IA me quitará el trabajo? Quizás», preguntó y respondió Vogels, antes de señalar que algunas tareas se automatizarán y algunas habilidades quedarán obsoletas. «Así que tal vez deberíamos reformular y reformular esta pregunta. ¿La IA me hará obsoleto? Absolutamente no, si evolucionas».
CPU de próxima generación
AWS desvelado su CPU Graviton5 el jueves, el chip de próxima generación que la compañía promete será el de mayor rendimiento y eficiencia hasta el momento. El Graviton5 contiene 192 núcleos de procesador, un diseño denso y eficiente que, según AWS, reduce la distancia que los datos deben viajar entre los núcleos. Esto ayuda a reducir la latencia de comunicación entre núcleos hasta en un 33% y al mismo tiempo aumenta el ancho de banda, dijo la compañía.
Duplicar la apuesta por los LLM
AWS anunció más herramientas para que los clientes empresariales crear sus propios modelos. Específicamente, AWS dijo que está agregando nuevas capacidades tanto para Amazon Bedrock como para Amazon SageMaker AI para facilitar la creación de LLM personalizados.
Por ejemplo, AWS está incorporando la personalización de modelos sin servidor a SageMaker, lo que permite a los desarrolladores comenzar a crear un modelo sin necesidad de pensar en recursos informáticos o infraestructura. Se puede acceder a la personalización del modelo sin servidor a través de una ruta autoguiada o solicitando a un agente de IA.
AWS también anunció Reinforcement Fine Tuning en Bedrock, que permite a los desarrolladores elegir un flujo de trabajo preestablecido o un sistema de recompensas y hacer que Bedrock ejecute su proceso de personalización automáticamente de principio a fin.
Andy Jassy comparte algunos números
El director ejecutivo de Amazon, Andy Jassy, recurrió a la plataforma de redes sociales X para explicar el discurso de apertura del jefe de AWS, Matt Garman. El mensaje: La generación actual de su chip AI Trainium2, competidor de Nvidia, es ya trayendo mucho dinero en efectivo.
Sus comentarios estaban relacionados con la revelación de su chip de próxima generación, Trainium3, y pretendían pronosticar un futuro prometedor de ingresos para el producto.
Llega el ahorro de base de datos
Escondido entre las docenas de anuncios hay un elemento que ya está recibiendo aplausos: descuentos.
Específicamente, AWS dijo que estaba lanzando planes de ahorro de bases de datos, que ayudan a los clientes a reducir los costos de las bases de datos hasta en un 35% cuando se comprometen a una cantidad constante de uso ($/hora) durante un período de un año. La compañía dijo que los ahorros se aplicarán automáticamente cada hora al uso elegible en todos los servicios de bases de datos compatibles, y cualquier uso adicional más allá del compromiso se facturará a tarifas según demanda.
Corey Quinn, economista jefe de la nube de Duckbill, lo resumió bien en la publicación de su blog«Seis años de quejas finalmente dan sus frutos».
No hay mejor oferta que gratis, espera Amazon
¿Hay alguna forma de que otra herramienta de codificación de IA se gane el corazón de los fundadores de startups? Amazon espera que un año de créditos, gratuitos, sirva para su oferta, Kiro. La empresa regalará créditos para Kiro Pro+ a startups calificadas que soliciten el acuerdo antes de fin de mes. Sin embargo, sólo son elegibles las empresas emergentes en etapa inicial en ciertos países.
Un chip de entrenamiento de IA y compatibilidad con Nvidia
AWS presentó un nueva versión de su chip de entrenamiento de IA llamado Trainium3 junto con un sistema de inteligencia artificial llamado UltraServer que lo ejecuta. El TL;DR: Este chip mejorado viene con algunas especificaciones impresionantes, incluida la promesa de ganancias de rendimiento de hasta 4 veces tanto para el entrenamiento como para la inferencia de IA, al tiempo que reduce el uso de energía en un 40 %.
AWS también proporcionó un adelanto. La compañía ya tiene en desarrollo Trainium4, que podrá funcionar con los chips de Nvidia.
Capacidades ampliadas de AgentCore
AWS anunció nuevas funciones en su plataforma de creación de agentes AgentCore AI. Una característica a destacar es la Política en AgentCore, que brinda a los desarrolladores la capacidad de establecer límites más fácilmente para los agentes de IA.
AWS también anunció que los agentes ahora podrán registrar y recordar cosas sobre sus usuarios. Además, anunció que ayudará a sus clientes a evaluar agentes a través de 13 sistemas de evaluación prediseñados.
Una abeja obrera agente de IA sin parar
AWS anunció tres nuevos agentes de IA (existe ese término nuevamente) llamados “agentes de frontera”, incluido uno llamado “agente autónomo Kiro” que escribe código y está diseñado para aprender cómo le gusta trabajar a un equipo. por lo que puede funcionar en gran medida por sí solo durante horas o días.
Otro de estos nuevos agentes maneja procesos de seguridad como revisiones de código, y el tercero realiza tareas de DevOps como la prevención de incidentes al publicar código nuevo. Las versiones preliminares de los agentes ya están disponibles.
Nuevos modelos y servicios Nova
AWS se está implementando cuatro nuevos modelos de IA dentro de su familia de modelos Nova AI, tres de los cuales generan texto y uno puede crear texto e imágenes.
La compañía también anunció un nuevo servicio llamado Nova Forge que permite a los clientes de la nube de AWS acceder a modelos previamente entrenados, entrenados a mitad o post-entrenados que luego pueden completar entrenando con sus propios datos patentados. El gran argumento de AWS es la flexibilidad y la personalización.
El argumento de Lyft a favor de los agentes de IA
La empresa de transporte compartido se encontraba entre muchos clientes de AWS que intervino durante el evento para compartir sus historias de éxito y evidencia de cómo los productos afectaron su negocio. Lyft está utilizando el modelo Claude de Anthropic a través de Amazon Bedrock para crear un agente de inteligencia artificial que maneje las preguntas y problemas de conductores y pasajeros.
La compañía dijo que este agente de IA ha reducido el tiempo promedio de resolución en un 87%. Lyft también dijo que ha visto un aumento del 70% en el uso del agente de IA por parte de los conductores este año.
Una fábrica de IA para el centro de datos privado
Amazon también anunció “Fábricas de IA” que permiten a grandes corporaciones y gobiernos ejecutar sistemas de IA de AWS en sus propios centros de datos.
El sistema fue diseñado en asociación con Nvidia e incluye tanto la tecnología de Nvidia como la de AWS. Si bien las empresas que lo utilizan pueden equiparlo con GPU Nvidia, también pueden optar por el chip de inteligencia artificial más nuevo de Amazon, el Trainium3. El sistema es la forma en que Amazon aborda la soberanía de los datos, o la necesidad de los gobiernos y muchas empresas de controlar sus datos y no compartirlos, ni siquiera para utilizar la IA.
Vea las últimas revelaciones sobre todo, desde IA agente e infraestructura en la nube hasta seguridad y mucho más, en el evento emblemático de Amazon Web Services en Las Vegas. Este vídeo se presenta en asociación con AWS.




