Cuando toco la aplicación de Anthropic's claudio ai en mi teléfono y le doy un mensaje, digamos: «Cuéntame una historia sobre un gato travieso», suceden muchas cosas antes de que el resultado («El gran atraco al atún») aparezca en mi pantalla.
Mi solicitud se envía a la nube: una computadora en un gran centro de datos en algún lugar – para ser ejecutado a través del Soneto 4.5 de Claude modelo de lenguaje grande. El modelo reúne una respuesta plausible utilizando texto predictivo avanzado, basándose en la enorme cantidad de datos con los que ha sido entrenado. Luego, esa respuesta se envía de regreso a mi iPhone y aparece palabra por palabra, línea por línea, en mi pantalla. Ha viajado cientos, si no miles, de millas y ha pasado por varias computadoras en su viaje hacia y desde mi pequeño teléfono. Y todo sucede en segundos.
Este sistema funciona bien si lo que estás haciendo es de bajo riesgo y la velocidad no es realmente un problema. Puedo esperar unos segundos para mi pequeña historia sobre Bigotes y su desventura en un mueble de cocina. Pero no todas las tareas de la inteligencia artificial son así. Algunos requieren una velocidad tremenda. Si un dispositivo de inteligencia artificial va a alertar a alguien sobre un objeto que bloquea su camino, no puede permitirse el lujo de esperar uno o dos segundos.
Otras solicitudes requieren más privacidad. No me importa si la historia del gato pasa por docenas de computadoras propiedad de personas y empresas que no conozco y en las que no confío. Pero ¿qué pasa con mi información de salud o mis datos financieros? Quizás quiera mantener esto bajo control.
No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.
La velocidad y la privacidad son dos razones principales por las que los desarrolladores de tecnología están trasladando cada vez más el procesamiento de IA de los enormes centros de datos corporativos a dispositivos personales como su teléfono, computadora portátil o reloj inteligente. También hay ahorros de costos: no hay necesidad de pagarle a un gran operador de centro de datos. Además, los modelos integrados en el dispositivo pueden funcionar sin conexión a Internet.
Pero hacer posible este cambio requiere mejor hardware y modelos de IA más eficientes, a menudo más especializados. La convergencia de esos dos factores determinará en última instancia qué tan rápida y fluida será su experiencia en dispositivos como su teléfono.
Mahadev Satyanarayanan, conocido como Satya, es profesor de informática en la Universidad Carnegie Mellon. Durante mucho tiempo ha investigado lo que se conoce como computación de borde: el concepto de manejar el procesamiento y almacenamiento de datos lo más cerca posible del usuario real. Dice que el modelo ideal para una verdadera informática de punta es el cerebro humano, que no descarga tareas como visión, reconocimiento, habla o inteligencia a ningún tipo de «nube». Todo sucede ahí mismo, completamente «en el dispositivo».
«Aquí está el truco: a la naturaleza le tomó mil millones de años evolucionar», me dijo. «No tenemos mil millones de años para esperar. Estamos tratando de hacer esto en cinco o diez años, como máximo. ¿Cómo vamos a acelerar la evolución?»
Lo acelera con una IA mejor, más rápida y más pequeña que se ejecuta en un hardware mejor, más rápido y más pequeño. Y como ya estamos viendo con las últimas aplicaciones y dispositivos, incluidos los que se esperan en CES 2026, está en marcha.
Probablemente la IA esté ejecutándose en tu teléfono ahora mismo
La IA en el dispositivo está lejos de ser novedosa. Recuerda en 2017 cuando pudiste desbloquear tu iPhone por primera vez sosteniéndolo frente a tu cara? Esa tecnología de reconocimiento facial utilizó un motor neuronal en el dispositivo; no es IA genérica como Claude o ChatGPT, pero es inteligencia artificial fundamental.
Los iPhones actuales utilizan un modelo de IA en el dispositivo mucho más potente y versátil. Tiene alrededor de 3 mil millones de parámetros: los cálculos individuales del peso dado a una probabilidad en un modelo de lenguaje. Esto es relativamente pequeño en comparación con los grandes modelos de uso general que ejecutan la mayoría de los chatbots de IA. Búsqueda profunda-R1por ejemplo, tiene 671 mil millones de parámetros. Pero no pretende hacerlo todo. En cambio, está diseñado para tareas específicas en el dispositivo, como resumir mensajes. Al igual que la tecnología de reconocimiento facial para desbloquear su teléfono, esto es algo que no puede permitirse depender de una conexión a Internet para ejecutar un modelo en la nube.
Apple ha aumentado sus capacidades de IA en el dispositivo, denominadas Inteligencia de Apple — para incluir funciones de reconocimiento visual, como permitirle busca cosas de las que tomaste una captura de pantalla.
Los modelos de IA en dispositivos están en todas partes. Los teléfonos Pixel de Google ejecutan el modelo Gemini Nano de la compañía en su versión personalizada Chip tensor G5. Ese modelo impulsa características como señal mágicaque muestra información de tus correos electrónicos, mensajes y más, justo cuando la necesitas, sin tener que buscarla manualmente.
Los desarrolladores de teléfonos, computadoras portátiles, tabletas y el hardware que contienen están construyendo dispositivos teniendo en cuenta la IA. Pero va más allá de eso. Piense en los relojes y gafas inteligentes, que ofrecen un espacio mucho más limitado que incluso el teléfono más delgado.
«Los desafíos del sistema son muy diferentes», afirmó Vinesh Sukumar, jefe de IA generativa y aprendizaje automático de Qualcomm. «¿Puedo hacerlo todo en todos los dispositivos?»
En este momento, la respuesta suele ser no. La solución es bastante sencilla. Cuando una solicitud excede las capacidades del modelo, descarga la tarea a un modelo basado en la nube. Pero dependiendo de cómo se gestione esa transferencia, puede socavar uno de los beneficios clave de la IA en el dispositivo: mantener sus datos completamente en sus manos.
IA más privada y segura
Los expertos señalan repetidamente que la privacidad y la seguridad son ventajas clave de la IA en los dispositivos. En una situación de nube, los datos vuelan en todas direcciones y enfrentan más momentos de vulnerabilidad. Si permanece en un teléfono cifrado o en una unidad de computadora portátil, es mucho más fácil de proteger.
Los datos empleados por los modelos de IA de sus dispositivos podrían incluir cosas como sus preferencias, historial de navegación o información de ubicación. Si bien todo eso es esencial para que la IA personalice su experiencia según sus preferencias, también es el tipo de información que quizás no desee que caiga en las manos equivocadas.
«Lo que estamos presionando es asegurarnos de que el usuario tenga acceso y sea el único propietario de esos datos», dijo Sukumar.
Apple Intelligence le dio a Siri una nueva apariencia en el iPhone.
Hay algunas maneras diferentes en que se puede manejar la descarga de información para proteger su privacidad. Un factor clave es que tendrías que dar permiso para que esto suceda. Sukumar dijo que el objetivo de Qualcomm es garantizar que las personas estén informadas y tengan la capacidad de decir no cuando un modelo llega al punto de descargarse a la nube.
Otro enfoque, que puede funcionar junto con el requisito del permiso del usuario, es garantizar que todos los datos enviados a la nube se manejen de forma segura, breve y temporal. Apple, por ejemplo, utiliza una tecnología que llama Computación en la nube privada. Los datos descargados se procesan únicamente en los propios servidores de Apple, solo se envían los datos mínimos necesarios para la tarea y ninguno de ellos se almacena ni se hace accesible a Apple.
IA sin el coste de la IA
Los modelos de IA que se ejecutan en dispositivos tienen una ventaja tanto para los desarrolladores como para los usuarios de aplicaciones, ya que el costo continuo de ejecutarlos es básicamente nulo. No existe ninguna empresa de servicios en la nube que pague por la energía y la potencia informática. Está todo en tu teléfono. Tu bolsillo es el centro de datos.
Eso es lo que atrajo a Charlie Chapman, desarrollador de una aplicación de máquina de ruido llamada Ruido Oscurohasta usar Foundation Models Framework de Apple para una herramienta que le permite crear una mezcla de sonidos. El modelo de IA en el dispositivo no genera audio nuevo, solo selecciona diferentes sonidos y niveles de volumen existentes para hacer una mezcla.
Debido a que la IA se ejecuta en el dispositivo, no hay ningún costo continuo mientras realizas tus mezclas. Para un pequeño desarrollador como Chapman, eso significa que hay menos riesgo asociado a la escala de la base de usuarios de su aplicación. «Si algún influencer publicó al azar sobre esto y obtuve una increíble cantidad de usuarios gratuitos, no significa que de repente voy a quebrar», dijo Chapman.
La falta de costos continuos de la IA en el dispositivo permite automatizar tareas pequeñas y repetitivas, como la entrada de datos, sin grandes costos ni contratos informáticos, dijo Chapman. La desventaja es que los modelos en el dispositivo difieren según el dispositivo, por lo que los desarrolladores tendrían que trabajar aún más para garantizar que sus aplicaciones funcionen en hardware diferente.
Cuantas más tareas de IA se manejen en dispositivos de consumo, menos tendrán que gastar las empresas de IA en la construcción masiva de centros de datos que tiene a todas las grandes empresas de tecnología luchando por conseguir dinero en efectivo y chips de computadora. «El costo de la infraestructura es enorme», dijo Sukumar. «Si realmente se quiere impulsar la escala, no se debe aumentar esa carga de costos».
El futuro es cuestión de velocidad
Especialmente cuando se trata de funciones en dispositivos como gafas, relojes y teléfonos, gran parte de la utilidad genuina de la IA y el aprendizaje automático no es como el chatbot que usé para contar una historia de gatos al principio de este artículo. Son cosas como el reconocimiento de objetos, la navegación y la traducción. Estos requieren modelos y hardware más especializados, pero también requieren más velocidad.
Satya, el profesor de Carnegie Mellon, ha estado investigando diferentes usos de los modelos de IA y si pueden funcionar con suficiente precisión y rapidez utilizando modelos en el dispositivo. Cuando se trata de clasificación de imágenes de objetos, la tecnología actual funciona bastante bien: es capaz de ofrecer resultados precisos en 100 milisegundos. «Hace cinco años, no éramos capaces de conseguir ese tipo de precisión y velocidad», dijo.
Esta captura de pantalla recortada de un video capturado con las gafas Oakley Meta Vanguard AI muestra métricas de entrenamiento extraídas del reloj Garmin emparejado.
Pero para otras cuatro tareas (detección de objetos, segmentación instantánea (la capacidad de reconocer objetos y su forma), reconocimiento de actividad y seguimiento de objetos) los dispositivos aún necesitan descargarse a una computadora más potente en otro lugar.
«Creo que en los próximos años, cinco años más o menos, será muy emocionante a medida que los proveedores de hardware sigan intentando hacer que los dispositivos móviles estén mejor adaptados a la IA», dijo Satya. «Al mismo tiempo, también tenemos algoritmos de IA que se vuelven más potentes, más precisos y más intensivos en computación».
Las oportunidades son inmensas. Satya dijo que los dispositivos en el futuro podrían usar la visión por computadora para alertarlo antes de que se tropiece con un pago desigual o recordarle con quién está hablando y brindarle contexto sobre sus comunicaciones pasadas con ellos. Este tipo de cosas requerirán una IA y un hardware más especializados.
«Estos van a surgir», dijo Satya. «Podemos verlos en el horizonte, pero aún no están aquí».




