
Hoy, manzana publicado la lista de estudios que presentará en la 39ª Conferencia anual sobre Sistemas de Procesamiento de Información Neural (NeurIPS) en San Diego. Aquí están los detalles.
el de este año NeurIPS se llevará a cabo en San Diego del 2 al 7 de diciembre, con un evento satélite en la Ciudad de México del 30 de noviembre al 5 de diciembre.
En el evento de San Diego, Apple presentará varios artículos, entre ellos “La ilusión del pensamiento: comprensión de las fortalezas y limitaciones de los modelos de razonamiento a través de la lente de la complejidad del problema.» cual generó críticas de investigadores de la industria a principios de este año.
Además de su lista de presentaciones de investigación, Apple también patrocina múltiples grupos de afinidad, incluidos Women in Machine Learning, LatinX in AI y Queer in AI, todos los cuales también albergarán a empleados de Apple.
Las presentaciones de Apple cubrirán una variedad de temas relacionados con la investigación del aprendizaje automático, incluida la privacidad, las fortalezas y limitaciones de los modelos de razonamiento, enfoques innovadores para la IA generativa y más. Aquí está la lista completa de estudios que Apple presentará en NeurIPS, algunos de los cuales 9to5Mac ha cubierto en el pasado:
En el evento, Apple también tendrá un stand (#1103) donde los asistentes podrán interactuar con demostraciones en vivo de las múltiples iniciativas de aprendizaje automático de la empresa, que incluyen:
- mlx – un marco de matriz de código abierto diseñado para el silicio de Apple que permite el aprendizaje automático y la informática científica de forma rápida y flexible en el hardware de Apple. El marco está optimizado para la arquitectura de memoria unificada de Apple Silicon y aprovecha tanto la CPU como la GPU. Los visitantes podrán experimentar dos demostraciones de MLX:
- Generación de imágenes con un modelo de gran difusión en un iPad Pro con chip M5
- Computación distribuida con MLX y Apple Silicon: los visitantes podrán explorar la generación de texto y código con un modelo de 1 billón de parámetros que se ejecuta en Xcode en un grupo de cuatro Mac Studios equipados con chips M3 Ultra, cada uno de los cuales funciona con 512 GB de memoria unificada.
- VLM rápido – una familia de modelos de lenguaje de visión aptos para dispositivos móviles, creados con MLX. Estos modelos utilizan una combinación de arquitecturas CNN y Transformer para la codificación de visión diseñada específicamente para procesar imágenes de alta resolución. Juntos, demuestran un enfoque sólido que logra un equilibrio óptimo entre precisión y velocidad. Los visitantes podrán experimentar una demostración visual de preguntas y respuestas en tiempo real en el iPhone 17 Pro Max.
Para obtener más información sobre la presencia de Apple en NeurIPS, sigue este enlace.
Ofertas de accesorios en Amazon
FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.




