Satya Nadella, CEO de Microsoft, declaró hace un par de días que estaba sumamente impresionado con las capacidades de DeepSeek R1
Microsoft acaba de anunciar hace apenas unas horas que traerá versiones 'NPU-optimized' (optimizadas para sus unidades de procesamiento neural) del modelo de IA DeepSeek-R1 a sus Copilot+ PCs bien pronto, para comenzar con los dispositivos que cuenten en sus entrañas con Snapdragon X, seguir con Intel Lunar Lake y a continuación los procesadores AMD Ryzen AI 9.
Microsoft cita en su blog: "estos modelos optimizados permiten a los desarrolladores diseñar y desplegar aplicaciones potenciadas con IA que funcionan eficientemente on-device, para aprovecharse totalmente de las NPUs presentes en los Copilot+ PCs".
Y sigue con unas frases que muestran la importancia de este despliegue: "Con nuestro trabajo en Phi Silica, fuimos capaces de aprovechar una inferencia altamente eficiente, caracterizada por un tiempo muy competitivo en el primer token y en las tasas de rendimiento, y con un mínimo impacto en la vida de la batería y el consumo de los recursos del PC".
En la publicación en su blog, el gigante tecnológico destaca cómo ha estado trabajando para asegurarse de que los modelos R1 funcionen de forma local en hardware basado en NPU: "Lo primero fue diseñar una ventana deslizante que desbloquea un tiempo súper rápido para el primer token que genera la IA (primer segmento de texto o palabra que se procesa en una interacción) y al soporte extenso del contexto y eso sin disponer del soporte de un tensor dinámico en el hardware".
El modelo que ha usado Microsoft en sus Copilot+ PCs es el 1.5B Distilled R1 (disponible aquí) y estará disponible dentro de poco. Próximamente desplegará los modelos destilados 7B y 14B; de hecho se pueden instalar estos modelos destilados en un PC a través de Ollama con una gran variedad de ellos y entre los que se encuentran los tres mencionados por Microsoft, aunque sus Copilot+ PCs cuentan con la ventaja de sus NPUs.
El objetivo es ofrecer DeepSeek R1 de forma local desde un Copilot+ PCs lo que ofrecería una experiencia inaudita para operar con una IA que en días ha demostrado estar por delante de ChatGPT, Claude o Gemini. Finalmente, según Windows Central, Microsoft hará disponible los modelos IA en el cloud a través de Azure AI Foundry.
Font, article de Manuel Ramírez per a "El Español"
No hay comentarios:
Publicar un comentario