Apéndice IV - La NPU en los ordenadores personales: guía práctica para compradores (abril 2026)
1. La pregunta que importa: ¿para qué sirve realmente?
Si estás pensando en comprar un portátil o sobremesa nuevo y has visto los términos NPU, AI PC o Copilot+ PC, es normal preguntarse si son márketing o si hay algo tangible detrás.
La respuesta corta es: sí hay funciones reales, pero conviene saber exactamente cuáles, porque no todas las que se anuncian son igualmente útiles para todo el mundo.
Este apéndice explica qué es una NPU en términos prácticos, qué hace concretamente en Windows, macOS y Linux, y qué debes mirar al comprar un equipo nuevo en 2026.
2. Qué es una NPU y en qué se diferencia de CPU y GPU
Una NPU (Neural Processing Unit) es un chip especializado en ejecutar los cálculos matemáticos que usan los modelos de inteligencia artificial - específicamente las operaciones matriciales y tensoriales que están en la base de cualquier red neuronal.
La diferencia respecto a CPU y GPU es de especialización:
| Componente | Su fuerte | Su límite en IA | Para qué se usa en IA |
|---|---|---|---|
| CPU | Tareas variadas, lógica general, control del sistema | Lenta en operaciones matriciales masivas | Coordinar tareas, modelos muy pequeños |
| GPU | Paralelismo masivo, gráficos, entrenamiento de modelos | Alto consumo energético; cara en portátiles | Entrenar modelos, ejecutar LLMs grandes localmente |
| NPU | Eficiencia energética, inferencia continua de modelos pequeños | No sirve para modelos grandes ni tareas generales | Funciones de IA del sistema operativo y apps |
La NPU no es un "cerebro de IA" general - es un chip eficiente para tareas de IA específicas y predefinidas, especialmente las que necesitan ejecutarse de forma continua sin agotar la batería (efectos de vídeo en tiempo real, transcripción, búsqueda semántica local).
3. El cambio clave: los SoC integrados (todo en un chip)
La gran novedad de los últimos dos años no es solo la NPU - es que CPU, GPU y NPU conviven ahora en un único chip, lo que se llama SoC (System on a Chip).
En los ordenadores anteriores, CPU, GPU y otros componentes eran chips separados que se comunicaban a través del bus del sistema, con la latencia y el consumo que eso implica. En los SoC modernos, todos los componentes comparten el mismo sustrato de silicio y, en muchos casos, la misma memoria.
Esto tiene consecuencias prácticas muy importantes:
- Menor latencia: la CPU puede pasar datos a la NPU sin cruzar el bus del sistema.
- Mayor eficiencia energética: una sola arquitectura integrada consume menos que varios chips separados coordinándose.
- Memoria unificada (en Apple Silicon y algunos AMD): CPU, GPU y NPU comparten el mismo banco de memoria, sin necesidad de copiar datos de un lado a otro.
Los tres grandes ejemplos de este paradigma en 2026:
Apple Silicon (M4, M5) - El caso más maduro. CPU, GPU (hasta 40 núcleos), Neural Engine (NPU de 16 núcleos, 38 TOPS en M4) y controlador de memoria comparten un único chip fabricado en 3nm. La memoria unificada es especialmente ventajosa para ejecutar modelos de lenguaje locales: el ancho de banda del M4 Pro (273 GB/s) multiplica por cuatro el de cualquier PC con IA de Intel comparado en los mismos benchmarks.
AMD Ryzen AI 300 - La propuesta más equilibrada para Windows. Integra CPU Zen 5, GPU RDNA 3.5 y NPU XDNA 2 con hasta 50 TOPS, superando el umbral de 40 TOPS del estándar Copilot+ con margen. Es el chip que mejor equilibra rendimiento de IA, gráficos y precio en el ecosistema Windows en 2026.
Intel Core Ultra (serie 2, "Lunar Lake") - Hasta 48 TOPS de NPU, también compatible con Copilot+ PC. Muy buena autonomía en portátiles, aunque su GPU integrada es menos potente que la de AMD para tareas creativas.
Qualcomm Snapdragon X Elite / Plus - El pionero del estándar Copilot+ PC (45 TOPS), con arquitectura ARM. Excelente autonomía (hasta 22 horas en algunos modelos), pero la compatibilidad de software sigue siendo inferior a x86 para aplicaciones de Windows específicas, aunque mejora cada mes.
4. Qué hace la NPU en la práctica: funciones reales
4.1 Windows 11 - Copilot+ PC
Microsoft ha definido el estándar Copilot+ PC: cualquier equipo con Windows 11, al menos 16 GB de RAM, 256 GB de SSD y una NPU de 40 TOPS o más tiene acceso a un conjunto de funciones exclusivas que se ejecutan localmente sin enviar datos a la nube.
Estas son las funciones reales disponibles a abril de 2026:
| Función | Qué hace | Dónde se ejecuta | Utilidad real |
|---|---|---|---|
| Recall | Toma capturas de pantalla periódicas y las indexa semánticamente. Permite buscar algo que viste hace días usando lenguaje natural ("aquel PDF con el presupuesto de marzo"). | Local (NPU + cifrado en disco) | Alta para usuarios con mucho flujo de documentos. Controversial por privacidad; se puede desactivar. |
| Windows Studio Effects | Mejora automática de videollamadas: desenfoque de fondo, corrección de mirada a cámara (Eye Contact), encuadre automático (Auto Framing), reducción de ruido de audio (Voice Focus), filtros creativos. | Local (NPU) | Muy alta. Es la función más utilizada en la práctica. Funciona en cualquier app de videollamada (Zoom, Teams, Meet) sin configuración adicional y sin consumir CPU. |
| Subtítulos en vivo con traducción | Transcribe en tiempo real cualquier audio que salga por el sistema (reuniones, vídeos, podcasts) y lo traduce a más de 40 idiomas al inglés (o al chino en algunos modelos), todo offline. | Local (NPU) | Alta para usuarios que trabajan con contenido en otros idiomas o con problemas de audición. |
| Búsqueda semántica mejorada | Permite buscar archivos y configuraciones usando lenguaje natural en lugar de nombres exactos. También funciona en OneDrive describiendo el contenido de fotos. | Local (NPU) | Media. Muy útil cuando funciona bien; aún en desarrollo. |
| Click to Do | Menú contextual inteligente: mantén pulsada la tecla Windows y haz clic en cualquier parte de la pantalla. La NPU analiza el contenido y sugiere acciones relevantes (eliminar objeto de imagen, resumir texto, buscar en internet). | Local (NPU) | Media. Ahorra pasos en tareas frecuentes. |
| Cocreator (Paint) | Genera imágenes a partir de texto o bocetos en tiempo real, mientras dibujas, sin conexión a internet. | Local (NPU) | Media-alta para usuarios creativos o educativos. |
| Restyle Image / Super Resolution (Fotos) | Transforma fotos con estilos artísticos (acuarela, óleo, boceto). Super Resolution aumenta la resolución de imágenes pequeñas o pixeladas con IA, sin subir nada a internet. Comparable a herramientas de pago como Topaz. | Local (NPU) | Alta para usuarios que trabajan con fotos. Super Resolution es especialmente valorada. |
| Borrado generativo / Relleno generativo (Paint) | Selecciona un objeto en una imagen, bórralo y Paint rellena el fondo de forma coherente. Añade objetos a partir de descripción de texto. | Local (NPU) | Alta. Lleva a Windows una función que antes solo existía en Photoshop de pago. |
| Phi Silica | Modelo de lenguaje pequeño (SLM) de Microsoft integrado en Windows, diseñado específicamente para la NPU. Permite a las aplicaciones de terceros hacer procesamiento de lenguaje natural localmente sin conexión. | Local (NPU) | Alta para desarrolladores; invisible para el usuario final pero habilitador de otras apps. |
Nota: Lo que no hace la NPU en Windows: el asistente de chat Copilot (conversaciones de texto, análisis de documentos, generación de texto avanzada) sigue procesándose en los servidores de Microsoft en la nube. La NPU solo interviene en las funciones locales listadas arriba.
4.2 macOS - Apple Intelligence
Apple lleva la ventaja de haber integrado CPU, GPU y Neural Engine en un solo SoC desde 2020 (Apple Silicon M1). En 2026, con los chips M4 y M5, esa integración está más madura y el rendimiento de IA local es significativamente superior al de los PC con Windows en tareas de memoria intensiva.
Apple Intelligence es el paraguas de funciones de IA local disponible en todos los Mac con Apple Silicon (M1 o superior):
- Herramientas de Escritura: reescritura, resumen, corrección de tono y estilo en cualquier campo de texto del sistema - correos, documentos, mensajes. Se ejecuta localmente en el Neural Engine.
- Resumen de notificaciones: agrupa y resume las notificaciones por aplicación.
- Siri mejorado con contexto de pantalla: Siri puede ver lo que hay en pantalla y actuar sobre ello.
- Generación de imágenes (Image Playground / Genmoji): crea imágenes e iconos personalizados a partir de texto, localmente.
- Búsqueda semántica en Fotos: encuentra imágenes describiendo su contenido ("foto en la playa con sombrero rojo") sin enviar nada a iCloud.
- Eliminación de objetos en Fotos: borra elementos de imágenes con relleno inteligente.
- Private Cloud Compute: cuando la tarea es demasiado compleja para procesarse en el dispositivo, Apple la envía a servidores propios en la nube que, según su política publicada, no almacenan los datos ni los usan para entrenar modelos.
La gran diferencia con Windows es que en Apple la integración software-hardware es mucho más profunda y homogénea: el mismo Neural Engine sirve para Siri, Fotos, Escritura y apps de terceros que usan Core ML. No hay fragmentación entre fabricantes de chips.
Nota de compatibilidad: Apple Intelligence requiere macOS Sequoia o posterior y chip M1 o superior. Los Mac con Intel quedan fuera de las funciones locales.
4.3 Linux - soporte real, pero fragmentado
Linux tiene soporte para NPUs, pero de forma más descentralizada:
- El kernel incluye controladores para las NPUs de Intel (via OpenVINO) y Qualcomm (via QCOM NPU driver).
- Las librerías ONNX Runtime y OpenVINO permiten que aplicaciones las utilicen sin depender del fabricante.
- ROCm de AMD da soporte a la GPU para IA, y el soporte de NPU XDNA va mejorando.
- Los entornos gráficos (GNOME, KDE) no aprovechan aún la NPU directamente.
En la práctica: un usuario de Linux no obtendrá funciones equivalentes a Recall, Studio Effects o Apple Intelligence instalando simplemente el sistema operativo. Puede, en cambio, usar herramientas como Whisper (transcripción), Ollama o LM Studio (modelos locales), o Upscayl (superresolución), que aprovechan la GPU o la NPU según soporte del sistema. Son herramientas que requieren algo más de configuración pero ofrecen más control y privacidad.
5. Lo que la NPU no hace: aclarando expectativas
Conviene ser explícito sobre lo que no está en manos de la NPU del portátil:
- Ejecutar LLMs grandes (como Claude Opus o GPT-5): esos modelos necesitan decenas o cientos de gigabytes de memoria. La NPU sirve para modelos pequeños y específicos. Para LLMs grandes siempre se necesita la nube.
- Acelerar el chat con Copilot, ChatGPT o Claude: toda esa inferencia ocurre en servidores remotos. La NPU local no interviene.
- Entrenamiento de modelos: la NPU es para inferencia (ejecutar un modelo ya entrenado), no para entrenarlo.
- Mejorar el rendimiento general del equipo: la NPU no acelera la CPU ni los juegos. Es un chip especializado que solo se activa en tareas de IA específicas.
6. Comparativa de ecosistemas (abril 2026)
| Aspecto | Windows 11 (Copilot+ PC) | macOS (Apple Silicon M4/M5) | Linux |
|---|---|---|---|
| Integración hardware-software | Media: depende del fabricante del chip (Intel / AMD / Qualcomm) | Muy alta: Apple controla chip y sistema | Baja: depende de drivers y librerías de terceros |
| Funciones de IA listas para usar | Recall, Studio Effects, Subtítulos, Cocreator, Super Resolution, Borrado generativo, Click to Do, Búsqueda semántica | Herramientas de Escritura, Siri con contexto, generación de imágenes, búsqueda en Fotos, eliminación de objetos, Private Cloud Compute | Sin equivalente nativo; herramientas manuales disponibles (Whisper, Ollama, Upscayl) |
| Efectos de vídeo en videollamadas | Windows Studio Effects (desenfoque, Eye Contact, Auto Framing, Voice Focus) en cualquier app | Efectos de Cámara nativa + Center Stage en FaceTime; las apps de terceros usan sus propios efectos | Mediante OBS o plugins específicos de la app; sin aceleración NPU nativa |
| Transcripción / subtítulos offline | Subtítulos en vivo con traducción a 40+ idiomas, en cualquier app | Transcripción en Notas de Voz y algunas apps; sin traducción offline universal | Whisper (manual); sin integración en el sistema |
| Retoque fotográfico con IA | Super Resolution, Restyle Image, Borrado generativo (Fotos y Paint) | Eliminación de objetos, ajustes automáticos (Fotos) | Upscayl, GIMP con plugins; sin integración nativa |
| Generación de imágenes offline | Cocreator en Paint (texto o boceto a imagen) | Image Playground, Genmoji | Stable Diffusion, Draw Things (manual) |
| Modelos LLM locales | Posible vía Ollama / LM Studio; la NPU ayuda poco, la GPU integrada más | Excelente: el ancho de banda de memoria unificada es ideal para LLMs cuantizados. LM Studio y Ollama funcionan muy bien. | La opción más flexible; requiere más configuración |
| Privacidad | Las funciones NPU son locales; Recall es opt-in y cifrado; el asistente Copilot va a la nube | Funciones locales en dispositivo; Private Cloud Compute para las demás (sin almacenamiento según Apple) | Máxima privacidad: el usuario controla qué se ejecuta y dónde |
| Requisito mínimo de NPU | 40 TOPS para Copilot+ PC (funciones completas) | Neural Engine desde M1 (16 núcleos); M4/M5 para mejor rendimiento | Variable; no hay estándar definido |
7. Guía práctica de compra
¿Necesito un Copilot+ PC o un Mac con Apple Silicon para aprovechar la IA?
Si usas Windows: sí, en 2026 la diferencia entre un equipo con NPU de 40+ TOPS y uno sin ella es visible. Studio Effects, Subtítulos en vivo y Super Resolution funcionan en cualquier Copilot+ PC sin configuración adicional y son genuinamente útiles. Si haces muchas videollamadas o trabajas con fotos, la inversión tiene sentido.
Si usas macOS: cualquier Mac con Apple Silicon (M1 o superior) ya tiene Neural Engine. No necesitas el M4 o M5 para acceder a Apple Intelligence - funciona desde el M1. La ventaja de los chips más recientes es el rendimiento en modelos locales grandes y en aplicaciones creativas.
Si usas Linux: la NPU no te aportará funciones equivalentes a las de Windows o macOS sin trabajo adicional. Lo que sí importa es tener buena GPU (para Ollama, Stable Diffusion) y memoria RAM suficiente para modelos locales.
Qué mirar al comprar
Para Windows (portátil o sobremesa):
- NPU de 40 TOPS o más (AMD Ryzen AI 300, Intel Core Ultra serie 2, Qualcomm Snapdragon X) - desbloquea todas las funciones Copilot+ PC.
- 16 GB de RAM mínimo (requisito Copilot+ PC). Para modelos locales, mejor 32 GB.
- Windows 11 (versión 24H2 o superior) - Windows 10 no soporta estas funciones.
- Si priorizas autonomía y portabilidad: Snapdragon X Elite / Plus (hasta 22 horas de batería, pero verifica compatibilidad del software que usas).
- Si priorizas rendimiento creativo y compatibilidad total: AMD Ryzen AI 300.
- Si quieres ejecutar modelos LLM locales: elige un modelo con GPU dedicada o, como mínimo, 32 GB de RAM y NPU potente.
Para macOS:
- Cualquier Mac con Apple Silicon (M1 o superior) da acceso a Apple Intelligence.
- Para trabajo creativo intensivo o LLMs locales: M4 Pro o M5 (memoria unificada y ancho de banda superiores).
- Para uso general: MacBook Air M4 o M5 - la mejor relación entre autonomía, silencio (sin ventiladores) y rendimiento de IA en 2026.
- Memoria unificada: mínimo 16 GB, mejor 24 GB si usas modelos locales.
Para cualquier plataforma:
- No confundas TOPS de NPU con rendimiento general del equipo. Un equipo con NPU de 50 TOPS pero CPU lenta no es mejor que uno con CPU rápida y NPU de 40 TOPS.
- Para LLMs locales, el ancho de banda de memoria importa más que los TOPS de la NPU.
- Las funciones de IA del sistema operativo son complementarias, no sustitutivas. Un buen equipo sigue dependiendo de CPU, GPU y RAM para el trabajo real.
8. Conclusión
Las NPUs integradas en los SoC modernos son un componente real con utilidad práctica concreta - no solo márketing. Las funciones más valiosas en la práctica cotidiana son los efectos de vídeo en videollamadas (especialmente Eye Contact y desenfoque de fondo), los subtítulos offline con traducción, la superresolución de imágenes y el borrado generativo de objetos en fotos, todas disponibles sin suscripción y sin enviar datos a la nube en los equipos compatibles.
El cambio hacia SoCs integrados (Apple Silicon, AMD Ryzen AI, Intel Core Ultra) no es solo una cuestión de velocidad: es una reorganización de la arquitectura que mejora la eficiencia energética, reduce la latencia y hace posible que funciones de IA corran continuamente en segundo plano sin agotar la batería.
El ecosistema más maduro y coherente en 2026 es macOS con Apple Silicon, donde la integración es total y las funciones de IA funcionan desde el primer arranque. Windows 11 con Copilot+ PC ofrece más funciones visibles y más opciones de hardware, pero con mayor fragmentación entre fabricantes. Linux ofrece el máximo control y privacidad, pero requiere trabajo manual para aproximarse a lo que los otros ecosistemas dan de forma automática.
En cualquier caso, la inversión en hardware con NPU tiene más sentido cuanto más tiempo pases en videollamadas, más trabajes con fotos y documentos, y más interés tengas en ejecutar funciones de IA sin depender de la nube. Para uso general sin esas necesidades, un equipo sin NPU potente sigue siendo perfectamente válido en 2026.
Revisado: abril 2026