11.мая.2026
NPU в ноутбуках: что меняется для тех, кто закупает корпоративную технику
Привет, Хабр! Меня зовут Артем, я дата-инженер. В работе часто приходится выбирать: гонять вычисления в облаке или делать их ближе к данным, и у каждого варианта свои больные места. Но недавно ИИ-нагрузки начали переезжать с облачных GPU на обычные ноутбуки — Microsoft вписала нейропроцессор в требования к Copilot+ PC, AMD и Intel встраивают NPU прямо в SoC. Мне стало любопытно: что там на самом деле происходит?За маркетинговой шумихой скрывается сдвиг к гибридной архитектуре: тяжёлое остаётся в облаке, массовые задачи разъезжаются по устройствам сотрудников. Это меняет работу тех, кто такой парк закупает и обслуживает — добавляются требования к памяти и поддержке конкретных ИИ-фреймворков, появляется новая задача доставки и обновления моделей на устройствах, а горизонт планирования у ИТ-отделов оказывается короче, чем кажется.Я заинтересовался темой после одного бенчмарка: NPU в ноутбуке AMD Ryzen AI 300 генерировал изображение 70 секунд, а встроенный GPU того же чипа справлялся за 30 — специализированный нейропроцессор проиграл универсальному вдвое на задаче, под которую его затачивали. Через эту аномалию хорошо видно, как устроены три процессора в одном SoC. Разберём: чем NPU отличается от соседей по чипу, почему всё упирается в память, как LLM удаётся уместить на ноутбуке и что из этого реально работает в корпоративной среде уже сейчас. Читать далее
Название: NPU в ноутбуках: что меняется для тех, кто закупает корпоративную технику
Ссылка на источник:
https://habr.com/ru/companies/ru_mts/articles/1033588/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1033588