На октябрьском форуме Qualcomm AI Developer Summit 2025 анонсировали чипы и стоечные (серверные) платформы Qualcomm AI200 и AI250, предназначенные для ускрения рабочих нагрузок ИИ в дата-центрах. Они созданы на осонове адаптированной для ЦОДов архитектуры Hexagon NPU.
Специализированный чип Qualcomm AI200, основанный на нейронном сопроцессоре Hexagon, и стоечная платформа предназначены для повышения производительности формирования логических выводов больших языковых моделей (LLM) и мультимодальных моделей (LMM). Решение оптимизировано для уже обученных моделей ИИ и обладает стабильной производительностью при относительно низком энергопотреблении и высокой масштабируемости.
AI200 поддерживает до 768 Гбайт оперативной памяти LPDDR на плате PCIe, что позволяет запускать крупномасштабные модели на одном устройстве, а также использует жидкостное охлаждение. Система рассчитана на мощность потребления в стойке до 160 кВт и обеспечивает снижение совокупной стоимости владения, утверждают в Qualcomm.
Платформа AI200, которая будет коммерчески доступна в 2026 году, способна, как ожидают, конкурировать на рынке ускорителей ИИ с решениями на базе графических процессоров Nvidia и AMD.
Кардинально повысит эффективность формирования логических выводов LLM и LMM новое поколение специализированных ускорителей генеративного ИИ для дата-центров на основе инновационной архитектуры памяти и вычислений — AI250, считают представители компании. Выпуск AI250 намечен на 2027 год.
Архитектура вычислений в непосредственной близости от памяти (near-memory computing), по данным разработчиков, на порядок увеличит пропускную способность по сравнению с AI200. Это позволит повысить производительность за счет дезагрегации (разделения на этапы) процесса формирования логических выводов ИИ, а также более эффективного использовать аппаратное обеспечение.
AI250 адресуют корпоративным и облачным ЦОДам, требующим масштабируемых, высокопроизводительных и энергоэффективных платформ для логических выводов генеративного ИИ. Платформа совместима с такими популярными фреймворками машинного обучения и генеративного ИИ, как PyTorch, ONNX, LangChain и ряд других.
По мнению отраслевых экспертов, рынок позитивно воспринял анонс Qualcomm, который указывает на переход отрасли к специализированным платформам, адаптированным к конкретным рабочим нагрузкам. В Info-Tech Research Group, к примеру, считают, что спрос на логические выводы будет расти по мере того, как предприятия будут внедрять агентский ИИ, а соответствующее оборудование станет более экономичным и масштабируемым, и советуют Qualcomm продемонстрировать новые платформы «как жизнеспособное решение для корпоративных задач».