Qualcomm представила новое поколение чипов для искусственного интеллекта, предназначенных для масштабирования до уровня серверных стоек, однако интересной особенностью стала установка мобильной памяти прямо на сам модуль. Компания, изначально сосредоточенная на мобильных устройствах, за последние годы заметно расширила сферу деятельности — теперь Qualcomm активно развивает направления потребительских вычислений и ИИ-инфраструктуры. На этот раз производитель из Сан-Диего анонсировал решения AI200 и AI250, рассчитанные на использование в конфигурациях уровня дата-центров. Это знаменует собой выход нового игрока на рынок, где доминируют NVIDIA и AMD. При этом Qualcomm сумела предложить нестандартный подход, применив мобильную память LPDDR вместо привычной HBM.

Если сравнивать LPDDR с HBM, то ключевое преимущество нового подхода заключается в концепции «памяти, расположенной рядом с вычислениями» — так называемом near-memory-дизайне. В чипах Qualcomm используется до 768 гигабайт LPDDR-памяти на одном ускорителе, что существенно превышает объёмы HBM в аналогичных решениях. Эта архитектура снижает энергопотребление при передаче данных и удешевляет производство. Среди прочих плюсов — более высокая энергоэффективность, меньшая стоимость по сравнению с HBM, высокая плотность хранения, что особенно полезно для инференса, и улучшенные тепловые характеристики благодаря меньшему выделению тепла. Это может быть прорывом.