Вкалывают роботы - платит человек.
ИИ-инфраструктура требует все больше DRAM и хранилищ.
Дефицит памяти оказался серьёзнее, чем казалось на первый взгляд. Цены на DRAM и NAND-флеш в первом квартале 2026 года взлетают из-за того, что технологические гиганты и облачные провайдеры, одержимые искусственным интеллектом, перегружают производственные цепочки до предела.
В начале января аналитики TrendForce предупреждали, что контрактные цены на DRAM — тип памяти, который используется везде, от смартфонов до серверов — могут вырасти на 55-60 % за первый квартал 2026 года. Одновременно NAND-флеш, который применяется в твердотельных накопителях, должен был подорожать на 33-38 %. На этой неделе TrendForce пересмотрела свои прогнозы. Теперь аналитики ожидают, что контрактные цены на DRAM взлетят на 90-95 % по сравнению с предыдущим кварталом, а NAND подорожает на 55-60 %.
Основная причина — спрос со стороны ИИ-индустрии, но TrendForce отмечает, что ситуацию усугубили неожиданно высокие поставки компьютеров в четвёртом квартале 2025 года. Производители вроде Dell и HP обычно закупают память оптом примерно за год до ожидаемого спроса. Если вы замечали, что цены на готовые системы от крупных брендов держались стабильно, пока отдельные модули памяти дорожали втрое — вот одна из причин. Но теперь складские запасы заканчиваются, и, когда производители начнут пополнять их по новым ценам, стоимость готовых систем тоже поползёт вверх.
TrendForce ожидает, что цены на память для компьютеров примерно удвоятся по сравнению с праздничным кварталом. Похожий резкий рост прогнозируется для LPDDR-памяти, которая используется в ноутбуках с распаянной оперативкой и в смартфонах.
Цены на LPDDR4x и LPDDR5x могут вырасти примерно на 90 % — это будет «самым крутым скачком в их истории». До недавнего времени LPDDR в основном применялась в ноутбуках, но теперь самые мощные стоечные системы Nvidia содержат по 54 терабайта LPDDR5x-памяти каждая, что явно не помогает ситуации.
Цены на NAND-флеш тоже резко растут, поскольку технологические гиганты и облачные провайдеры стремятся развернуть как можно больше SSD для ИИ-задач.
«Спрос на высокопроизводительные накопители значительно превзошёл первоначальные ожидания по мере роста ИИ-приложений», — пишет TrendForce. С конца 2025 года ведущие североамериканские облачные провайдеры резко увеличили закупки, что привело к всплеску заказов корпоративных SSD.
По мере того как ИИ-инфраструктура переходит от обучения моделей к их практическому применению, требуется всё больше DRAM и хранилищ. Во время работы больших языковых моделей состояние модели сохраняется в так называемом кеше ключ-значение — что-то вроде краткосрочной памяти модели. Во время активного использования, например в чат-боте, этот кеш вычисляется и обычно хранится в высокоскоростной памяти HBM. Когда сессия простаивает, предвычисленный кеш переносится в более медленную системную память, а иногда в конечном итоге попадает на уровень хранилищ.
Сохранение кеша позволяет провайдерам резко сократить вычислительные затраты для длительных многосессионных взаимодействий и одновременно улучшить отзывчивость для пользователей. Обратная сторона — хранение всех этих предвычисленных кешей требует огромного количества памяти.
Если вы надеялись, что «зима на рынке памяти» скоро закончится, не стоит обольщаться. Хотя у производителей памяти теперь есть капитал на строительство новых фабрик, на запуск этих мощностей уйдут годы. Ожидается, что пик цен на DRAM наступит позже в этом году, но до возвращения к нормальным уровням пройдут годы. Высокие цены сохранятся как минимум до 2028 года.
Оставить комментарий