Эхбари
Sunday, 22 February 2026
Breaking

Как и когда закончится дефицит чипов памяти

Растущий спрос со стороны ИИ подталкивает цены вверх, экспер

Как и когда закончится дефицит чипов памяти
7DAYES
7 hours ago
6

США - Информационное агентство Эхбари

Как и когда закончится дефицит чипов памяти

Если в последнее время кажется, что все в технологиях связано с искусственным интеллектом (ИИ), то это действительно так. И нигде это не проявляется так ярко, как на рынке компьютерной памяти. Спрос и прибыльность типа динамической памяти с произвольным доступом (DRAM), используемой для питания графических процессоров (GPU) и других ускорителей в центрах обработки данных ИИ, настолько велики, что они отвлекают поставки от других применений, вызывая резкий рост цен. По данным Counterpoint Research, цены на DRAM уже выросли на 80-90% за текущий квартал.

Крупнейшие производители оборудования для ИИ сообщают, что они обеспечили себя чипами до 2028 года. Однако это оставляет всех остальных — производителей ПК, потребительских гаджетов и всех других устройств, требующих временного хранения миллиардов битов — в состоянии лихорадочной борьбы с дефицитом поставок и завышенными ценами. Как электронная промышленность оказалась в таком положении, и, что более важно, как она из него выйдет?

Экономисты и эксперты по памяти указывают на совпадение факторов: исторический цикл подъемов и спадов в отрасли DRAM и создание инфраструктуры оборудования для ИИ беспрецедентного масштаба. Если не произойдет значительного краха в секторе ИИ, прогнозируется, что пройдут годы, прежде чем новые мощности и технологические достижения приведут предложение в соответствие со спросом. Вполне возможно, что цены останутся высокими даже после достижения равновесия.

Чтобы понять динамику этой ситуации, крайне важно разобраться в основном двигателе колебаний спроса и предложения: памяти с высокой пропускной способностью (HBM). HBM представляет собой стратегию индустрии DRAM по обходу замедления темпов закона Мура путем применения технологии 3D-упаковки чипов. Каждый чип HBM состоит из 12 тонко нарезанных чипов DRAM, называемых "кристаллами" (dies). Каждый кристалл содержит множество вертикальных соединений, называемых "сквозными кремниевыми переходными отверстиями" (TSVs). Эти кристаллы укладываются друг на друга, соединяясь массивами микроскопических шариков припоя, выровненных по TSVs. Эта стопка DRAM — толщиной около 750 микрометров, больше напоминающая бруталистское офисное здание, чем изящную башню — затем монтируется на базовый кристалл, который управляет передачей данных между кристаллами памяти и процессором.

Эта сложная технологическая сборка располагается в миллиметре от GPU или другого ускорителя ИИ, соединяясь до 2 048 микросоединений. HBM обычно крепятся с двух сторон процессора, объединяя GPU и память в единый упакованный узел. Цель такого тесного соседства и высокоскоростного соединения с GPU — преодолеть "стеклянный потолок памяти" (memory wall) — энергетический и временной барьер, возникающий при попытке передать терабайты данных в секунду, необходимые для работы больших языковых моделей (LLM), в GPU. Пропускная способность памяти является критическим узким местом, ограничивающим скорость работы LLM.

Хотя технология HBM существует более десяти лет, и производители DRAM постоянно совершенствуют ее возможности, ее важность для GPU резко возросла параллельно с увеличением размера моделей ИИ. Этот рост значимости сопровождался значительными затратами. По оценкам SemiAnalysis, HBM обычно стоит в три раза дороже других типов памяти и составляет 50% или более от общей стоимости упакованного GPU.

Отраслевые наблюдатели сходятся во мнении, что сектор DRAM по своей природе цикличен, характеризуется периодами значительного подъема, за которыми следуют серьезные спады. Поскольку новые производственные мощности (фабы) стоят 15 миллиардов долларов США и более, компании крайне неохотно расширяют мощности. Они часто располагают финансовыми ресурсами для этого только в периоды пиковой рыночной конъюнктуры, как объясняет Томас Кафлин, эксперт по хранению данных и памяти, президент Coughlin Associates. Однако строительство и ввод в эксплуатацию такого завода может занять 18 месяцев или более, что фактически гарантирует, что новые мощности поступят на рынок значительно позже первоначального всплеска спроса. Это часто приводит к насыщению рынка и снижению цен.

Истоки нынешнего цикла, по словам Кафлина, восходят к панике дефицита чипов во время пандемии COVID-19. Чтобы смягчить сбои в цепочке поставок и поддержать быстрый переход к удаленной работе, операторы гипермасштабируемых центров обработки данных, такие как Amazon, Google и Microsoft, приобрели огромные запасы памяти и хранения данных, искусственно завышая цены. Впоследствии, по мере нормализации цепочек поставок и замедления расширения центров обработки данных в 2022 году, цены на память и хранение данных резко упали. Этот спад продолжался и в 2023 году, вынудив крупные компании по производству памяти и хранения данных, включая Samsung, сократить производство до 50% в попытке предотвратить падение цен ниже себестоимости. Это была необычная и отчаянная мера, поскольку компании обычно полагаются на работу своих предприятий на полную мощность для возмещения инвестиций.

После начала восстановления в конце 2023 года, "все компании, занимающиеся памятью и хранением данных, стали очень осторожны в отношении увеличения производственных мощностей", отмечает Кафлин. "Следовательно, в течение 2024 года и большей части 2025 года практически не было инвестиций в новые производственные мощности".

Этот недостаток новых инвестиций резко контрастирует с огромным всплеском спроса, вызванным новыми центрами обработки данных. По данным Data Center Map, по всему миру планируется или строится около 2000 новых центров обработки данных. Если все эти объекты будут завершены, это будет означать 20%-ное увеличение мировых мощностей, которые в настоящее время составляют около 9000 объектов.

Если текущее строительство продолжится намеченными темпами, McKinsey прогнозирует, что к 2030 году компании инвестируют 7 триллионов долларов. Большая часть этих инвестиций — 5,2 триллиона долларов — будет направлена на центры обработки данных, ориентированные на ИИ. В рамках этого сегмента, по прогнозам фирмы, 3,3 триллиона долларов будут выделены на серверы, хранение данных и сетевое оборудование.

Nvidia, производитель GPU, стала самым значительным бенефициаром бума центров обработки данных ИИ. Выручка ее подразделения центров обработки данных выросла с чуть менее 1 миллиарда долларов в последнем квартале 2019 года до 51 миллиарда долларов в квартале, закончившемся в октябре 2025 года. За этот период ее серверные GPU требовали не только все больше гигабайт DRAM, но и увеличивающееся количество чипов DRAM. Недавно выпущенная модель B300 использует восемь чипов HBM, каждый из которых представляет собой стопку из 12 кристаллов DRAM. Конкуренты в значительной степени повторяют использование HBM компанией Nvidia; например, GPU MI350 от AMD также включает восемь HBM-чипов по 12 кристаллов.

При таком огромном спросе HBM все в большей степени вносит вклад в потоки доходов производителей DRAM. Micron, третий по величине производитель после SK Hynix и Samsung, сообщила, что HBM и другая память, связанная с облаком, составляли 17% ее доходов от DRAM в 2023 году, а в 2025 году эта цифра выросла почти до 50%. Micron прогнозирует, что общий рынок HBM вырастет с 35 миллиардов долларов в 2025 году до 100 миллиардов долларов к 2028 году, превзойдя весь рынок DRAM 2024 года.

Ключевые слова: # чипы памяти # дефицит чипов # DRAM # HBM # ИИ # GPU # цены на память # индустрия полупроводников # центры обработки данных # NAND # TSMC # Samsung # SK Hynix # Micron