- Команда форума
- #1
Tristan
XenBaza
Запросы ИИ-компаний на следующий год оцениваются в 3 Эбайт (эксабайт, 10^18 байт). Из них около 1,5 Эбайт нужно Google, OpenAI и AWS для работы текущих моделей. Дополнительно 800 Пбайт потребуются приватным облакам Apple, Meta и китайским чат-ботам. Ещё 500 Пбайт израсходуется на обучение новых моделей. И это как будто немного, ведь суммарно все производители способны сделать за год около 40 Эбайт «обычной» памяти.
Но есть нюанс: выпуск нужной для ИИ-ускорителей HBM и GDDR7 сложнее и съедает больше кремния. Из-за этого 1 Гбайт HBM загружает производственные линии, как 4 Гбайт DDR4/DDR5; а 1 Гбайт GDDR7 - как 1,7 Гбайт DDR4/DDR5. Поэтому доля чипов для ИИ в загрузке фабрик существенно превышает их долю в отгрузках по объёму, как раз и создавая нехватку производственных мощностей.
Итог: хотя производство DRAM вырастет в 2026 году на 15-20 %, в реальности мы этого не заметим. Спрос будет и дальше превышать предложение на 10-15 %, а цены продолжат расти.