Аналитики прогнозируют бурный рост рынка ИИ-серверов
Во втором квартале 2024 года объем поставок ИИ-серверов увеличился почти на 20% по сравнению с предыдущим кварталом. TrendForce пересмотрел годовой прогноз поставок до 1,67 млн единиц, что на 41,5% больше, чем в прошлом году. Крупные облачные провайдеры направляют свои бюджеты на закупку ИИ-серверов, что замедляет рост поставок обычных серверов до 1,9% в год. Ожидается, что доля ИИ-серверов в общем объеме поставок достигнет 12,5%, что на 3,4 процентных пункта выше, чем в 2023 году.
С точки зрения рыночной стоимости, ИИ-серверы окажут значительное влияние на рост выручки в 2024 году. Прогнозируется, что их рыночная стоимость превысит $187 млрд при темпе роста 69%, что составит 65% от общей стоимости серверов.
Североамериканские компании, такие как AWS и Meta, а также китайские гиганты Alibaba, Baidu и Huawei активно развивают собственные ASIC-решения. Доля ASIC-серверов может составить до 26% от общего рынка ИИ-серверов в 2024 году, тогда как на серверы с массовыми GPU придется около 71%.
Компания Nvidia сохранит лидирующую позицию на рынке ИИ-чипов для серверов, удерживая около 90% рынка GPU-оснащенных серверов. Доля AMD составит около 8%. Если учитывать все ИИ-чипы (GPU, ASIC, FPGA), то доля Nvidia составит около 64%.
Спрос на передовые ИИ-серверы останется высоким и в 2025 году. Ожидается выход нового поколения ИИ-ускорителей Nvidia Blackwell, которые заменят Hopper. Это приведет к увеличению спроса на упаковку чипов TSMC CoWoS и память HBM. Nvidia B100 будет иметь размер чипа вдвое больше по сравнению с H100, что увеличит потребление CoWoS.
К концу 2025 года производственная мощность TSMC CoWoS достигнет 550–600 тыс. единиц при темпе роста около 80%. В 2024 году массовый Nvidia H100 будет оснащен 80 ГБ HMB3, а к 2025 году чипы Nvidia Blackwell Ultra и AMD MI350 получат до 288 ГБ HBM3e, утроив расход компонентов памяти. Ожидается, что общее предложение HBM к 2025 году удвоится благодаря высокому спросу на рынке ИИ-серверов.