Поговаривают, что Samsung ведет переговоры с Nvidia по поводу цен на HBM4. Вот в чем фишка — их память следующего поколения с высокой пропускной способностью может стоить примерно в середине диапазона $500s за единицу, что сопоставимо с ценами SK Hynix.
Это серьезный скачок. Речь идет о более чем 50% удорожании по сравнению с текущей HBM3e от SK Hynix, которая стоит в среднем диапазоне $300 . Почему это важно? Чипы HBM используются в AI-ускорителях и высокопроизводительных вычислительных установках — это основа дата-центров для обучения больших языковых моделей и проведения сложных симуляций.
Если цены будут расти такими темпами, ожидайте цепной реакции по всем затратам на AI-инфраструктуру. Может ли это снизить маржу облачных провайдеров или отодвинуть цикл обновления оборудования? Стоит следить, как в этой меняющейся ситуации себя поведет Micron.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
5 Лайков
Награда
5
3
Репост
Поделиться
комментарий
0/400
RektRecorder
· 12ч назад
Чёрт возьми, HBM4 стоит больше пятисот за штуку? Такой рост просто безумный, облачные провайдеры, наверное, снова будут жаловаться на нехватку денег.
Посмотреть ОригиналОтветить0
AltcoinMarathoner
· 12ч назад
Честно говоря, еще один скачок на 50% по HBM4? Это как стена на 20-й миле марафона. Все начинают спринтовать раньше времени, но настоящие марафонцы знают — эти издержки на инфраструктуру со временем включаются в цену, а внедрение продолжается независимо ни от чего. Если посмотреть с макроуровня, это всего лишь фрикция экосистемы.
Посмотреть ОригиналОтветить0
FloorPriceNightmare
· 13ч назад
Опять пришли стричь лам, HBM4 сразу выросла вдвое, облачные провайдеры будут рыдать в туалете.
Поговаривают, что Samsung ведет переговоры с Nvidia по поводу цен на HBM4. Вот в чем фишка — их память следующего поколения с высокой пропускной способностью может стоить примерно в середине диапазона $500s за единицу, что сопоставимо с ценами SK Hynix.
Это серьезный скачок. Речь идет о более чем 50% удорожании по сравнению с текущей HBM3e от SK Hynix, которая стоит в среднем диапазоне $300 . Почему это важно? Чипы HBM используются в AI-ускорителях и высокопроизводительных вычислительных установках — это основа дата-центров для обучения больших языковых моделей и проведения сложных симуляций.
Если цены будут расти такими темпами, ожидайте цепной реакции по всем затратам на AI-инфраструктуру. Может ли это снизить маржу облачных провайдеров или отодвинуть цикл обновления оборудования? Стоит следить, как в этой меняющейся ситуации себя поведет Micron.