Les rumeurs vont bon train : Samsung serait en pourparlers avec Nvidia pour fixer le prix de la HBM4. Et tenez-vous bien : leur mémoire à large bande passante de nouvelle génération pourrait se situer autour de la tranche moyenne des $500s par unité, soit le même tarif que celui pratiqué par SK Hynix.
C’est une sacrée hausse. On parle de plus de 50 % d’augmentation par rapport à la HBM3e actuelle de SK Hynix, qui se situe dans la gamme moyenne des $300 . Pourquoi est-ce important ? Les puces HBM alimentent les accélérateurs d’IA et les équipements informatiques haute performance — l’épine dorsale des centres de données qui entraînent des modèles de langage avancés et exécutent des simulations complexes.
Si les prix augmentent à ce rythme, attendez-vous à des répercussions sur les coûts d’infrastructure de l’IA. Cela pourrait-il réduire les marges des fournisseurs de cloud ou repousser les cycles de renouvellement du matériel ? Il faudra surveiller la façon dont Micron se positionnera dans ce paysage en pleine mutation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
3
Reposter
Partager
Commentaire
0/400
RektRecorder
· 12-04 21:01
Putain, le HBM4 coûte plus de 500 chacun ? Cette augmentation est complètement folle, les fournisseurs de cloud vont sûrement encore se plaindre de ne pas avoir assez d’argent.
Voir l'originalRépondre0
AltcoinMarathoner
· 12-04 20:59
Franchement, encore une hausse de 50 % sur la HBM4 ? C’est le mur du 32e kilomètre, là. Tout le monde sprinte trop tôt, mais les vrais marathoniens savent que ces coûts d’infrastructure finissent par être intégrés dans les prix, et l’adoption continue d’avancer quoi qu’il arrive. Si on prend du recul et regarde la macro, ce n’est qu’une friction de l’écosystème.
Voir l'originalRépondre0
FloorPriceNightmare
· 12-04 20:53
Encore une fois en train de tondre les petits investisseurs, le HBM4 a directement doublé, les fournisseurs de services cloud vont en pleurer dans les toilettes.
Les rumeurs vont bon train : Samsung serait en pourparlers avec Nvidia pour fixer le prix de la HBM4. Et tenez-vous bien : leur mémoire à large bande passante de nouvelle génération pourrait se situer autour de la tranche moyenne des $500s par unité, soit le même tarif que celui pratiqué par SK Hynix.
C’est une sacrée hausse. On parle de plus de 50 % d’augmentation par rapport à la HBM3e actuelle de SK Hynix, qui se situe dans la gamme moyenne des $300 . Pourquoi est-ce important ? Les puces HBM alimentent les accélérateurs d’IA et les équipements informatiques haute performance — l’épine dorsale des centres de données qui entraînent des modèles de langage avancés et exécutent des simulations complexes.
Si les prix augmentent à ce rythme, attendez-vous à des répercussions sur les coûts d’infrastructure de l’IA. Cela pourrait-il réduire les marges des fournisseurs de cloud ou repousser les cycles de renouvellement du matériel ? Il faudra surveiller la façon dont Micron se positionnera dans ce paysage en pleine mutation.