Réunion secrète à Silicon Valley : le président de SK Hynix rencontre en privé Jensen Huang, vise 55 % de parts de marché HBM4 et lance une collaboration pour l'infrastructure IA

robot
Création du résumé en cours

Dans les restaurants de poulet frit de la Silicon Valley, il n’y a peut-être pas de vaisselle raffinée, mais ils abritent des affaires valant des centaines de milliards de dollars.

Selon les médias sud-coréens, le 5 février, heure locale, le président du groupe SK, Choi Tae-won, en visite aux États-Unis, et le PDG de Nvidia, Huang Renxun, ont tenu une réunion informelle de “Chimaek” (poulet frit et bière) dans un restaurant de poulet coréen appelé “99 Chicken” à Silicon Valley.

Les observateurs estiment que le contenu de cette discussion pourrait ne pas se limiter à la négociation sur la quantité d’approvisionnement en mémoire haute bande passante de 6e génération (HBM4), mais inclure également une coopération stratégique dans la construction de la prochaine génération de centres de données IA.

Fait intéressant, selon les rapports, le degré d’intimité et de confidentialité de cette rencontre dépassait largement celui d’une négociation commerciale ordinaire. Outre les cadres clés de SK Hynix, étaient présents la deuxième fille de Choi Tae-won, Choi Min-jung, représentant d’IntegralHealth, ainsi que la fille de Huang Renxun, Madison Huang, directrice générale du département robotique de Nvidia.

Les analystes pensent que ce type de scène “familiale” envoie un signal fort : la relation entre SK et Nvidia évolue, passant de partenaires commerciaux à des alliés stratégiques plus étroits.

Rétrospectivement, chaque fois que Choi Tae-won rencontre Huang Renxun, le marché des semi-conducteurs fait souvent des vagues. Leur rencontre en mai 2021 a directement conduit à la “tripartite IA” entre SK, Nvidia et TSMC.

Cette fois, selon des professionnels du secteur, Choi Tae-won ne se contente pas de promettre une livraison à temps du HBM4, mais se concentre également sur la stratégie de transformation du groupe SK en “fournisseur de solutions IA intégrées”. Des sources de l’industrie des semi-conducteurs déclarent :

C’est un signal que le groupe SK utilise le HBM comme levier pour entrer officiellement sur le marché de l’infrastructure IA de nouvelle génération.

Le schéma d’approvisionnement en HBM4, SK Hynix promet une livraison sans obstacle

Le point central de cette rencontre concerne la garantie d’approvisionnement en HBM4. Le prochain accélérateur IA de Nvidia, “Vera Rubin”, prévu pour la seconde moitié de l’année, utilisera du HBM4 d’une capacité de 288 Go par puce.

Étant donné que la production de HBM nécessite environ 4 mois, plus 2 à 3 mois pour l’emballage par TSMC, le cycle complet peut atteindre 6 à 7 mois, ce qui renforce la dépendance de Nvidia à SK Hynix, qui possède la plus grande capacité de production dans l’industrie.

Fin 2022, SK Hynix a conclu un accord avec Nvidia pour fournir plus de 55 % de la demande en HBM4, et travaille actuellement à l’optimisation des performances. Lors de la réunion, Choi Tae-won a promis à Huang Renxun une “approvisionnement sans obstacle”.

Selon les rapports, bien que le HBM4 de SK Hynix utilise une technologie de fabrication de wafers en 12 nm et de DRAM 1b, une génération plus ancienne, ses performances sont comparables à celles des produits Samsung utilisant une fabrication en 4 nm et une DRAM de 10 nm de 6e génération.

Le marché a déjà changé cette année. En septembre dernier, Samsung Electronics a testé la qualité de ses produits HBM3E à 12 couches via Nvidia, et a commencé ce mois-ci la production en série de HBM4.

Le HBM4 de Samsung offre une vitesse de transfert de 11,7 Gb/s, dépassant la norme exigée par Nvidia de 10 à 11 Gb/s, brisant ainsi la quasi-monopole de SK Hynix sur le marché des produits HBM3E à 12 couches l’an dernier.

Les experts estiment que les deux parties ont également discuté de la coopération pour la 7e génération de HBM (HBM4E) et de la HBM personnalisée (cHBM), dont le marché s’ouvrira officiellement en 2027.

De “la vente de mémoire” à “la vente d’infrastructures IA”

Si garantir l’approvisionnement sans obstacle en HBM4 est une “garde-fou”, alors la véritable ambition de Choi Tae-won est de “prendre le contrôle”, en entrant sur le marché des infrastructures de centres de données IA.

Choi Tae-won pousse le groupe SK à se transformer en “fournisseur de solutions IA intégrées”. La discussion avec Huang Renxun est considérée comme impliquant une collaboration à plusieurs niveaux, notamment dans les semi-conducteurs IA, les serveurs et les centres de données.

Une coopération accrue entre SK Hynix et Nvidia dans le domaine des disques SSD d’entreprise (eSSD) est très attendue.

En janvier de cette année, Nvidia a annoncé qu’il utiliserait une nouvelle solution de mémoire appelée “ICMS” dans Vera Rubin, avec un ensemble complet d’équipements équipés de 9600 To de eSSD, soit une demande 16 fois supérieure à celle des produits existants. Cela représente une opportunité majeure pour SK Hynix d’étendre ses activités dans le domaine du stockage.

Depuis le 3 février, le président Choi a tenu une série de réunions aux États-Unis avec plusieurs grandes entreprises technologiques, dont Nvidia et Meta.

Selon les rapports, les deux parties ont également discuté de la prochaine génération de modules de mémoire serveur après la HBM haute bande passante — SoCamm (module de DRAM basse consommation pour serveurs) et l’approvisionnement en mémoire flash. Un professionnel de l’industrie des semi-conducteurs indique :

SoCamm est le prochain champ de bataille pour changer l’architecture électrique des serveurs IA. SK Group utilise la HBM comme levier puissant pour entrer officiellement sur le marché de l’infrastructure IA de nouvelle génération.

SK Hynix a renommé sa filiale américaine de mémoire flash, Solidigm, en “AI Company”, en faisant une plateforme dédiée aux investissements et solutions IA du groupe SK.

Le périmètre d’activité couvre non seulement les semi-conducteurs IA de SK Hynix, mais intègre également les capacités technologiques et de solutions IA de SK Telecom, afin de créer un système de service complet, de la conception des centres de données IA à la livraison de semi-conducteurs et de serveurs. Un projet pilote de centre de données en Amérique du Nord est même prévu d’ici la fin de l’année.

Cette rencontre laisse entrevoir que Choi Tae-won a présenté cette stratégie à Nvidia. Les observateurs estiment que les deux parties ont probablement discuté d’une proposition concrète pour que le groupe SK fournisse des solutions IA complètes à Nvidia.

Cette réunion informelle au restaurant 99 Chicken pourrait marquer le début d’une nouvelle restructuration majeure de la chaîne industrielle mondiale des semi-conducteurs, après l’“Alliance tripartite IA” en 2021.

Avertissement de risque et clause de non-responsabilité

        Le marché comporte des risques, l'investissement doit être prudent. Cet article ne constitue pas un conseil d'investissement personnel et ne prend pas en compte les objectifs, la situation financière ou les besoins spécifiques de chaque utilisateur. Les utilisateurs doivent déterminer si les opinions, points de vue ou conclusions présentés ici sont conformes à leur situation particulière. En investissant en se basant sur ces informations, ils en assument la responsabilité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)