“Padre de HBM” predice que la arquitectura de IA será revolucionada: la memoria reemplazará a la GPU como componente central

robot
Generación de resúmenes en curso

Cuando la IA pasa de “generar” a “actuar de forma autónoma”, el cuello de botella del cómputo podría desplazarse de la GPU a la memoria.

Según medios locales como el diario coreano “Asia Economy”, informó recientemente que Joungho Kim, profesor del Korea Advanced Institute of Science and Technology (KAIST) al que en la industria se le conoce como el “padre de HBM”, lanzó una predicción: la arquitectura de IA actualmente centralizada en GPU, dominada por NVIDIA, acabará siendo sustituida por una nueva arquitectura con la memoria como núcleo.

Detrás de este juicio está un cambio fundamental en las formas de aplicación de la IA. Al pasar de la IA generativa a la IA de agentes (Agentic AI), el sistema necesita procesar simultáneamente grandes volúmenes de documentos, videos y datos multimodales—Kim llama a esta tendencia el surgimiento de la “ingeniería de contexto” (context engineering). Señaló que, para garantizar velocidad y precisión, el ancho de banda y la capacidad de la memoria deben incrementarse hasta un máximo de 1000 veces.

Más impactante aún son las cifras del lado de la demanda: de acuerdo con declaraciones de Kim citadas anteriormente por Money Today Broadcasting, si el tamaño de la entrada se amplía de 100 a 1000 veces, la demanda de memoria podría aumentar de manera exponencial y el aumento del volumen total podría llegar hasta 1 millón de veces.

HBM tocará el techo; HBF toma el relevo

Kim afirmó con claridad que la tecnología HBM actual—que logra una transmisión ultrarrápida mediante el apilamiento vertical de DRAM y que hoy domina el mercado de memoria para aceleradores de IA—no podrá sostenerse en la era de la IA de agentes.

Su siguiente solución de generación es HBF (High Bandwidth Flash, flash de gran ancho de banda): reemplazar la DRAM por NAND apilada, para construir un “gigantesco estante de libros” como memoria de largo plazo, con una capacidad muy superior a los límites actuales.

A modo de analogía, HBM es como notas adhesivas en un escritorio—rápidas, pero con capacidad limitada; HBF, en cambio, es como una pared entera de libros, con una escala de información completamente distinta que se puede almacenar.

Desde el nivel de la arquitectura, SK hynix ya propuso una arquitectura “H3” en un artículo publicado en IEEE—según informó el diario “Korea Economic” en febrero, esta arquitectura implementará HBM y HBF lado a lado cerca del GPU, en lugar de la disposición existente en la que solo hay HBM junto al procesador. Esto significa que el papel de la GPU pasará de ser “el protagonista” a convertirse en “el actor de reparto”, mientras que las unidades de cómputo se integrarán en un sistema con la memoria como parte principal.

El calendario se ha ido aclarando poco a poco.

Según la predicción de Kim, se espera que las muestras de ingeniería de HBF aparezcan alrededor de 2027, y que Google, NVIDIA o AMD adopten esta tecnología como máximo a partir de 2028.

Este ritmo es muy similar al camino por el cual HBM pasó del laboratorio al uso comercial a gran escala en su momento, y también significa que ya se ha abierto la ventana para la industria.

SK hynix y Samsung, otro cara a cara

Kim también señaló que el panorama competitivo en el ámbito de HBF replicará el guion de la era de HBM—SK hynix y Samsung Electronics volverán a ser los protagonistas.

Actualmente, SK hynix ya en febrero de este año, junto con SanDisk, estableció una alianza para la estandarización de HBF, con la intención de hacerse con el control del ecosistema. Por su parte, Samsung continúa impulsando productos HBM de la próxima generación como HBM4E, y al mismo tiempo invierte de forma paralela en la investigación y desarrollo de una arquitectura NAND que se alinea con el concepto de HBF, según Aju News.

Aunque los caminos de implantación de estos dos gigantes son distintos, el objetivo apunta a la misma pista. Quién pueda completar primero el ciclo cerrado desde la formulación del estándar hasta la entrega de la producción en masa determinará en gran medida la configuración del próximo mercado de memoria para IA.

Aviso de riesgos y cláusulas de exención de responsabilidad

        Hay riesgos en el mercado; invierte con cautela. Este artículo no constituye asesoramiento de inversión personal, y tampoco considera objetivos de inversión específicos, situación financiera o necesidades particulares de usuarios individuales. Los usuarios deben considerar si cualquiera de las opiniones, puntos de vista o conclusiones de este artículo se ajusta a su situación específica. Si inviertes con base en lo anterior, la responsabilidad corre por tu cuenta.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado