Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
“Padre de HBM” predice que la arquitectura de IA será revolucionada: la memoria reemplazará a la GPU como componente central
Cuando la IA pasa de “generar” a “actuar de forma autónoma”, el cuello de botella del cómputo podría desplazarse de la GPU a la memoria.
Según medios locales como el diario coreano “Asia Economy”, informó recientemente que Joungho Kim, profesor del Korea Advanced Institute of Science and Technology (KAIST) al que en la industria se le conoce como el “padre de HBM”, lanzó una predicción: la arquitectura de IA actualmente centralizada en GPU, dominada por NVIDIA, acabará siendo sustituida por una nueva arquitectura con la memoria como núcleo.
Detrás de este juicio está un cambio fundamental en las formas de aplicación de la IA. Al pasar de la IA generativa a la IA de agentes (Agentic AI), el sistema necesita procesar simultáneamente grandes volúmenes de documentos, videos y datos multimodales—Kim llama a esta tendencia el surgimiento de la “ingeniería de contexto” (context engineering). Señaló que, para garantizar velocidad y precisión, el ancho de banda y la capacidad de la memoria deben incrementarse hasta un máximo de 1000 veces.
Más impactante aún son las cifras del lado de la demanda: de acuerdo con declaraciones de Kim citadas anteriormente por Money Today Broadcasting, si el tamaño de la entrada se amplía de 100 a 1000 veces, la demanda de memoria podría aumentar de manera exponencial y el aumento del volumen total podría llegar hasta 1 millón de veces.
HBM tocará el techo; HBF toma el relevo
Kim afirmó con claridad que la tecnología HBM actual—que logra una transmisión ultrarrápida mediante el apilamiento vertical de DRAM y que hoy domina el mercado de memoria para aceleradores de IA—no podrá sostenerse en la era de la IA de agentes.
Su siguiente solución de generación es HBF (High Bandwidth Flash, flash de gran ancho de banda): reemplazar la DRAM por NAND apilada, para construir un “gigantesco estante de libros” como memoria de largo plazo, con una capacidad muy superior a los límites actuales.
A modo de analogía, HBM es como notas adhesivas en un escritorio—rápidas, pero con capacidad limitada; HBF, en cambio, es como una pared entera de libros, con una escala de información completamente distinta que se puede almacenar.
Desde el nivel de la arquitectura, SK hynix ya propuso una arquitectura “H3” en un artículo publicado en IEEE—según informó el diario “Korea Economic” en febrero, esta arquitectura implementará HBM y HBF lado a lado cerca del GPU, en lugar de la disposición existente en la que solo hay HBM junto al procesador. Esto significa que el papel de la GPU pasará de ser “el protagonista” a convertirse en “el actor de reparto”, mientras que las unidades de cómputo se integrarán en un sistema con la memoria como parte principal.
El calendario se ha ido aclarando poco a poco.
Según la predicción de Kim, se espera que las muestras de ingeniería de HBF aparezcan alrededor de 2027, y que Google, NVIDIA o AMD adopten esta tecnología como máximo a partir de 2028.
Este ritmo es muy similar al camino por el cual HBM pasó del laboratorio al uso comercial a gran escala en su momento, y también significa que ya se ha abierto la ventana para la industria.
SK hynix y Samsung, otro cara a cara
Kim también señaló que el panorama competitivo en el ámbito de HBF replicará el guion de la era de HBM—SK hynix y Samsung Electronics volverán a ser los protagonistas.
Actualmente, SK hynix ya en febrero de este año, junto con SanDisk, estableció una alianza para la estandarización de HBF, con la intención de hacerse con el control del ecosistema. Por su parte, Samsung continúa impulsando productos HBM de la próxima generación como HBM4E, y al mismo tiempo invierte de forma paralela en la investigación y desarrollo de una arquitectura NAND que se alinea con el concepto de HBF, según Aju News.
Aunque los caminos de implantación de estos dos gigantes son distintos, el objetivo apunta a la misma pista. Quién pueda completar primero el ciclo cerrado desde la formulación del estándar hasta la entrega de la producción en masa determinará en gran medida la configuración del próximo mercado de memoria para IA.
Aviso de riesgos y cláusulas de exención de responsabilidad