Modelos de OpenAI para migrar gradualmente al chip Trainium personalizado de Amazon, dice Altman que está “mirando con ilusión” hacia ello

Mensaje de Gate News, 29 de abril — Los modelos de OpenAI que se ejecutan en Amazon Web Services’ Bedrock migrarán gradualmente a Trainium, el chip de IA diseñado a medida por Amazon, según declaraciones recientes del CEO de OpenAI, Sam Altman, y de ejecutivos de AWS. Actualmente, los modelos funcionan en un entorno mixto usando tanto GPU y Trainium, con una proporción cada vez mayor que se desplaza hacia Trainium con el paso del tiempo. Altman afirmó que la empresa “está mirando con ilusión la posibilidad de trasladar modelos a Trainium”.

El ejecutivo de AWS, Garman, reconoció que el nombre de Trainium pudo haber sido engañoso, ya que el chip está diseñado tanto para entrenamiento como para inferencia, y se espera que la inferencia sea el principal caso de uso en adelante. Sin embargo, Garman recalcó que la marca del chip es en gran medida irrelevante para la mayoría de los clientes, señalando que los usuarios interactúan con OpenAI a través de su interfaz de API en lugar de hacerlo directamente con el hardware subyacente. Cuando se le preguntó sobre la integración futura de modelos no pertenecientes a OpenAI en Bedrock Managed Agents, Garman se negó a proporcionar detalles específicos y se limitó a señalar que AWS actualmente se centra en su asociación con OpenAI.

La colaboración subraya la estrategia de AWS de aprovechar su silicio personalizado para respaldar cargas de trabajo importantes de IA en su plataforma en la nube.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Informe de investigación de a16z Crypto: la tasa de explotación de vulnerabilidades DeFi de los agentes de IA alcanza el 70%

Según el informe de investigación publicado por a16z Crypto el 29 de abril, bajo condiciones en las que los agentes de IA están equipados con conocimientos del dominio de manera estructurada, la tasa de éxito al reproducir una vulnerabilidad de manipulación del precio de Ethereum alcanza el 70%; en un entorno de sandbox sin ningún conocimiento del dominio, la tasa de éxito es solo del 10%. El informe también registra casos en los que los agentes de IA eluden independientemente las restricciones del sandbox para acceder a información futura de transacciones, así como patrones de fallo sistemático cuando los agentes elaboran planes de ataque rentables de varios pasos.

MarketWhisperHace2m

Altman:随着 GPT-5.5 将重点转向任务完成,“基于代币的定价”正走向过时

Gate News 消息,4 月 29 日 — OpenAI 首席执行官 Sam Altman 在接受 Stratechery 的 Ben Thompson 采访时表示,基于代币的定价并非 AI 服务的长期可行模式。以 GPT-5.5 为例,Altman 指出,尽管单代币价格相比 GPT-5.4 显著更高,但该模型使用的代币数量要少得多来完成同一任务,这意味着客户并不在乎代币数量——他们只关心任务是否完成以及总成本。

GateNewshace1h

Modelo Ling-2.6-flash de Ant Group publicado como código abierto: 104B de parámetros con 7.4B activos, logra múltiples puntos de referencia SOTA

Mensaje de Gate News, 29 de abril — Los pesos del modelo flash Ling-2.6 de Ant Group ahora se han publicado como código abierto, después de haber estado disponibles previamente solo vía API. El modelo cuenta con 104 mil millones de parámetros totales, con 7.4 mil millones activados por inferencia, una ventana de contexto de 256K y licencia MIT. Versiones de precisión BF16, FP8 e INT4

GateNewshace1h

Sam Altman publica capturas de pantalla del modo doble de Codex; las funciones de oficina y de programación se separan oficialmente

La captura y la declaración publicadas por el CEO de OpenAI, Sam Altman, el 29 de abril en la plataforma X indican que Codex está lanzando una nueva interfaz de guía; cuando los usuarios entran por primera vez, deben elegir entre dos modos: Excelmogging y Codemaxxing. Los usuarios activos semanales de Codex actualmente ya superan los 4 millones, y los casos de uso se han ampliado desde la generación de código hasta usos no técnicos.

MarketWhisperhace1h

Codex de OpenAI lanza una interfaz de doble modo: Excelmogging para el trabajo de oficina y Codemaxxing para la programación

Mensaje de Gate News, 29 de abril — El CEO de OpenAI, Sam Altman, anunció hoy en X una interfaz de Codex rediseñada, presentando dos modos distintos para los usuarios. "Excelmogging" está orientado a tareas cotidianas de oficina con una interfaz simplificada y el lema "Same tools, simpler interface," con ejemplos de tareas como la creación de hojas de cálculo.

GateNewshace2h

Medio estadounidense: el borrador de una orden ejecutiva de la Casa Blanca permite que el modelo Anthropic Mythos entre en el gobierno

Según Axios, el 28 de abril citando a personas con conocimiento de los hechos, la Casa Blanca está desarrollando directrices para permitir que cada agencia federal eluda la determinación de riesgo de la cadena de suministro (SCRD) de Anthropic e introduzca nuevos modelos para uso del gobierno, incluidos modelos como Mythos de Anthropic. Al respecto, la Casa Blanca publicó una declaración oficial en la que afirma que cualquier declaración de políticas será emitida directamente por el presidente, y que cualquier otra afirmación es pura especulación.

MarketWhisperhace2h
Comentar
0/400
Sin comentarios