Mensagem de notícias da Gate, 27 de abril — A equipa MiMo da Xiaomi disponibilizou em código aberto a série MiMo-V2.5 de modelos de linguagem de grande dimensão sob licença MIT, suportando implementação comercial, treino contínuo e afinação (fine-tuning). Ambos os modelos apresentam uma janela de contexto de 1 milhão de tokens. O MiMo-V2.5-Pro é um modelo de mistura de especialistas (mixture-of-experts) de texto puro (MoE) com 1,02 biliões de parâmetros no total e 42 mil milhões de parâmetros ativos, enquanto o MiMo-V2.5 é um modelo nativo multimodal com 310 mil milhões de parâmetros no total e 15 mil milhões de parâmetros ativos, suportando compreensão de texto, imagem, vídeo e áudio.
O MiMo-V2.5-Pro tem como alvo tarefas complexas de agentes e de programação. Nos benchmarks ClawEval, alcançou 64% de Pass@3 consumindo aproximadamente 70.000 tokens por trajetória de tarefa—40% a 60% menos tokens do que a Claude Opus, a Gemini 3.1 Pro e a GPT-5.4. O modelo obteve 78,9 no SWE-bench Verified. Numa demonstração, o V2.5-Pro implementou independentemente um compilador completo SysY para RISC-V para um projeto de curso de compiladores da Universidade de Pequim em 4,3 horas, com 672 chamadas a ferramentas, atingindo uma pontuação perfeita de 233/233 em conjuntos de testes ocultos.
O MiMo-V2.5 foi concebido para cenários de agentes multimodais, equipado com um codificador de visão dedicado (729 milhões de parâmetros) e um codificador de áudio (261 milhões de parâmetros), com uma pontuação de 62,3 no subconjunto geral Claw-Eval. Ambos os modelos utilizam uma arquitetura híbrida que combina atenção por janela deslizante (SWA) e atenção global (GA), associada a um módulo de previsão multi-token com 3 camadas (MTP) para acelerar a inferência. Os pesos do modelo estão disponíveis no Hugging Face.
Em paralelo com o lançamento em código aberto, a equipa MiMo lançou o “Orbit Quadrillion Token Creator Incentive Program”, oferecendo 100 biliões de tokens gratuitamente durante 30 dias para utilizadores em todo o mundo. Programadores individuais, equipas e empresas podem candidatar-se através da página do programa, com um ciclo de avaliação de aproximadamente 3 dias úteis; os benefícios aprovados são distribuídos como Token Plans ou créditos diretos, compatíveis com ferramentas como Claude Code e Cursor.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
A DeepSeek aumenta o capital registado em 50%, a participação do fundador Liang Wenfeng sobe para 34%
Mensagem da Gate News, 28 de abril — De acordo com os dados da Qichacha, a DeepSeek (Hangzhou Deepseek AI Basic Technology Research Co., Ltd.) aumentou o seu capital registado de 10 milhões de yuan para 15 milhões de yuan. A contribuição do capital registado do fundador Liang Wenfeng aumentou de 1 milhão de yuan para 5,1 milhões de yuan
GateNews5m atrás
Reservas da Meta 1GW+ de Solar e Armazenamento de Energia para Centros de Dados de IA
A Meta assinou acordos de energia com a Overview Energy e a Noon Energy para garantir capacidade de energia para os seus centros de dados de inteligência artificial, segundo o The Economic Times. A empresa reservou até 1 gigawatt
CryptoFrontier9m atrás
Zhipu Z.ai estende a promoção tripla de quota do Plano GLM Coding até 30 de junho
Mensagem de Gate News, 28 de abril — A Zhipu Z.ai anunciou uma extensão da promoção tripla de quota do seu Plano GLM Coding, originalmente com prazo até 30 de abril, para 30 de junho, abrangendo tanto os modelos GLM-5.1 como GLM-5-Turbo.
A promoção está disponível no horário de Leste das 6:00 à 2:00 da madrugada do dia seguinte. O Plano GLM Coding é um serviço de subscrição para programadores que permite aos utilizadores invocar modelos GLM dentro de ferramentas de programação, incluindo Claude Code, Cursor e OpenCode.
A promoção tripla de quota foi inicialmente lançada a 16 de março, com cobertura limitada ao GLM-5-Turbo; mais tarde expandiu-se para incluir ambos os modelos após o lançamento do GLM-5.1.
GateNews24m atrás
TSMC Acelera a Expansão a Ritmo Duplicado, Cinco Fábricas 2nm para Iniciar Produção em 2026
Mensagem da Gate News, 28 de Abril — A Taiwan Semiconductor Manufacturing Company (TSMC) está a acelerar a expansão da sua capacidade a uma velocidade dupla em relação ao ritmo histórico, para dar resposta à procura crescente de inteligência artificial e de computação de alto desempenho, segundo Hou Yongqing, vice-presidente sénior da TSMC. A
GateNews29m atrás
GitHub Copilot muda para faturação baseada em tokens a partir de 1 de Junho, com mensalidades inalteradas
Mensagem do Gate News, 28 de Abril — A GitHub anunciou que todos os planos de Copilot irão transitar para faturação baseada em tokens a partir de 1 de Junho de 2026. O modelo de preços existente de "pedidos premium" será substituído pelos GitHub AI Credits, com o uso calculado com base no consumo real de tokens (incluindo entrada, saída e tokens em cache a taxas que correspondem ao preço público da API de cada modelo.
GateNews35m atrás
Reguladores Chineses Bloqueiam a Aquisição da Manus de $2 Billion pela Meta
Mensagem de Notícias do Gate, 28 de abril — agências governamentais chinesas bloquearam a aquisição de $2 billion da Meta da plataforma de agentes de IA Manus, anunciada ontem (27 de abril). O acordo, inicialmente concluído em dezembro, enfrentou
GateNews39m atrás