Mensagem do Gate News, 27 de abril — A equipe MiMo da Xiaomi disponibilizou em código aberto a série de modelos de linguagem de grande porte MiMo-V2.5 sob licença MIT, com suporte a implantação comercial, treinamento contínuo e ajuste fino. Ambos os modelos apresentam uma janela de contexto de 1 milhão de tokens. O MiMo-V2.5-Pro é um modelo de especialistas mistos de texto puro (MoE) com 1,02 trilhão de parâmetros totais e 42 bilhões de parâmetros ativos, enquanto o MiMo-V2.5 é um modelo multimodal nativo com 310 bilhões de parâmetros totais e 15 bilhões de parâmetros ativos, com suporte à compreensão de texto, imagem, vídeo e áudio.
O MiMo-V2.5-Pro mira tarefas complexas de agentes e de programação. Nos benchmarks ClawEval, ele obteve 64% de Pass@3 consumindo aproximadamente 70.000 tokens por trajetória de tarefa — 40% a 60% menos tokens do que Claude Opus, Gemini 3.1 Pro e GPT-5.4. O modelo obteve 78,9 no SWE-bench Verified. Em uma demonstração, o V2.5-Pro implementou de forma independente um compilador completo de SysY para RISC-V para um projeto de curso do compilador da Universidade de Pequim em 4,3 horas, com 672 chamadas de ferramenta, alcançando uma pontuação perfeita de 233/233 em conjuntos de testes ocultos.
O MiMo-V2.5 foi projetado para cenários de agentes multimodais, equipado com um codificador de visão dedicado (729 milhões de parâmetros) e um codificador de áudio (261 milhões de parâmetros), com pontuação 62,3 no subconjunto geral Claw-Eval. Ambos os modelos empregam uma arquitetura híbrida que combina atenção por janela deslizante (SWA) e atenção global (GA), acompanhada por um módulo de predição de múltiplos tokens em 3 camadas (MTP) para inferência acelerada. Os pesos do modelo estão disponíveis no Hugging Face.
Junto ao lançamento de código aberto, a equipe MiMo lançou o “Orbit Quadrillion Token Creator Incentive Program”, oferecendo 100 quadrilhões de tokens gratuitos ao longo de 30 dias para usuários globais. Desenvolvedores individuais, equipes e empresas podem se inscrever via a página do programa, com um ciclo de avaliação de aproximadamente 3 dias úteis; os benefícios aprovados são distribuídos como Token Plans ou créditos diretos, compatíveis com ferramentas como Claude Code e Cursor.
Related Articles
DeepSeek Aumenta Capital Registrado em 50%, Participação do Fundador Liang Wenfeng Sobe para 34%
Reservas da Meta de 1GW+ de Solar e Armazenamento de Energia para Data Centers de IA
Zhipu Z.ai estende a promoção triplo de cotas do GLM Coding Plan até 30 de junho
TSMC Acelera Expansão em Ritmo Duplicado, Cinco Fábricas de 2 nm para Iniciar Produção em 2026
GitHub Copilot muda para cobrança baseada em tokens a partir de 1º de junho; mensalidades permanecem inalteradas
Reguladores Chineses Bloqueiam a Aquisição da Manus de $2 Billion pela Meta