A série MiMo-V2.5 da Xiaomi passa a ser open source: 1T Parâmetros com eficiência de tokens superior face ao GPT-5.4

Mensagem de notícias da Gate, 27 de abril — A equipa MiMo da Xiaomi disponibilizou em código aberto a série MiMo-V2.5 de modelos de linguagem de grande dimensão sob licença MIT, suportando implementação comercial, treino contínuo e afinação (fine-tuning). Ambos os modelos apresentam uma janela de contexto de 1 milhão de tokens. O MiMo-V2.5-Pro é um modelo de mistura de especialistas (mixture-of-experts) de texto puro (MoE) com 1,02 biliões de parâmetros no total e 42 mil milhões de parâmetros ativos, enquanto o MiMo-V2.5 é um modelo nativo multimodal com 310 mil milhões de parâmetros no total e 15 mil milhões de parâmetros ativos, suportando compreensão de texto, imagem, vídeo e áudio.

O MiMo-V2.5-Pro tem como alvo tarefas complexas de agentes e de programação. Nos benchmarks ClawEval, alcançou 64% de Pass@3 consumindo aproximadamente 70.000 tokens por trajetória de tarefa—40% a 60% menos tokens do que a Claude Opus, a Gemini 3.1 Pro e a GPT-5.4. O modelo obteve 78,9 no SWE-bench Verified. Numa demonstração, o V2.5-Pro implementou independentemente um compilador completo SysY para RISC-V para um projeto de curso de compiladores da Universidade de Pequim em 4,3 horas, com 672 chamadas a ferramentas, atingindo uma pontuação perfeita de 233/233 em conjuntos de testes ocultos.

O MiMo-V2.5 foi concebido para cenários de agentes multimodais, equipado com um codificador de visão dedicado (729 milhões de parâmetros) e um codificador de áudio (261 milhões de parâmetros), com uma pontuação de 62,3 no subconjunto geral Claw-Eval. Ambos os modelos utilizam uma arquitetura híbrida que combina atenção por janela deslizante (SWA) e atenção global (GA), associada a um módulo de previsão multi-token com 3 camadas (MTP) para acelerar a inferência. Os pesos do modelo estão disponíveis no Hugging Face.

Em paralelo com o lançamento em código aberto, a equipa MiMo lançou o “Orbit Quadrillion Token Creator Incentive Program”, oferecendo 100 biliões de tokens gratuitamente durante 30 dias para utilizadores em todo o mundo. Programadores individuais, equipas e empresas podem candidatar-se através da página do programa, com um ciclo de avaliação de aproximadamente 3 dias úteis; os benefícios aprovados são distribuídos como Token Plans ou créditos diretos, compatíveis com ferramentas como Claude Code e Cursor.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Nvidia vai investir até 2,1 mil milhões de dólares na empresa de centros de dados IREN

De acordo com o Bloomberg Terminal, a Nvidia anunciou na quinta-feira que vai investir até 2,1 mil milhões de dólares no programador de data centers IREN Ltd. como parte de uma parceria para acelerar a construção da infra-estrutura de inteligência artificial. A IREN concedeu à Nvidia uma warrant de cinco anos para comprar até 30 milhões de sh

GateNews8m atrás

CZ diz que a YZi Labs aloca 70% para a blockchain e 20% para a IA no Consensus Miami 2026

De acordo com a ChainCatcher, na Consensus Miami 2026, Zhao Changpeng (CZ) afirmou que a YZi Labs atribui 70% do financiamento a blockchain, 20% a IA e 10% a biotecnologia. CZ acrescentou que a BNB deve ser posicionada como uma moeda nativa para agentes de IA, e que todas as blockchains precisam de estar “prontas para IA” para suportar

GateNews5h atrás

A Public adquire a plataforma de investimento em IA Treasury App para expandir o trading de cripto

De acordo com a ChainCatcher, a Public anunciou a aquisição da plataforma de serviços de investimento em IA Treasury App para reforçar o seu negócio de corretagem orientado por IA. O montante da aquisição não foi divulgado. Atualmente, a Public apoia a negociação de ações, obrigações e criptomoedas, incluindo Bitcoin, Ethereum, a

GateNews7h atrás

A Blitzy concluiu $200M ronda de financiamento liderada pela Northzone

De acordo com a ChainCatcher, a Blitzy, uma empresa de codificação com IA cofundada pelo antigo arquitecto da Nvidia Sid Pardeshi, concluiu uma ronda de financiamento de 200 milhões de dólares liderada pela Northzone. Battery Ventures, Jump Capital e Morgan Creek Digital participaram na ronda. A plataforma consegue analisar sistemas complexos com

GateNews8h atrás

A UE proíbe pornografia deepfake gerada por IA a 7 de maio

De acordo com a agência noticiosa Xinhua, a 7 de maio, os membros do Parlamento Europeu e os Estados-Membros chegaram a um consenso para proibir os sistemas de inteligência artificial de gerarem conteúdos pornográficos deepfake. A proibição será incorporada em alterações ao Regulamento de Inteligência Artificial de 2024. Parlamento Europeu

GateNews8h atrás

A Tether lança o modelo de IA médica MedPsy QVAC, atingindo uma pontuação de 62,62 na versão com 17 mil milhões de parâmetros

De acordo com a Odaily, o Tether AI Research Group lançou o QVAC MedPsy, um modelo de IA médica concebido para funcionar localmente em smartphones e dispositivos vestíveis, sem dependência de nuvem. A versão com 1,7 mil milhões de parâmetros obteve 62,62 em sete benchmarks médicos, superando o MedGemma-1.5-4B da Google em 11,42 poi

GateNews8h atrás
Comentar
0/400
Nenhum comentário