A Xiaomi revela detalhes do treino do MiMo-V2-Pro: parâmetros do modelo 1T, milhares de GPUs implementadas

Mensagem do Gate News, 24 de Abril — A responsável da equipa de modelos de linguagem da Xiaomi, Luo Fuli, revelou numa entrevista aprofundada que o modelo MiMo-V2-Pro tem, no total, 1 bilião de parâmetros e que foram necessários milhares de GPUs para o treino. Ela referiu que a escala de 1T representa o limiar mínimo para obter desempenho a aproximar-se do nível do Claude Opus 4.6 e garantir um bilhete de entrada competitivo para a próxima fase dos agentes de IA.

Tecnicamente, a versão Pro utiliza um mecanismo de atenção esparsa extrema, com uma proporção de 7:1 entre a atenção global e a atenção por janela deslizante, controlando os custos de inferência para o processamento de longos contextos. O modelo mantém também a arquitectura MTP (Multi-Token Prediction) para aproveitar o poder de computação excedente e acelerar a inferência.

Do lado da gestão, a equipa MiMo, com 100 pessoas, tem apenas 30-40 indivíduos directamente envolvidos nas iterações centrais. A equipa opera sem hierarquias formais ou divisões explícitas em subgrupos e sem prazos de entrega. Quando se depara com problemas numéricos instáveis, como picos de perda durante o treino, a equipa dá prioridade a interromper o treino para investigação, mesmo que isso signifique parar as operações durante uma ou duas semanas e incorrer em milhões de dólares de custos de computação.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

CZ diz que a YZi Labs aloca 70% para a blockchain e 20% para a IA no Consensus Miami 2026

De acordo com a ChainCatcher, na Consensus Miami 2026, Zhao Changpeng (CZ) afirmou que a YZi Labs atribui 70% do financiamento a blockchain, 20% a IA e 10% a biotecnologia. CZ acrescentou que a BNB deve ser posicionada como uma moeda nativa para agentes de IA, e que todas as blockchains precisam de estar “prontas para IA” para suportar

GateNews1h atrás

A Public adquire a plataforma de investimento em IA Treasury App para expandir o trading de cripto

De acordo com a ChainCatcher, a Public anunciou a aquisição da plataforma de serviços de investimento em IA Treasury App para reforçar o seu negócio de corretagem orientado por IA. O montante da aquisição não foi divulgado. Atualmente, a Public apoia a negociação de ações, obrigações e criptomoedas, incluindo Bitcoin, Ethereum, a

GateNews3h atrás

A Blitzy concluiu $200M ronda de financiamento liderada pela Northzone

De acordo com a ChainCatcher, a Blitzy, uma empresa de codificação com IA cofundada pelo antigo arquitecto da Nvidia Sid Pardeshi, concluiu uma ronda de financiamento de 200 milhões de dólares liderada pela Northzone. Battery Ventures, Jump Capital e Morgan Creek Digital participaram na ronda. A plataforma consegue analisar sistemas complexos com

GateNews4h atrás

A UE proíbe pornografia deepfake gerada por IA a 7 de maio

De acordo com a agência noticiosa Xinhua, a 7 de maio, os membros do Parlamento Europeu e os Estados-Membros chegaram a um consenso para proibir os sistemas de inteligência artificial de gerarem conteúdos pornográficos deepfake. A proibição será incorporada em alterações ao Regulamento de Inteligência Artificial de 2024. Parlamento Europeu

GateNews4h atrás

A Tether lança o modelo de IA médica MedPsy QVAC, atingindo uma pontuação de 62,62 na versão com 17 mil milhões de parâmetros

De acordo com a Odaily, o Tether AI Research Group lançou o QVAC MedPsy, um modelo de IA médica concebido para funcionar localmente em smartphones e dispositivos vestíveis, sem dependência de nuvem. A versão com 1,7 mil milhões de parâmetros obteve 62,62 em sete benchmarks médicos, superando o MedGemma-1.5-4B da Google em 11,42 poi

GateNews4h atrás

A API da B.AI lança quatro novos modelos, incluindo o GPT-5.5 Instant, no espaço de 48 horas após o lançamento da OpenAI

A API da B.AI lançou quatro novos modelos: GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 e GLM-5.1. O GPT-5.5 Instant concluiu a adaptação subjacente e a integração da interface no prazo de 48 horas após o lançamento da OpenAI, permitindo acesso sem atraso a

GateNews4h atrás
Comentar
0/400
Nenhum comentário