Resultados da pesquisa por "MOE"
Hoje
04:05

Modelo Ling-2.6-flash da Ant Group disponibilizado como código aberto: 104B de parâmetros com 7,4B ativos, alcança múltiplos benchmarks SOTA

Mensagem do Gate News, 29 de abril — Os pesos do modelo flash Ling-2.6 da Ant Group agora foram disponibilizados como código aberto, após anteriormente estarem disponíveis apenas via API. O modelo tem 104 bilhões de parâmetros no total, com 7,4 bilhões ativados por inferência, uma janela de contexto de 256K e licenciamento MIT. Versões de precisão BF16, FP8 e INT4
Mais
23:49

A série MiMo-V2.5 da Xiaomi vai para o código aberto: 1T de parâmetros com eficiência de token superior vs GPT-5.4

Mensagem do Gate News, 27 de abril — A equipe MiMo da Xiaomi disponibilizou em código aberto a série de modelos de linguagem de grande porte MiMo-V2.5 sob licença MIT, com suporte a implantação comercial, treinamento contínuo e ajuste fino. Ambos os modelos apresentam uma janela de contexto de 1 milhão de tokens. O MiMo-V2.5-Pro é um modelo de especialistas mistos de texto puro MoE
Mais
08:13

Engenheiro da OpenAI Clive Chan questiona recomendações de hardware da V4, citando erros e falta de clareza em relação à V3

Mensagem do Gate News, 24 de abril — o engenheiro da OpenAI, Clive Chan, levantou objeções detalhadas ao capítulo de recomendações de hardware no relatório técnico V4, chamando-o de "surpreendentemente medíocre e propenso a erros" em comparação com a aclamada versão V3. A orientação de hardware da V3, que incluía sessões de Q&A
Mais
09:45

DeepSeek disponibiliza código-fonte aberto do TileKernels, biblioteca de kernels de GPU para treinamento e inferência de modelos em larga escala

Mensagem do Gate News, 23 de abril — A DeepSeek disponibilizou o código-fonte aberto do TileKernels sob a licença MIT, uma biblioteca de kernels de GPU escrita em TileLang para treinamento e inferência de modelos de linguagem em larga escala. O TileLang é uma linguagem de domínio desenvolvida pela equipe tile-ai para expressar kernels de GPU de alto desempenho em
Mais
14:05

Yifan Zhang Divulga as Especificações Técnicas Completas do DeepSeek V4: 1,6T Parâmetros, 384 Especialistas com 6 Ativações

Mensagem do Gate News, 22 de abril — o estudante de PhD da Princeton, Yifan Zhang, divulgou no X as especificações técnicas completas do DeepSeek V4, após um prévio em 19 de abril. O V4 tem 1,6 trilhão de parâmetros no total e uma variante leve, o V4-Lite, com 285 bilhões de parâmetros. O modelo emprega o mecanismo de atenção DSA2
Mais