Gate News notícia, a 25 de março, a Cursor lançou o relatório técnico do Composer 2, revelando pela primeira vez o plano completo de treino. O modelo base Kimi K2.5 utiliza arquitetura MoE, com um total de 1,04 triliões de parâmetros e 32 bilhões de parâmetros ativados. O treino divide-se em duas fases: primeiro, pré-treinamento contínuo em dados de código para reforçar o conhecimento de codificação, seguido de aprendizagem por reforço em larga escala para melhorar a capacidade de codificação de ponta a ponta. O ambiente de RL simula completamente cenários reais de uso da Cursor, incluindo edição de ficheiros, operações de terminal, pesquisa de código e chamadas de ferramentas, permitindo que o modelo aprenda em condições próximas ao ambiente de produção. O relatório também divulga a construção do benchmark próprio CursorBench: recolhendo tarefas a partir de sessões reais de codificação da equipa de engenharia, em vez de construí-las manualmente. O Kimi K2.5 obteve uma pontuação de 36,0 neste benchmark, e após as duas fases de treino, o Composer 2 atingiu 61,3 pontos, um aumento de 70%. A Cursor afirma que o custo de inferência é significativamente inferior ao de uma API de um grande modelo de ponta, alcançando um equilíbrio ótimo entre precisão e custo.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
A Manta Network encerra o programa de staking e suspende os incentivos
De acordo com a Manta Network, o protocolo está a encerrar o seu programa de staking, com os prémios de staking a cessarem imediatamente. Os operadores de nós podem levantar a qualquer momento. O projecto citou preocupações de que os mecanismos de rendimento baseados na inflação iriam diluir o valor dos detentores de MANTA a longo prazo. A Manta Network planeia transitar para
GateNews13m atrás
A Sui processou mais de 1 bilião de dólares em volume de stablecoins desde agosto, e a Mysten Labs procura transferências sem comissões
De acordo com Adeniyi Abiodun, cofundador da Mysten Labs, na Consensus 2026, a rede Sui já processou mais de 1 bilião de dólares em volume de stablecoins desde agosto. Abiodun apresentou a blockchain como uma futura “rede predefinida para como você movimenta dinheiro” através de transferências planeadas de stablecoins sem taxas e
GateNews31m atrás
Ripple, Mastercard, Ondo e JPMorgan concluem piloto de resgate de Tesouraria tokenizada na XRP Ledger
Ripple, Mastercard, Ondo Finance e JPMorgan concluíram recentemente uma transação-piloto que resgatou participações de U.S. Treasury tokenizadas no XRP Ledger e liquidou o pagamento em dólares dos EUA relacionado, entre fronteiras. A transação envolveu o fundo de Ondo de Short-Term U.S. Government Treasuries (OUSG). Ripple
GateNews52m atrás
xStocks lança a xChange Unified Execution Layer na Mantle com 10 acções dos EUA tokenizadas
De acordo com o anúncio oficial, a xChange, da xStocks, a camada unificada de execução, foi lançada na Mantle, oferecendo zero slippage e elevada liquidez, impulsionada pela Atomic RFQ. A plataforma permite negociação 24 horas por dia de 10 activos tokenizados de ações dos EUA, incluindo Tesla (TSLAx), Nvidia (NVDAx), Apple (AAPLx) e Meta (M
GateNews57m atrás
A Tether lança o modelo de IA médica MedPsy QVAC, atingindo uma pontuação de 62,62 na versão com 17 mil milhões de parâmetros
De acordo com a Odaily, o Tether AI Research Group lançou o QVAC MedPsy, um modelo de IA médica concebido para funcionar localmente em smartphones e dispositivos vestíveis, sem dependência de nuvem. A versão com 1,7 mil milhões de parâmetros obteve 62,62 em sete benchmarks médicos, superando o MedGemma-1.5-4B da Google em 11,42 poi
GateNews1h atrás
O modelo de IA médica da Tether, no valor de 1,7 mil milhões, supera hoje um concorrente 16 vezes maior
De acordo com a equipa de investigação em IA da Tether, a empresa lançou hoje a série de modelos de linguagem médica QVAC MedPsy, concebida para implementação local em smartphones e dispositivos vestíveis, sem dependência da nuvem. A versão com 1,7 mil milhões de parâmetros obteve 62,62 em sete benchmarks médicos, superando o Google MedGemma-4B
GateNews1h atrás