Mensagem do Gate News, 24 de Abril — O engenheiro da OpenAI Clive Chan apresentou objecções detalhadas ao capítulo de recomendações de hardware no relatório técnico V4, chamando-lhe “surpreendentemente medíocre e propenso a erros” em comparação com a aclamada versão V3. A orientação de hardware da V3, que incluía sessões de Q&A que se tornaram no tema de discussão mais popular na conferência académica ISCA, ofereceu recomendações específicas alinhadas com normas de interconexão da indústria. Já a V4, em contraste, é muito mais vaga.
Chan contestou sistematicamente três recomendações-chave. No consumo de energia, o relatório sugere que a optimização de software permite que os chips executem simultaneamente em capacidade total computação, armazenamento e comunicação, e recomenda que os fabricantes de chips reservem folga adicional de energia. Chan argumenta que isso é contraproducente: o poder total do chip é limitado por restrições das limitações físicas do processo, pelo que reservar mais margem de energia apenas reduz a frequência de funcionamento, acabando por diminuir o desempenho computacional. No que respeita à transferência de dados de GPU para GPU, o relatório defende um modelo pull—em que as GPUs buscam activamente dados—em vez de um modelo push, citando a elevada sobrecarga de notificações em operações push. Chan contesta isso, sustentando que o pull é na verdade mais lento e que capacidades melhoradas dos adaptadores de rede seriam preferíveis. No entanto, os dois podem estar a discutir camadas diferentes do problema: o relatório trata a sobrecarga do mecanismo de notificação, enquanto Chan se refere à própria latência de transmissão.
Quanto às funções de activação, o relatório recomenda substituir SwiGLU por funções mais simples para reduzir a carga computacional. Chan não vê mérito nisso, observando que o Sonic MoE já demonstrou desempenho óptimo usando SwiGLU. Chan suspeita que o DeepSeek pode ter “enfraquecido deliberadamente esta secção.”
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Sonhos com o Claude da Anthropic: os agentes auto-organizam memórias entre tarefas, eliminam duplicados e contradições
A Anthropic, na conferência Code with Claude, anunciou os Dreams, permitindo que os Claude Managed Agents organizem automaticamente memórias entre múltiplas sessões de conversa, eliminem duplicados e contradições, e atualizem entradas desatualizadas, produzindo uma base de memórias finalizável e auditável; o limite de entrada é de 100 sessões e 4.096 caracteres, com execução assíncrona, concluída entre alguns minutos e algumas dezenas de minutos, e com suporte para observação por streaming. A pré-visualização da investigação requer candidatura; por agora, apenas suporta claude-opus-4-7 e claude-sonnet-4-6, com data de lançamento oficial ainda por definir.
ChainNewsAbmedia1h atrás
A Anthropic negocia com a SpaceX a capacidade de computação: garante Colossus 1 com 22 mil GPUs, e o Claude removeu os limites
A Anthropic anunciou uma parceria de capacidade computacional com a SpaceX para o centro de dados Colossus 1, com planos para utilizar mais de 220 mil GPUs Nvidia e mais de 300MW de capacidade. A implementação deverá ficar concluída no prazo de um mês para ser disponibilizada ao uso da Anthropic, melhorando o desempenho e a experiência do Claude e do Code. Em paralelo, foram alargados os limites de utilização a cada 5 horas para Pro/Max/Team/Enterprise, foi removido o limite durante os picos e foi aumentada a taxa da API do Opus. A expansão das infraestruturas na Ásia e na Europa ocorre em simultâneo, e, no futuro, há ainda intenções para “computação de IA em órbita”, entre outras, embora ainda não haja contratos fechados.
ChainNewsAbmedia2h atrás
Engenheiro da Coinbase: os agentes de IA poderiam perturbar o modelo de publicidade na Web
Erik Reppel, engenheiro da Coinbase, afirmou que os agentes de inteligência artificial poderiam minar fundamentalmente o modelo de negócio da internet, dependente da publicidade. Segundo Reppel, a economia da Web depende fortemente das receitas de publicidade geradas a partir de utilizadores humanos, mas os agentes de IA contornam esse sistema
CryptoFrontier2h atrás
A Anthropic duplica os limites de taxa do Claude Code após garantir uma capacidade de 300 MW num acordo com a SpaceX
Segundo a Odaily, a Anthropic assinou um acordo com a SpaceX para aceder à capacidade total de computação do centro de dados Colossus 1, garantindo mais de 300 megawatts de nova capacidade e mais de 220.000 GPUs NVIDIA no prazo de um mês. A partir do momento, os limites de taxa de cinco horas do Claude Code para Pro,
GateNews2h atrás
A OpenAI publica o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, a AMD e a Microsoft para criar a infraestrutura base do Stargate
A OpenAI anunciou a MRC, uma proposta de protocolo para uma rede de supercomputação de IA, em colaboração com a AMD, a Microsoft, a NVIDIA e outras entidades, e disponibilizou-a em código aberto na OCP. A MRC divide os dados e envia-os por múltiplos caminhos em simultâneo, evita obstáculos a nível de microssegundos, reduz a congestão e mantém a sincronização da GPU, resolvendo os gargalos de transferência em grandes clusters de treino. As bases já implantadas, como o Stargate em Abilene, no Texas, têm interfaces de 800Gb/s e já foram integradas em treinos reais.
ChainNewsAbmedia3h atrás