Mensagem do Gate News, 20 de abril — A Google está em conversações com o fabricante de chips dos EUA Marvell Technology para desenvolver dois chips personalizados, concebidos para executar cargas de trabalho de IA com mais eficiência e reduzir a dependência dos GPUs da Nvidia.
Um dos chips será uma unidade de processamento de memória (MPU) concebida para funcionar em conjunto com a unidade de processamento de tensores (TPU) da Google, enquanto a outra será uma nova TPU construída especificamente para a inferência de modelos de IA. As empresas pretendem concluir o desenho da MPU tão cedo quanto em 2027, antes de avançarem para a produção em testes.
A parceria reflete o impulso mais amplo da Google para desenvolver silício proprietário para a sua infraestrutura de IA na cloud, permitindo à empresa otimizar o desempenho enquanto cria alternativas às soluções existentes baseadas em GPU.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Modelos da OpenAI para migrar gradualmente para o chip personalizado Trainium da Amazon, diz Altman; afirma que está a "olhar em frente"
Mensagem de Gate News, 29 de abril — Os modelos da OpenAI a correr no Amazon Web Services' Bedrock irão gradualmente migrar para o Trainium, o chip de IA personalizado da Amazon, de acordo com comentários recentes do CEO da OpenAI Sam Altman e de executivos da AWS. Atualmente, os modelos operam num ambiente misto usando tanto GPUs como Tr
GateNews51m atrás
Altman: A precificação por tokens está a tornar-se obsoleta à medida que o GPT-5.5 muda o foco para a conclusão de tarefas em vez da contagem de tokens
Mensagem de Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, disse numa entrevista a Ben Thompson na Stratechery que a fixação de preços baseada em tokens não é um modelo viável a longo prazo para serviços de IA. Usando o GPT-5.5 como exemplo, Altman observou que, embora o preço por token seja significativamente mais alto do que o do GPT-5.4, o modelo usa muito menos tokens para concluir a mesma tarefa, o que significa que os clientes não se importam com a contagem de tokens — só se importam com se a tarefa é concluída e com o custo total.
GateNews55m atrás
Modelo Ling-2.6-flash da Ant Group disponibilizado em código aberto: 104B Parâmetros Com 7,4B Activos, Atinge Múltiplos Benchmarks SOTA
Mensagem de Gate News, 29 de Abril — Os pesos do modelo Ling-2.6-flash da Ant Group foram agora disponibilizados em código aberto, tendo anteriormente estado apenas disponíveis via API. O modelo apresenta 104 mil milhões de parâmetros totais com 7,4 mil milhões activados por inferência, uma janela de contexto de 256K e licenciamento MIT. Estão disponíveis versões com precisão BF16, FP8 e INT4
GateNews1h atrás
Sam Altman publica capturas de ecrã do Codex em modo duplo, com a separação oficial entre as funções de escritório e de programação
Declaração e captura de ecrã publicadas pelo CEO da OpenAI, Sam Altman, a 29 de abril na plataforma X: o Codex está a lançar uma nova interface de orientação. Quando os utilizadores entram pela primeira vez, têm de escolher entre dois modos, nomeadamente Excelmogging e Codemaxxing. Os utilizadores ativos semanais do Codex já ultrapassam os 4 milhões, e os casos de uso já se estenderam desde a geração de código até a utilizações não técnicas.
MarketWhisper1h atrás
O Codex da OpenAI lança uma interface em dois modos: Excelmogging para trabalho de escritório, Codemaxxing para programação
Mensagem do Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, anunciou hoje no X uma interface do Codex redesenhada, apresentando dois modos distintos para os utilizadores. "Excelmogging" destina-se a tarefas quotidianas de escritório com uma interface simplificada e o slogan "Mesmas ferramentas, interface mais simples," com exemplos de tarefas como
GateNews2h atrás
Mídia norte-americana: um projecto de ordem executiva da Casa Branca permite a entrada do modelo Anthropic Mythos no governo
De acordo com um relatório citado pela Axios em 28 de abril, a Casa Branca está a definir orientações que permitem a qualquer agência federal contornar a avaliação de risco da cadeia de fornecimento (SCRD) da Anthropic, e introduzir novos modelos para utilização pelo governo, incluindo o modelo Mythos da Anthropic. A este respeito, a Casa Branca emitiu um comunicado oficial no qual afirma que quaisquer declarações de política serão publicadas diretamente pelo Presidente, e que quaisquer outras afirmações são pura especulação.
MarketWhisper2h atrás