A Anthropic anunciou neste mês um modelo chamado Claude Mythos. Disse que era perigoso demais para ser lançado.


Eles o bloquearam atrás de uma coalizão avaliada de AWS, Apple, Microsoft, Google e JPMorgan por 5 vezes o preço do seu próximo melhor modelo.
A proposta era que ele encontrava vulnerabilidades de software que nenhum humano ou IA tinha descoberto antes.
Duas semanas depois, um pesquisador de segurança identificou exatamente os bugs que a Anthropic exibiu como prova e os alimentou em modelos pequenos, baratos e abertos que qualquer pessoa pode rodar.
Cada um deles encontrou o bug principal. Um modelo de peso aberto de um laboratório chinês também percebeu algo que o anúncio da Anthropic não mostrou: o bug é wormable.
Ele se espalha de máquina para máquina por conta própria.
Essa é a diferença entre uma falha séria e o tipo de coisa que derruba hospitais em 150 países em um final de semana.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar