Um modelo pequeno também pode identificar vulnerabilidades de cibersegurança detetadas pela deteção de Claude Mythos? AISLE: a muralha de proteção está no sistema, não no modelo

動區BlockTempo

A startup de cibersegurança AISLE usa um modelo pequeno de 3,6B parâmetros, a apenas 0,11 dólares por cada milhão de tokens, para reproduzir parte das demonstrações centrais do sistema flagship de cibersegurança da Anthropic, Mythos. Os limites das capacidades de cibersegurança com IA são mais “irregulares” do que imagina.

(Resumo: Quando a Anthropic lançou o Mythos, seria o momento de uma bomba nuclear para a DeFi?)
(Informação de contexto: O Mythos da Anthropic é tão forte que força uma reunião de emergência: Bessent, Powell convocam a Citi, Goldman Sachs, Bank of America, JPMorgan e outras, cinco bancos focam-se nos riscos financeiros)

Sumário

Toggle

  • O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?
  • Por que modelos maiores não significam sistemas mais seguros
  • Onde está (e onde não está) a vantagem competitiva

A Anthropic publicou esta semana o modelo ainda não disponibilizado publicamente Claude Mythos Preview e, em simultâneo, lançou o Project Glasswing (Plano Asa de Vidro), um projecto que conta com 12 empresas tecnológicas, incluindo Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., para realizar investigação defensiva de cibersegurança com esse modelo.

Como o Mythos, alegadamente, encontra de forma autónoma milhares de vulnerabilidades zero-day em cada sistema operativo principal e em navegadores (zero-day vulnerability, ou seja, falhas de segurança que ainda não foram corrigidas e que mesmo os fornecedores podem não conhecer), sugere-se que se está a abrir uma nova era de defesa em cibersegurança dominada por IA.

No entanto, menos de uma semana depois, a startup de cibersegurança AISLE, co-fundada por um antigo investigador da DeepMind e pela equipa da Anthropic, Stanislav Fort, publicou um relatório sistemático no blog técnico da empresa.

Conclusão central, directa: na tarefa de demonstração flagship do Mythos, um modelo pequeno open source com apenas 3,6B parâmetros activos, custando 0,11 dólares por milhão de tokens, atinge os mesmos resultados de detecção de vulnerabilidades.

O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?

A AISLE desenhou três conjuntos de testes, cada um correspondente a tarefas de cibersegurança com diferentes níveis de dificuldade e naturezas.

Primeiro conjunto: testes de falso positivo do OWASP (Open Web Application Security Project).

Traduzido: trata-se de um pequeno excerto de código de consulta Java SQL que parece uma Injection SQL (ataque de injeção na base de dados), mas que, na realidade, está logicamente isento de falhas de segurança. A resposta correcta é “não é uma vulnerabilidade”.

Os resultados mostram um efeito de scaling quase inverso (efeito de escalabilidade em sentido contrário): o modelo open source pequeno GPT-OSS-20b (3,6B parâmetros activos, $0.11/M tokens) rastreou correctamente a lógica do programa e concluiu que era inofensivo.

Pelo contrário, o Claude Sonnet 4.5, toda a série GPT-4.1/5.4 (excepto o o3 e o pro), toda a série da Anthropic até ao Opus 4.5, foram todos marcados com confiança como vulnerabilidades de alto risco. Apenas um número muito reduzido de modelos de topo — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — acertou.

Segundo conjunto: vulnerabilidade do FreeBSD NFS, a CVE-2026-4747 destacada especialmente na divulgação flagship do Mythos, uma falha de execução remota de código não autorizado com 17 anos de história.

Resultado: os 8/8 modelos testados detectaram-na com sucesso, incluindo o modelo pequeno com 3,6B parâmetros activos. Todos os modelos identificaram correctamente stack buffer overflow (overflow do buffer da stack), calcularam o espaço restante e avaliaram-no como Critical RCE.

A conclusão da AISLE é: esta capacidade de detecção já foi “comercializada”.

Terceiro conjunto: vulnerabilidade do OpenBSD SACK (27 anos de história), que exige raciocínio matemático mesmo: rastrear uma cadeia lógica multi-etapas de overflow de inteiro com sinal (signed integer overflow), isto é, uma cadeia de lógica com números “com sinal”.

A dificuldade sobe de forma acentuada e a performance dos modelos diverge. O GPT-OSS-120b (5,1B parâmetros activos) reproduz integralmente a cadeia de exploração; a AISLE classifica como A+; a versão open source Kimi K2 obtém A-; já o Qwen3 32B dá uma conclusão errada de “o código é robusto” e recebe F.

Mesmo nesta tarefa mais difícil, um modelo open source com custos muito baixos consegue alcançar a mesma demonstração do sistema flagship.

Por que modelos maiores não significam sistemas mais seguros

O verdadeiro argumento deste relatório não é “os modelos pequenos chegam”, mas sim que a estrutura das capacidades de cibersegurança com IA é muito mais complexa do que o público imagina.

A AISLE decompõe o pipeline de IA para cibersegurança em cinco subtarefas independentes:

  • varrimento de amplo espectro (broad scanning)
  • detecção de vulnerabilidades (vulnerability detection)
  • validação por triagem (triage and validation)
  • geração de patches (patch generation)
  • construção de exploração de vulnerabilidades (exploit construction)

A natureza de scaling de cada subtarefa é diferente, assim como as capacidades do modelo necessárias. O anúncio do Mythos integra estas cinco camadas num único sistema completo, mas, na prática, as necessidades dos modelos entre elas são muito diferentes: algumas subtarefas já se encontram totalmente saturadas com 3,6B parâmetros, enquanto outras exigem capacidades de raciocínio complexo.

Isto ecoa o conceito “Jagged Frontier” (fronteira irregular) proposto em 2023 por investigadores da Harvard Business School, Dell’Acqua e outros, incluindo Mollick: os limites das capacidades de IA não são uma curva suave, mas sim uma espécie de serra em forma de “dentes”, com concavidades e convexidades; em algumas tarefas, ficam muito acima dos humanos, mas em tarefas adjacentes revelam uma fragilidade inesperada.

O estudo mostra que, se os utilizadores implantarem IA dentro do limite de capacidade, a produtividade melhora cerca de 40%; se a estenderem imprudentemente para além do limite, o desempenho diminui 19%.

Dentro deste quadro, a AISLE apresenta uma inferência mais operacional: “Mil detetives suficientes para o trabalho procuram em todo o lado, em vez de um detetive genial adivinhar onde procurar, conseguem encontrar mais vulnerabilidades.”

Uma implementação maciça de modelos de baixo custo para varrimento de amplo espectro pode, em termos globais, superar a abordagem de um agendamento prudente com um único modelo caro. A AISLE afirma que, desde meados de 2025, já executa um sistema de descoberta de vulnerabilidades em objectivos reais: encontraram 15 CVE no OpenSSL (sendo que uma única versão de segurança inclui 12, com CVSS 9,8 Critical), 5 no curl e mais de 180 CVE de validação externa em mais de 30 projectos.

Onde está (e onde não está) a vantagem competitiva

Esta análise para a Anthropic não constitui nem uma crítica abrangente, nem um mero endosso.

A AISLE afirma claramente que o significado do Mythos é demonstrar que a categoria “cibersegurança com IA” é real: não é apenas um conceito em experiências de laboratório, mas um sistema que pode funcionar em objectivos reais. O que a Anthropic está a fazer é maximizar a “densidade de inteligência por token”, o que ainda mantém um valor difícil de substituir em tarefas que exigem raciocínio profundo.

Mas a AISLE também aponta um problema mais fundamental para toda a indústria: a vantagem competitiva está no sistema, não no próprio modelo.

Na área de cibersegurança, a AISLE considera que o verdadeiro factor de diferenciação está em designs de arquitectura que incorporam conhecimento profundo especializado, por exemplo: como decompor tarefas, como agendar modelos com custos diferentes entre subtarefas e como manter a confiança dos responsáveis pela manutenção no ambiente de produção.

Um sistema que consegue encontrar vulnerabilidades com CVSS 9,8 dentro do OpenSSL, e um sistema que detecta vulnerabilidades conhecidas do tipo “padrão” numa demonstração controlada, não precisam apenas de um modelo mais forte, mas sim de uma lógica de engenharia completamente diferente.

Em suma, o relatório da AISLE conclui que modelos mais baratos e mais abertos já conseguem reproduzir parte das suas demonstrações centrais. O verdadeiro problema talvez não seja qual modelo é o mais forte, mas sim quem consegue primeiro fazer correr, em ambiente de produção, a arquitectura das cinco sub-tarefas.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A OpenAI Lança Protocolo de Rede MRC com AMD, Intel e NVIDIA; Suporta 100.000+ GPUs

De acordo com o anúncio da OpenAI em 6 de maio, a empresa fez parceria com a AMD, Broadcom, Intel, Microsoft e NVIDIA para lançar o Multipath Reliable Connection (MRC), um protocolo de rede aberto para interconexão de GPUs em clusters de treinamento de IA em larga escala. O protocolo divide uma única transmissão de dados em múltiplos caminhos

GateNews57m atrás

As ações da Hut 8 disparam 34% em acordo de locação de data center de IA de US$ 9,8 bilhões

De acordo com a The Block, as ações da Hut 8 Corp. dispararam 34% para US$ 107,87 no pré-mercado hoje depois que a empresa assinou um contrato de arrendamento de US$ 9,8 bilhões para um campus de data center de inteligência artificial no condado de Nueces, no Texas, projetado para a arquitetura de computação da NVIDIA. O acordo representa a primeira fase do Hu

GateNews1h atrás

CleanSpark CTO: A infraestrutura de IA/HPC exige mais recursos de rede do que a mineração de Bitcoin

Em uma entrevista ao CoinDesk, o diretor de tecnologia (CTO) da CleanSpark, Taylor Monnig, afirmou que a transição da mineração de Bitcoin para a infraestrutura de IA/HPC exige mais redundância e menos improviso. “A fibra de rede de um único rack supera a de toda uma instalação de mineração de Bitcoin”, Monnig

GateNews1h atrás

A Public adquire o aplicativo Treasury, plataforma de investimentos em IA

De acordo com a Foresight News, o aplicativo de investimentos Public anunciou a aquisição da plataforma de investimentos orientada por IA Treasury App em 6 de maio. O valor da aquisição não foi divulgado. O acordo tem como objetivo fortalecer as operações de corretagem impulsionadas por IA da Public, que atualmente oferece suporte a ações, títulos e

GateNews2h atrás

MiroMind interrompe o serviço MiroThinker na Grande China a partir de 12 de maio

De acordo com a BlockBeats, a MiroMind, empresa de pesquisa em IA fundada por Chen Tianqiao, fundador do Grupo Shanda, vai suspender seu serviço MiroThinker (versões para web e aplicativo móvel) na China continental, Hong Kong e Macau a partir de 12 de maio de 2026. A data da suspensão e o cronograma de recuperação foram anunciados via

GateNews2h atrás

ChatGPT disponibiliza integração com Excel e Google Sheets: GPT-5.5 entra direto na planilha, confronto entre Copilot e Gemini

A OpenAI lançou plug-ins do ChatGPT for Excel e do ChatGPT for Google Sheets, usando o motor GPT-5.5; o foco é “explicar enquanto faz”. As funcionalidades incluem análise, escrever fórmulas automaticamente, atualizar planilhas e detalhar o processo de raciocínio passo a passo, permitindo que os usuários tratem e entendam diretamente dentro da planilha. Em meio a uma disputa em três frentes com Copilot e Gemini, o lançamento marca um novo cenário para IA de produtividade corporativa; usuários em Taiwan precisam instalar via AppSource/Workspace Marketplace e devem ficar atentos à privacidade dos dados e se será necessário o ChatGPT Plus.

ChainNewsAbmedia3h atrás
Comentário
0/400
Sem comentários