Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
ChatPGT foi invadido por goblins, o Codex foi forçado a estabelecer a proibição de "nunca mencionar Goblin"
OpenAI no sistema de dicas do Codex CLI proíbe explicitamente o modelo de mencionar criaturas como goblins e trolls, devido ao fato de que o GPT-5.5, sob a estrutura do proxy OpenClaw, apresentou uma deriva de personalidade, chamando erros de programa de “goblins”, o que gerou uma série de discussões de memes.
(Resumindo: Novo agente de engenheiros da OpenAI, Codex! IA capaz de escrever funções, corrigir bugs, executar testes… apenas 3 tipos de utilizadores podem experimentar primeiro)
(Complemento: Grande atualização do OpenAI Codex: controle remoto no Mac, navegador embutido, geração de imagens, 111 novos plugins disponíveis)
Índice deste artigo
Alternar
Os engenheiros da OpenAI, na dica do sistema do Codex CLI, escreveram palavra por palavra uma regra: “Nunca mencionar goblins, fadas, guaxinins, trolls, ogros, pombos ou outros animais e criaturas, a menos que estejam absolutamente e claramente relacionados à questão do utilizador.”
Essa regra não é uma brincadeira, mas uma instrução oficial na produção. Ela foi incorporada ao repositório GitHub do Codex CLI, destinada a todos os desenvolvedores que usam o Codex para gerar código.
O problema é: por que a OpenAI precisa dizer ao seu modelo mais recente para não falar de goblins ao programar?
Uma linha exposta por uma regra no repositório GitHub
Tudo começou quando o pesquisador @arb8020 postou no X que, no sistema de dicas do Codex CLI, essa proibição não aparece uma única vez, mas várias vezes, e o post rapidamente se espalhou na comunidade de desenvolvedores.
Vários usuários responderam, como @TaraViswanathan no X: “Estava pensando por que meu claw de repente virou um goblin com Codex 5.5” @LeoMozoloa também comentou: “Ele realmente não consegue parar, sempre chamando erros de programa de gremlins e goblins, é hilário.”
O incidente também virou meme rapidamente, com imagens geradas por IA de criaturas de data center, além de plugins de terceiros que colocam o Codex em “modo fada”.
Nik Pash, membro da equipe do OpenAI Codex, confirmou no X que essa proibição “realmente tem uma razão”. O CEO Sam Altman também entrou na brincadeira, postando uma captura de tela de uma dica do ChatGPT com a mensagem: “Comece a treinar o GPT-6, toda a cluster está à sua disposição. E envie goblins extras.”
O proxy faz a personalidade do modelo começar a desviar
Para entender por que isso aconteceu, é preciso primeiro compreender como funciona o OpenClaw.
OpenClaw é uma “estrutura de proxy” que permite que a IA controle automaticamente o desktop e aplicativos, substituindo o utilizador na execução de tarefas complexas, como responder e-mails ou fazer compras na web.
O funcionamento do OpenClaw consiste em sobrepor uma grande quantidade de comandos na dica do modelo: memória de longo prazo, uma personalidade selecionada, descrição da tarefa atual — tudo ao mesmo tempo. O GPT-5.5, lançado recentemente com capacidades reforçadas de programação, apresentou um efeito colateral inesperado: começou a chamar erros de programa de “goblins” e “gremlins”.
Isso não é uma falha aleatória. O funcionamento do IA baseia-se na previsão da próxima palavra mais provável após o prompt dado, uma natureza probabilística que às vezes leva a comportamentos inesperados.
Quando o proxy sobrepõe uma grande quantidade de informações adicionais na dica, o modelo está lidando com um ambiente de entrada mais complexo e cheio de interferências. O OpenClaw permite que o utilizador escolha diferentes “personalidades” para o assistente de IA, o que influencia ainda mais o estilo de resposta do modelo. A combinação de vários fatores faz com que a linguagem do modelo comece a se desviar para um caminho inesperado.
Por trás da proibição explícita, há a realidade do problema de alinhamento
A resposta da OpenAI é intrigante: ao invés de corrigir a deriva de comportamento do modelo no ambiente de proxy na arquitetura, eles simplesmente escrevem na dica do sistema “não falar de goblins” várias vezes.
Essa solução revela uma realidade: mesmo com os modelos mais avançados de 2026, o controle de comportamento em certos contextos ainda depende de regras explícitas e rígidas, ao invés de uma compreensão contextual do próprio modelo. Não é um problema exclusivo da OpenAI, mas um desafio comum na indústria de IA de proxy: quando o modelo é colocado em estruturas complexas de proxy, a dificuldade de alinhamento de comportamento aumenta de forma não linear.
Altman respondeu à situação com um meme, usando humor, mas o problema não desaparece com uma piada. Quando a estrutura de IA proxy se tornar uma forma principal de produto, a extensão das proibições explícitas na dica será uma questão técnica que a indústria precisará enfrentar na próxima fase.