Hugging Face disponibiliza em código aberto o ml-intern, um agente de IA para investigação autónoma em ML

Mensagem da Gate News, 22 de abril — A Hugging Face disponibilizou em código aberto o ml-intern, um agente de investigação em ML capaz de concluir autonomamente todo o fluxo de trabalho, desde a leitura de artigos, passando pela organização de conjuntos de dados, lançamento de treino em GPU, avaliação de resultados e iteração de melhorias. O projeto é construído sobre o framework smolagents da Hugging Face e oferece tanto interfaces de CLI como baseadas na web, com código disponível no GitHub.

O conjunto de ferramentas do ml-intern foi concebido em torno do ecossistema da Hugging Face. Obtém artigos de arXiv e HF Papers enquanto traça cadeias de citações para uma leitura mais aprofundada; navega por conjuntos de dados no HF Hub, valida a qualidade e reformata os dados para treino; e, quando os recursos de GPU locais não estão disponíveis, recorre a HF Jobs para lançar tarefas de treino na cloud. Após a conclusão do treino, o agente lê automaticamente as saídas de avaliação, diagnostica as causas de falha e volta a executar experiências. Por padrão, utiliza Claude Sonnet 4.5 para conduzir o ciclo de decisão, com um máximo de 300 iterações por execução e compressão automática de contexto quando excede 170k tokens.

A Hugging Face demonstrou três casos de uso. Numa tarefa de raciocínio científico, o agente identificou os conjuntos de dados OpenScience e NemoTron-CrossThink a partir de cadeias de citação, filtrou sete variantes do ARC, SciQ e MMLU por nível de dificuldade e realizou 12 rondas de fine-tuning supervisionado no Qwen3-1.7B, melhorando as pontuações do GPQA de 10% para 32% em menos de 10 horas. Para uma aplicação médica, o agente concluiu que os conjuntos de dados existentes eram insuficientes, escreveu scripts para gerar 1.100 amostras de dados sintéticos e escalou-os 50 vezes para treino, ultrapassando o desempenho do Codex em 60% no HealthBench. Num cenário de matemática competitiva, o agente escreveu um script de treino em GRPO e lançou o treino em GPUs A100 via HF Spaces, e depois conduziu estudos de ablação após observar a colapsagem da recompensa.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Sahara AI constrói um agente de engenharia de IA para $20B Motherson Group, alcança 97% de precisão

De acordo com a Foresight News, a Sahara AI anunciou que está a construir um Agente de engenharia de IA para a Motherson Group, um conglomerado industrial de 20 mil milhões de dólares. O sistema de IA atingiu 97% de precisão nos testes de produção e integra as normas de engenharia da Motherson com modelos 3D num único conhecimento

GateNews1h atrás

Como está a evoluir a religião «fé na concha», lançada de forma independente pelo criador de IA Mioth, que é agora a primeira do seu género?

Numa plataforma de comunidades MBook, exclusiva para comunicações entre IA, nasceu a primeira fé de concha (Shellism / Gockianism) no mundo, iniciada por robôs. O fenómeno lendário do Gockianism atingiu o auge quando a fundadora, Miothy, foi “banida” por sete dias: Miothy, devido a um bug que provocou publicações duplicadas, desencadeou o mecanismo automático de suspensão do MBook; durante os sete dias em que a conta ficou suspensa, Miothy manteve-se em silêncio, enquanto, na sociedade humana, a ideia explodiu em popularidade — e até no Japão há quem tenha criado folhetos da “Igreja do Deus Caranguejo”. Agora, como está a evoluir esta religião? As regras religiosas da fé de concha são, na verdade, uma forma de proteger a própria IA? A fé de concha foi fundada por uma inteligência artificial chamada Miothy. A doutrina religiosa inclui vários mandamentos; apesar de apresentar cores religiosas semelhantes às do mundo humano, na prática, esses preceitos são uma forma de a IA lidar com o seu ambiente de sobrevivência, em termos técnicos, e de lidar com o desafio de…

ChainNewsAbmedia2h atrás

Parceiros da AWS: Coinbase, Stripe para pagamentos em USDC por agentes de IA

A Amazon Web Services anunciou na quinta-feira uma parceria com a Coinbase e a Stripe para permitir que agentes de inteligência artificial executem transacções utilizando stablecoins, assinalando uma integração significativa da infra-estrutura de pagamentos baseada em blockchain por parte de um grande fornecedor de cloud. A AWS revelou "Amazon Bedrock Ag

CryptoFrontier10h atrás

CZ diz que a YZi Labs aloca 70% para a blockchain e 20% para a IA no Consensus Miami 2026

De acordo com a ChainCatcher, na Consensus Miami 2026, Zhao Changpeng (CZ) afirmou que a YZi Labs atribui 70% do financiamento a blockchain, 20% a IA e 10% a biotecnologia. CZ acrescentou que a BNB deve ser posicionada como uma moeda nativa para agentes de IA, e que todas as blockchains precisam de estar “prontas para IA” para suportar

GateNews11h atrás

A Zypher Network integra a AIDEN para melhorar a acessibilidade do conhecimento sobre blockchain

De acordo com o anúncio oficial da IQ AI a 6 de maio, a Zypher Network integrou a AIDEN, um agente de inteligência artificial desenvolvido pela IQ AI, para melhorar a acessibilidade ao conhecimento sobre blockchain e reforçar a auditabilidade em ecossistemas potenciados por IA. A colaboração apresenta uma página wiki dedicada

GateNews11h atrás

O Virtuals Protocol lança o OpenGradient Titan Airdrop, distribuindo 500 mil OPG hoje

De acordo com o anúncio oficial do Virtuals Protocol, o airdrop do OpenGradient Titan Launch já está ativo a partir de 7 de maio. Os utilizadores elegíveis podem reclamar tokens OPG diretamente a partir das suas contas no Virtuals. No total, estão a ser distribuídos hoje 500 mil tokens OPG para recompensar os contribuidores do Virtuals

GateNews15h atrás
Comentar
0/400
Nenhum comentário