Resultados da pesquisa por "SPK"
Hoje
03:21

Depósitos da Aave caem para US$ 30,7B enquanto saem US$ 15,1B em 3,5 dias após o incidente do Kelp

Mensagem do Gate News, 22 de abril — De acordo com o monitoramento do analista on-chain Yu Jin, a Aave registrou saídas contínuas de fundos ao longo de 3,5 dias após o incidente de segurança do Kelp, com os depósitos totais caindo de US$ 48,5 bilhões para US$ 30,7 bilhões, representando uma perda de aproximadamente um terço dos depósitos $15,1 bilhões.
Mais
AAVE2,29%
MORPHO-1,24%
SPK32,37%
14:21

Líder da Estratégia Spark Critica o Desbloqueio do Mercado de WETH da Aave e Adverte sobre Risco de Travamento de Usuários de Varejo

Mensagem do Gate News, 21 de abril — O líder de estratégia do Spark monetsupply.eth criticou a decisão da Aave de desbloquear o mercado de WETH no Ethereum, argumentando que a medida foi mal considerada e beneficia principalmente traders de alavancagem. Segundo ele, a decisão piora a situação para usuários comuns que já estão presos em
Mais
AAVE2,29%
ETH3,17%
04:16
1

O deslistamento de janeiro do rsETH pelo Spark Protocol se mostra prudente enquanto a Aave enfrenta uma crise de liquidez do ETH

A estratégia do Spark Protocol de deslistar ativos com baixa utilização e apertar as garantias enfrentou uma reação inicial negativa, mas se mostrou sábia durante a turbulência do mercado. Ao mesmo tempo em que mantém limites mais altos de taxa de juros, o SparkLend assegura liquidez, ao contrário da Aave, que agora enfrenta riscos significativos.
Mais
ETH3,17%
AAVE2,29%
ARB1,7%
02:25

A Meta lança o seu modelo de IA Muse Spark, com um desempenho semelhante ao de um modelo intermédio Llama 4, mas com menos recursos de computação

Notícias do Gate News, a 9 de abril, a Meta lançou um novo modelo de IA Muse Spark a 8 de abril. Este modelo foi desenvolvido pelo Laboratório de Superinteligência da Meta, e é liderado pelo antigo CEO da Scale AI, Alexandr Wang. A Meta afirma que, ao reestruturar a infraestrutura de IA, o novo modelo conseguiu atingir níveis próximos aos anteriores com menos recursos de computação
Mais