Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les capacités de l'Agent suivent de près Opus4.6, à un prix de seulement 4 % : Arcee ouvre le code de Trinity Large Thinking
Selon le suivi de 1M AI News, la société américaine de modèles d’IA Arcee a publié Trinity-Large-Thinking, un modèle de raisonnement open source destiné aux tâches d’agent sur de longues périodes. Le modèle utilise une architecture de mélange d’experts clairsemé (MoE) : 400 milliards de paramètres au total, avec seulement 13 milliards de paramètres activés, et ses poids sont disponibles en open source sur Hugging Face sous licence Apache 2.0.
Contrairement à son prédécesseur Trinity-Large-Preview (fine-tuning uniquement sur instructions), Trinity-Large-Thinking effectue une réflexion de raisonnement avant de répondre ; ses capacités de cohérence sur de longs contextes, ses appels d’outils multi-tours et son respect des instructions ont toutes été améliorés. L’objectif principal de sa conception est de maintenir une production stable lors de boucles d’agent prolongées.
Sur le banc d’évaluation des capacités d’agent PinchBench, développé par Kilo, le modèle obtient 91,9, se classant deuxième, derrière 93,3 d’Opus 4.6. Sur le banc d’évaluation des tâches d’agent Tau2-Airline, il atteint 88,0, la meilleure note parmi tous les modèles comparés. En revanche, ses performances sur les bancs d’évaluation du raisonnement général sont moyennes : GPQA-D obtient 76,3, en dessous de Kimi-K2.5 (86,9) et d’Opus 4.6 (89,2) ; MMLU-Pro atteint 83,4, se plaçant également en dernière position. Selon la déclaration officielle d’Arcee, ce modèle est « sur de nombreux aspects le modèle open source le plus performant en dehors de la Chine ».
Le prix de l’API d’Arcee est de 0,90 $ pour un million de tokens en sortie ; Arcee affirme que c’est environ 96 % moins cher qu’Opus 4.6. Le modèle est également déployé simultanément sur la plateforme de routage de modèles d’IA OpenRouter, avec une utilisation gratuite dans OpenClaw pendant les cinq premiers jours. Depuis la publication de la version précédente Preview à la fin janvier, il a déjà servi plus de 3,37 billions de tokens sur OpenRouter ; c’est le modèle open source le plus utilisé aux États-Unis et le quatrième au niveau mondial selon OpenClaw. La version Preview continuera d’être fournie gratuitement sur OpenRouter.