Pesan Berita Gate, 29 April — Bobot model flash Ling-2.6 milik Ant Group kini telah menjadi sumber terbuka, yang sebelumnya hanya tersedia melalui API. Model ini memiliki total 104 miliar parameter dengan 7,4 miliar yang aktif per inferensi, jendela konteks 256K, dan lisensi MIT. Versi presisi BF16, FP8, dan INT4 tersedia di HuggingFace dan ModelScope.
Ling-2.6-flash memperkenalkan peningkatan hybrid linear attention dibanding Ling 2.0, dengan meningkatkan GQA asli menjadi arsitektur hibrida 1:7 MLA plus Lightning Linear yang dikombinasikan dengan MoE yang sangat jarang (sparse). Efisiensi inferensi jauh melampaui model sebanding: kecepatan generasi puncak mencapai 340 token/detik pada 4 GPU H20, dengan throughput prefill dan decode sekitar 4x lebih tinggi daripada model open-source sebanding. Tolok ukur terkait agen menunjukkan performa yang kuat: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval, dan PinchBench mencapai atau mendekati level SOTA. Pada seluruh rangkaian tolok ukur Artificial Analysis, konsumsi token total hanya 15 juta. Pada AIME 2026, model mencetak 73,85%.
Situs web resmi Ant Group juga mencantumkan versi andalan Ling-2.6-1T (triliun-parameter) dan versi ringan Ling-2.6-mini (lightweight version), meskipun pada saat publikasi, bobotnya masih belum dirilis di HuggingFace, dan hanya seri flash yang tersedia untuk diunduh.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Anthropic mengikat kemampuan komputasi dengan SpaceX: mengamankan seluruh Colossus 1 yaitu 220 ribu GPU, Claude menghapus batas kuota
Anthropic mengumumkan kerja sama komputasi dengan SpaceX untuk pusat data Colossus 1, dengan menggunakan lebih dari 220 ribu GPU Nvidia dan kapasitas lebih dari 300MW. Perkiraan seluruhnya akan dideploy dalam satu bulan untuk penggunaan Anthropic, guna meningkatkan komputasi dan pengalaman untuk Claude dan Code. Secara bersamaan, batas pemakaian per 5 jam untuk Pro/Max/Team/Enterprise dilonggarkan, kuota pada jam puncak dihapus, dan laju Opus API ditingkatkan. Infrastruktur dasar di Asia dan Eropa juga diperluas; ke depan ada niat lain seperti “komputasi AI di orbit”, namun belum ada kesepakatan.
ChainNewsAbmedia10menit yang lalu
Insinyur Coinbase: Agen AI Bisa Mengganggu Model Iklan Web
Erik Reppel, seorang insinyur Coinbase, mengatakan bahwa agen-agen kecerdasan buatan dapat secara fundamental melemahkan model bisnis internet yang bergantung pada iklan. Menurut Reppel, ekonomi web sangat bergantung pada pendapatan iklan yang dihasilkan dari pengguna manusia, tetapi agen AI melewati sistem itu.
CryptoFrontier44menit yang lalu
Anthropic Melipatgandakan Batas Kecepatan Claude Code Setelah Mengamankan Kapasitas 300MW dari Kesepakatan dengan SpaceX
Menurut Odaily, Anthropic telah menandatangani perjanjian dengan SpaceX untuk mengakses kapasitas komputasi penuh dari pusat data Colossus 1, mengamankan lebih dari 300 megawatt kapasitas baru dan lebih dari 220.000 GPU NVIDIA dalam sebulan. Berlaku segera, batas laju lima jam Claude Code untuk Pro,
GateNews1jam yang lalu
OpenAI merilis protokol jaringan superkomputer MRC! Berkolaborasi dengan NVIDIA, AMD, dan Microsoft untuk membangun infrastruktur Stargate
OpenAI mengumumkan protokol jaringan superkomputer AI MRC, bekerja sama dengan AMD, Microsoft, NVIDIA, dan lainnya, serta membuka sumbernya di OCP. MRC memecah data dan mengirimkannya melalui banyak jalur sekaligus, menghindari rintangan dalam skala mikrodetik, mengurangi kemacetan, dan menjaga sinkronisasi GPU, untuk mengatasi hambatan transmisi pada klaster pelatihan skala besar. Basis seperti Stargate Texas Abilene telah menerapkan antarmuka 800Gb/s dan digunakan dalam pelatihan nyata.
ChainNewsAbmedia1jam yang lalu
Platform Rekrutmen Berbasis AI Ethos Menyelesaikan Pendanaan Seri A senilai $22,75 juta yang Dipimpin oleh a16z pada 6 Mei
Menurut BlockBeats, platform rekrutmen AI berbasis di London, Ethos, menyelesaikan pendanaan Seri A senilai 22,75 juta dolar AS pada 6 Mei, dengan Andreessen Horowitz (a16z) memimpin putaran dan General Catalyst ikut berpartisipasi. Platform ini menggunakan AI untuk mewawancarai kandidat dan menganalisis
GateNews2jam yang lalu
OpenAI Meluncurkan Protokol Jaringan MRC dengan AMD, Intel, NVIDIA; Mendukung 100.000+ GPU
Menurut pengumuman OpenAI pada 6 Mei, perusahaan bermitra dengan AMD, Broadcom, Intel, Microsoft, dan NVIDIA untuk meluncurkan Multipath Reliable Connection (MRC), protokol jaringan terbuka untuk interkoneksi GPU pada klaster pelatihan AI skala besar. Protokol ini membagi transmisi data tunggal di seluruh
GateNews3jam yang lalu