La serie MiMo-V2.5 de Xiaomi se hace de código abierto: 1T de parámetros con una eficiencia de tokens superior frente a GPT-5.4

Mensaje de Gate News, 27 de abril — El equipo MiMo de Xiaomi ha publicado como código abierto la serie de modelos de lenguaje de gran tamaño MiMo-V2.5 bajo licencia MIT, respaldando el despliegue comercial, el entrenamiento continuo y el ajuste fino. Ambos modelos cuentan con una ventana de contexto de 1 millón de tokens. MiMo-V2.5-Pro es una mezcla de expertos de solo texto (MoE) con 1,02 billones de parámetros totales y 42 mil millones de parámetros activos, mientras que MiMo-V2.5 es un modelo multimodal nativo con 310 mil millones de parámetros totales y 15 mil millones de parámetros activos, respaldando la comprensión de texto, imagen, video y audio.

MiMo-V2.5-Pro se enfoca en tareas complejas de agentes y programación. En los benchmarks ClawEval, logró un 64% Pass@3 consumiendo aproximadamente 70.000 tokens por trayectoria de tarea—40% a 60% menos tokens que Claude Opus, Gemini 3.1 Pro y GPT-5.4. El modelo obtuvo 78,9 en SWE-bench Verified. En una demostración, V2.5-Pro implementó de forma independiente un compilador completo de SysY a RISC-V para un proyecto de curso de compiladores de la Universidad de Pekín en 4,3 horas con 672 llamadas a herramientas, logrando una puntuación perfecta de 233/233 en conjuntos de pruebas ocultos.

MiMo-V2.5 está diseñado para escenarios de agentes multimodales, equipado con un codificador de visión dedicado (729 millones de parámetros) y un codificador de audio (261 millones de parámetros), con una puntuación de 62,3 en el subconjunto general Claw-Eval. Ambos modelos emplean una arquitectura híbrida que combina atención con ventana deslizante (SWA) y atención global (GA), junto con un módulo de predicción multi-token de 3 capas (MTP) para una inferencia acelerada. Los pesos del modelo están disponibles en Hugging Face.

Junto con el lanzamiento de código abierto, el equipo MiMo lanzó el “Programa de Incentivos para el Creador de Cuatrillón de Órbitas de Tokens,” ofreciendo 100 cuatrillones de tokens gratis durante 30 días para usuarios globales. Los desarrolladores individuales, equipos y empresas pueden postularse a través de la página del programa con un ciclo de evaluación de aproximadamente 3 días hábiles; las ventajas aprobadas se distribuyen como Token Plans o créditos directos, compatibles con herramientas como Claude Code y Cursor.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

CZ dice que YZi Labs asigna el 70% a blockchain y el 20% a IA en Consensus Miami 2026

Según ChainCatcher, en Consensus Miami 2026, Zhao Changpeng (CZ) afirmó que YZi Labs asigna el 70% de la financiación a blockchain, el 20% a IA y el 10% a biotecnología. CZ añadió que BNB debería posicionarse como una moneda nativa para agentes de IA, y que todas las blockchains deben estar “listas para la IA” para respaldar

GateNewshace5h

Public adquiere la aplicación Treasury de la plataforma de inversión en IA para ampliar el trading de cripto

Según ChainCatcher, Public anunció la adquisición de la plataforma de servicios de inversión en IA Treasury App para fortalecer su negocio de corretaje impulsado por IA. No se divulgó el monto de la adquisición. Public actualmente admite la negociación de acciones, bonos y criptomonedas, incluidos Bitcoin, Ethereum, a

GateNewshace6h

Blitzy completa una ronda de financiación $200M liderada por Northzone

Según ChainCatcher, Blitzy, una empresa de codificación con IA cofundada por el ex arquitecto de Nvidia Sid Pardeshi, ha completado una ronda de financiación de 200 millones de dólares liderada por Northzone. Battery Ventures, Jump Capital y Morgan Creek Digital participaron en la ronda. La plataforma puede analizar sistemas complejos con

GateNewshace7h

La UE prohíbe la pornografía deepfake generada por IA el 7 de mayo

Según la agencia Xinhua, el 7 de mayo, los miembros del Parlamento Europeo y los Estados miembros alcanzaron un consenso para prohibir que los sistemas de inteligencia artificial generen contenido pornográfico deepfake. La prohibición se incorporará en las enmiendas de la Ley de Inteligencia Artificial de 2024. Parlamento Europeo

GateNewshace7h

Tether lanza el modelo de IA médica MedPsy QVAC y logra una puntuación de 62,62 en la versión de 17 mil millones de parámetros

Según Odaily, Tether AI Research Group lanzó QVAC MedPsy, un modelo de IA médica diseñado para ejecutarse localmente en teléfonos inteligentes y dispositivos portátiles sin depender de la nube. La versión de 1,7 mil millones de parámetros obtuvo 62,62 en siete evaluaciones médicas, superando a MedGemma-1.5-4B de Google por 11,42 poi

GateNewshace8h

La API de B.AI lanza cuatro modelos nuevos, incluido GPT-5.5 Instant en las 48 horas posteriores al lanzamiento de OpenAI

La API de B.AI ha lanzado cuatro nuevos modelos: GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 y GLM-5.1. GPT-5.5 Instant completó la adaptación subyacente y la integración de la interfaz en 48 horas desde el lanzamiento de OpenAI, lo que permite acceso sin retraso a

GateNewshace8h
Comentar
0/400
Sin comentarios