Mensaje de Gate News, 29 de abril — Los investigadores de OpenAI Sébastien Bubeck y Ernest Ryu afirman que los sistemas de IA podrían realizar la mayor parte del trabajo de investigación humano en dos años, presentando las matemáticas como una medida clara del progreso de la IA. A diferencia de las pruebas de rendimiento vagas, los problemas matemáticos ofrecen una verificación precisa: las respuestas son correctas o incorrectas, sin dejar margen para la ambigüedad.
Bubeck señaló que el verdadero pensamiento de la IA requiere sobrevivir a largas cadenas de razonamiento. Un solo error en un argumento de varios pasos derrumba toda la demostración, por lo que la detección y corrección de errores a mitad del proceso es el objetivo definitivo para los modelos avanzados. Los laboratorios internos de OpenAI ya han generado más de diez teoremas completamente nuevos publicables en revistas de combinatoria de primer nivel, demostrando que la IA ahora produce trabajo genuinamente original y rompedor, más allá de simplemente recombinar artículos existentes.
Sin embargo, los avances científicos sostenidos exigen un enfoque constante durante semanas de pruebas. Los sistemas actuales todavía requieren una supervisión humana estricta para guiar y verificar cada cambio de dirección. Bubeck usa “tiempo de AGI” para medir cuánto tiempo un modelo puede imitar de forma independiente el pensamiento humano; los sistemas actuales operan aproximadamente de días a una semana, y el objetivo de la industria es lograr semanas o meses para permitir trabajo autónomo en campos como la biología.
La memoria a largo plazo es fundamental para este futuro. Las ventanas de chat estándar limitan la profundidad: las demostraciones matemáticas complejas a menudo superan 50 páginas, mientras que los repositorios de código muestran cómo las sesiones de trabajo prolongadas permiten una resolución de problemas más profunda. A medida que la IA gane independencia y memoria, la experiencia humana se vuelve más valiosa, no menos. Los trabajadores deben conservar el conocimiento profundo y básico para desafiar y verificar las respuestas de las máquinas, y las organizaciones necesitarán nuevos filtros automatizados y sistemas de reputación para mantener la confianza ante una avalancha de investigación asistida por IA.
Artículos relacionados
CZ dice que YZi Labs asigna el 70% a blockchain y el 20% a IA en Consensus Miami 2026
Public adquiere la aplicación Treasury de la plataforma de inversión en IA para ampliar el trading de cripto
Blitzy completa una ronda de financiación $200M liderada por Northzone
La UE prohíbe la pornografía deepfake generada por IA el 7 de mayo
Tether lanza el modelo de IA médica MedPsy QVAC y logra una puntuación de 62,62 en la versión de 17 mil millones de parámetros
La API de B.AI lanza cuatro modelos nuevos, incluido GPT-5.5 Instant en las 48 horas posteriores al lanzamiento de OpenAI