Mensaje de Gate News, 23 de abril — El equipo de ingeniería de Anthropic confirmó que la degradación de la calidad de Claude Code reportada por los usuarios durante el mes pasado se debió a tres cambios independientes a nivel de producto, no a problemas de la API ni del modelo subyacente. Los tres problemas se solucionaron el 7 de abril, el 10 de abril y el 20 de abril, respectivamente, con la versión final ahora en v2.1.116.
El primer cambio ocurrió el 4 de marzo, cuando el equipo redujo el nivel de esfuerzo de razonamiento predeterminado para Claude Code de “high” a “medium” para abordar picos ocasionales de latencia extrema en Opus 4.6 bajo alta intensidad de razonamiento. Después de quejas generalizadas de los usuarios sobre el rendimiento reducido, el equipo revirtió el cambio el 7 de abril. El valor predeterminado actual es ahora “xhigh” para Opus 4.7 y “high” para otros modelos.
El segundo problema fue un bug introducido el 26 de marzo. El sistema estaba diseñado para borrar registros antiguos de razonamiento después de que la inactividad de la conversación superara una hora para reducir los costos de recuperación de sesión. Sin embargo, una falla en la implementación hizo que el borrado se ejecutara repetidamente en cada turno posterior en lugar de una sola vez, lo que provocó que el modelo perdiera progresivamente el contexto de razonamiento previo. Esto se manifestó como un aumento de la falta de memoria, operaciones repetidas e invocaciones anómalas de herramientas. El bug también provocó fallos de caché en cada solicitud, acelerando el consumo de la cuota de los usuarios. Dos experimentos internos no relacionados enmascararon las condiciones de reproducción, extendiendo el proceso de depuración a más de una semana. Después de la corrección el 10 de abril, el equipo revisó el código problemático usando Opus 4.7 y descubrió que Opus 4.7 podía identificar el bug, mientras que Opus 4.6 no.
El tercer cambio se lanzó el 16 de abril junto con Opus 4.7. El equipo agregó instrucciones al mensaje del sistema para reducir la salida redundante. Las pruebas internas durante varias semanas no mostraron regresión, pero después del lanzamiento la interacción con otros prompts degradó la calidad de la codificación. La evaluación extendida reveló una caída del 3% en el rendimiento tanto en Opus 4.6 como en 4.7, lo que llevó a un rollback el 20 de abril.
Estos tres cambios afectaron a diferentes grupos de usuarios en distintos momentos, y su efecto combinado creó una caída generalizada e inconsistente de la calidad, complicando el diagnóstico. Anthropic afirmó que ahora requerirá a más empleados internos que usen la misma versión pública de compilación que los usuarios, que ejecuten suites completas de evaluación del modelo para cada modificación del prompt del sistema y que implementen periodos de despliegue por etapas. Como compensación, Anthropic ha restablecido las cuotas de uso para todos los usuarios con suscripción.
Artículos relacionados
Sierra recauda 950 millones de dólares, con una valoración de 15.800 millones: Bret Taylor lidera OpenAI como presidente para hacerse con el principal referente de atención al cliente de IA
La API de Gemini habilita Webhooks: Google aborda el dolor de la sondeación en bucles para tareas largas, Batch/Veo se pueden enviar en tiempo real
Krutrim cambia a servicios en la nube de IA el 5 de mayo, publica sus primeras ganancias mientras los ingresos del AF26 alcanzan 31,6 millones de dólares
Las inversiones de Anthropic y OpenAI superan los 1,1 billones de dólares en operaciones de cripto retail desde el inicio de 2026