Durante varias semanas, la comunidad de desarrolladores de IA ha estado haciendo sonar la alarma sobre una disminución percibida en la inteligencia de los modelos emblemáticos de Anthropic. Los usuarios de plataformas como GitHub, X y Reddit informaron de un fenómeno que denominaron “inflación de la IA” : una tendencia en la que Claude parecía menos capaz de realizar razonamientos complejos, más propenso a errores y cada vez más ineficiente con el uso de tokens.
Si bien Anthropic inicialmente negó las afirmaciones de que estaban “nerfeando” intencionalmente el modelo para administrar la demanda del servidor, la compañía ahora ha publicado una autopsia técnica. La investigación revela que, si bien los modelos centrales de IA permanecieron sin cambios, tres ajustes específicos al “arnés” (las capas de software que rodean el modelo) paralizaron involuntariamente su rendimiento.
La evidencia del declive
La reacción no fue meramente anecdótica; estaba respaldado por importantes datos técnicos. A principios de abril de 2026, la narrativa de un “embrutecimiento” de Claude ganó impulso a través de varios hallazgos clave:
- Auditorías a gran escala: Stella Laurenzo, directora sénior del grupo de IA de AMD, realizó una auditoría de más de 6800 sesiones de Claude Code y 234 000 llamadas de herramientas. Sus datos sugirieron una fuerte disminución en la profundidad del razonamiento, señalando que el modelo a menudo caía en bucles repetitivos u optaba por la solución más fácil posible en lugar de la más precisa.
- Caídas en los puntos de referencia: Las pruebas de terceros realizadas por BridgeMind mostraron un impacto significativo en Claude Opus 4.6, con puntajes de precisión que supuestamente cayeron del 83,3% al 68,3%, lo que provocó que su clasificación en la industria cayera del segundo al décimo lugar.
- Ineficiencia de recursos: Los usuarios informaron que los límites de uso se estaban agotando mucho más rápido de lo habitual, lo que generó sospechas de que el modelo se estaba volviendo “más prolijo” o menos eficiente en la forma en que procesaba la información.
Por qué sucedió: tres culpables técnicos
Anthropic aclaró que el “cerebro” de la IA (los pesos del modelo) no había cambiado. En cambio, los problemas surgieron de los cambios realizados en la interfaz de usuario y las instrucciones que guían el comportamiento del modelo:
1. Esfuerzo de razonamiento reducido
Para resolver los problemas de latencia de la interfaz de usuario (donde la interfaz parecía “congelada” mientras el modelo “pensaba”), Anthropic redujo el esfuerzo de razonamiento predeterminado de alto a medio para Claude Code. Si bien esto hizo que la interfaz pareciera más rápida, despojó al modelo de la profundidad computacional necesaria para tareas de ingeniería complejas.
2. El error de la lógica de almacenamiento en caché
Una actualización del 26 de marzo destinada a optimizar la memoria eliminando datos antiguos de “pensamiento” de sesiones inactivas contenía un error crítico. En lugar de borrar los datos antiguos una vez después de una hora de inactividad, el error borró la “memoria a corto plazo” del modelo durante cada interacción posterior. Esto hizo que Claude se volviera olvidadizo y repetitivo.
3. Restricciones de detalle
En un intento por hacer que las respuestas sean más concisas, Anthropic introdujo nuevas instrucciones para limitar la longitud del texto entre las llamadas a las herramientas y las respuestas finales. Este mandato de “brevedad” resultó contraproducente, ya que las evaluaciones mostraron una caída del 3 % en la calidad de la codificación mientras el modelo luchaba por expresar una lógica compleja dentro de un estricto recuento de palabras.
Restaurar la confianza y salvaguardar el futuro
El impacto de estos errores se sintió en Claude Code CLI, Claude Agent SDK y Claude Cowork, aunque la API principal de Claude no se vio afectada. Para rectificar la situación y evitar que se repita, Anthropic está implementando una serie de cambios estructurales:
- “Dogfooding” ampliado: Se requerirá que más personal interno utilice exactamente las mismas compilaciones públicas que los clientes para detectar regresiones antes de que lleguen al mercado.
- Pruebas rigurosas: La empresa está implementando conjuntos de evaluación mejorados para probar cómo cada cambio menor en un “indicador del sistema” afecta la inteligencia general del modelo.
- Compensación del suscriptor: Reconociendo la frustración y los tokens desperdiciados, Anthropic ha restablecido los límites de uso para todos los suscriptores a partir del 23 de abril.
“Nunca degradamos intencionalmente nuestros modelos”, afirmó Anthropic, enfatizando que el objetivo es garantizar que la experiencia del usuario coincida con los altos estándares de su tecnología subyacente.
Conclusión: Anthropic ha identificado que las recientes caídas de rendimiento se debieron a intentos de optimización en la capa de software y no a la propia IA. Al revertir estos cambios y reforzar las pruebas internas, la empresa pretende restaurar la reputación de Claude por su razonamiento de alto nivel.






























