Por várias semanas, a comunidade de desenvolvedores de IA tem soado o alarme sobre um declínio percebido na inteligência dos principais modelos da Anthropic. Usuários de plataformas como GitHub, X e Reddit relataram um fenômeno que apelidaram de “redução da IA” — uma tendência em que Claude parecia menos capaz de raciocínio complexo, mais propenso a erros e cada vez mais ineficiente no uso de tokens.
Embora a Anthropic inicialmente tenha negado as alegações de que eles estavam “nerfando” intencionalmente o modelo para gerenciar a demanda de servidores, a empresa agora divulgou uma autópsia técnica. A investigação revela que, embora os principais modelos de IA tenham permanecido inalterados, três ajustes específicos no “arnês” – as camadas de software que cercam o modelo – prejudicaram involuntariamente o seu desempenho.
A evidência do declínio
A reação não foi meramente anedótica; foi apoiado por dados técnicos significativos. No início de abril de 2026, a narrativa de um “emburrecimento” de Claude ganhou impulso através de várias conclusões importantes:
- Auditorias em larga escala: Stella Laurenzo, diretora sênior do grupo de IA da AMD, conduziu uma auditoria de mais de 6.800 sessões do Claude Code e 234.000 chamadas de ferramentas. Os seus dados sugeriram um declínio acentuado na profundidade do raciocínio, observando que o modelo frequentemente caía em ciclos repetitivos ou optava pela solução mais fácil possível em vez da mais precisa.
- Quedas de benchmark: testes de terceiros realizados pela BridgeMind mostraram um impacto significativo no Claude Opus 4.6, com pontuações de precisão supostamente caindo de 83,3% para 68,3%, fazendo com que sua classificação no setor caísse do segundo para o décimo lugar.
- Ineficiência de recursos: os usuários relataram que os limites de uso estavam se esgotando muito mais rápido do que o normal, alimentando suspeitas de que o modelo estava se tornando “mais prolixo” ou menos eficiente na forma como processava as informações.
Por que isso aconteceu: três culpados técnicos
A Antrópica esclareceu que o “cérebro” da IA (os pesos do modelo) não mudou. Em vez disso, os problemas resultaram de alterações feitas na interface do usuário e nas instruções que orientam o comportamento do modelo:
1. Esforço de raciocínio reduzido
Para resolver problemas de latência da IU – onde a interface parecia “congelada” enquanto o modelo “pensava” – a Anthropic reduziu o esforço de raciocínio padrão de alto para médio para Claude Code. Embora isso tenha tornado a interface mais rápida, retirou do modelo a profundidade computacional necessária para tarefas complexas de engenharia.
2. O bug da lógica de cache
Uma atualização de 26 de março destinada a otimizar a memória removendo dados antigos de “pensamento” de sessões ociosas continha um erro crítico. Em vez de limpar os dados antigos uma vez após uma hora de inatividade, o bug limpou a “memória de curto prazo” do modelo durante cada interação subsequente. Isso fez com que Claude se tornasse esquecido e repetitivo.
3. Restrições de verbosidade
Na tentativa de tornar as respostas mais concisas, a Anthropic introduziu novas instruções para limitar o comprimento do texto entre as chamadas de ferramenta e as respostas finais. Esse mandato de “brevidade” saiu pela culatra, com avaliações mostrando uma queda de 3% na qualidade da codificação enquanto o modelo lutava para expressar lógica complexa dentro de uma contagem estrita de palavras.
Restaurando a confiança e as salvaguardas futuras
O impacto desses erros foi sentido na CLI do Claude Code, no Claude Agent SDK e no Claude Cowork, embora a API principal do Claude permanecesse inalterada. Para corrigir a situação e evitar uma recorrência, a Antrópica está implementando uma série de mudanças estruturais:
- “Dogfooding” expandido: Mais funcionários internos serão obrigados a usar exatamente as mesmas construções públicas que os clientes para detectar regressões antes que cheguem ao mercado.
- Testes rigorosos: A empresa está implantando suítes de avaliação aprimoradas para testar como cada pequena alteração em um “prompt do sistema” afeta a inteligência geral do modelo.
- Compensação do assinante: Reconhecendo a frustração e o desperdício de tokens, a Anthropic redefiniu os limites de uso para todos os assinantes a partir de 23 de abril.
“Nunca degradamos intencionalmente nossos modelos”, afirmou a Anthropic, enfatizando que o objetivo é garantir que a experiência do usuário corresponda aos altos padrões de sua tecnologia subjacente.
Conclusão: A Anthropic identificou que as recentes quedas de desempenho foram causadas por tentativas de otimização na camada de software, e não pela própria IA. Ao reverter essas mudanças e reforçar os testes internos, a empresa pretende restaurar a reputação de Claude pelo seu raciocínio de alto nível.
