Promessa quebrada da IA: por que as casas inteligentes ainda não funcionam em 2025

20

O futuro da casa inteligente chegou há anos – e não funciona como prometido. Apesar do entusiasmo em torno da IA ​​generativa, os assistentes de voz atuais são menos confiáveis ​​do que seus antecessores, lutando até mesmo com tarefas básicas, como acender luzes ou preparar café. O problema central não é a falta de inteligência, mas uma incompatibilidade fundamental entre a forma como estes novos sistemas de IA funcionam e o que as casas inteligentes precisam que eles façam.

A Ilusão do Progresso

Em 2023, Dave Limp da Amazon sugeriu um avanço: um assistente de voz que entendesse o contexto, perfeitamente integrado com dispositivos inteligentes e simplificasse a automação residencial. Avançamos para 2025 e, embora assistentes como Alexa Plus e Gemini for Home pareçam mais inteligentes, eles geralmente falham em funções essenciais. As atuais “atualizações” priorizam a capacidade de conversação em vez da consistência. Os usuários relatam que seus dispositivos não conseguem executar comandos de maneira confiável, mesmo depois de anos de configuração.

A situação é tão generalizada que as empresas de tecnologia reconhecem o problema. O problema não se limita às casas inteligentes: até mesmo o ChatGPT ocasionalmente tem dificuldades com a lógica básica. Esse fracasso não se deve à preguiça; é uma consequência de uma abordagem falha.

Por que a IA não consegue acertar

A mudança de assistentes de voz mais antigos e “correspondentes a modelos” para sistemas mais recentes baseados em LLM criou uma desconexão fundamental. Os assistentes mais velhos eram rígidos, mas confiáveis; eles executaram comandos precisos de maneira previsível. Os LLMs, embora mais versáteis, introduzem aleatoriedade. A mesma consulta pode gerar resultados diferentes a cada vez, tornando as tarefas básicas não confiáveis.

“Os LLMs simplesmente não foram projetados para fazer o que os assistentes de voz anteriores no estilo comando e controle faziam”, explica Mark Riedl, professor da Georgia Tech. Esses novos sistemas lutam para executar consistentemente ações que os modelos mais antigos realizavam com facilidade. Os LLMs devem agora construir sequências de código inteiras para APIs, introduzindo mais pontos de falha.

O custo da “inteligência”

As empresas de tecnologia não estão abandonando a tecnologia antiga; eles estão perseguindo um objetivo mais ambicioso: uma IA agente que entenda a linguagem natural e encadeie tarefas dinamicamente. Isto exige sacrificar a confiabilidade no curto prazo em favor do potencial de capacidades muito maiores.

Dhruv Jain, diretor do Soundability Lab da Universidade de Michigan, resume: “A questão é se… a gama ampliada de possibilidades que a nova tecnologia oferece vale mais do que um modelo não probabilístico 100% preciso.” A abordagem atual consiste essencialmente em testes beta em residências do mundo real.

O que vem a seguir?

As empresas estão experimentando modelos híbridos, como o Gemini Live do Google, para equilibrar potência e precisão. Mas mesmo estas soluções permanecem imperfeitas. A questão subjacente é que os LLMs não foram adequadamente treinados para distinguir entre situações que exigem precisão absoluta e aquelas onde a flexibilidade é valorizada.

As falhas na IA de casas inteligentes levantam questões mais amplas sobre a prontidão da tecnologia para aplicações mais críticas. Se a IA não consegue acender as luzes de forma confiável, que confiança podemos ter na sua capacidade de lidar com tarefas complexas? O caminho a seguir envolve domar a aleatoriedade dos LLMs, mas ao custo da profundidade da conversação.

Essa promessa quebrada da casa inteligente serve como um alerta: agir rápido e quebrar coisas nem sempre é progresso. As empresas tecnológicas devem decidir se o potencial da IA ​​avançada compensa a frustração imediata de dispositivos não fiáveis. Por enquanto, muitos usuários ficam com uma experiência de casa inteligente mais inteligente, porém mais frustrante.