La promesse non tenue de l’IA : pourquoi les maisons intelligentes ne fonctionnent toujours pas en 2025

16

L’avenir de la maison intelligente est arrivé il y a des années – et il ne fonctionne pas comme promis. Malgré le battage médiatique autour de l’IA générative, les assistants vocaux d’aujourd’hui sont moins fiables que leurs prédécesseurs et ont du mal à effectuer même des tâches élémentaires comme allumer les lumières ou préparer du café. Le problème principal n’est pas un manque d’intelligence, mais une inadéquation fondamentale entre le fonctionnement de ces nouveaux systèmes d’IA et ce que les maisons intelligentes ont besoin* d’eux.

L’illusion du progrès

En 2023, Dave Limp d’Amazon a fait allusion à une percée : un assistant vocal qui comprend le contexte, s’intègre parfaitement aux appareils intelligents et simplifie la domotique. Avance rapide jusqu’en 2025, et bien que des assistants comme Alexa Plus et Gemini for Home sonnent plus intelligents, ils échouent souvent dans les fonctions de base. Les « mises à niveau » actuelles donnent la priorité à la capacité conversationnelle plutôt qu’à la cohérence. Les utilisateurs signalent que leurs appareils ne peuvent pas exécuter de commandes de manière fiable, même après des années de configuration.

La situation est si répandue que les entreprises technologiques en reconnaissent le problème. Le problème ne se limite pas aux maisons intelligentes : même ChatGPT a parfois du mal avec la logique de base. Cet échec n’est pas dû à la paresse ; c’est la conséquence d’une approche erronée.

Pourquoi l’IA ne parvient pas à faire les choses correctement

Le passage d’anciens assistants vocaux « adaptés à des modèles » vers des systèmes plus récents basés sur LLM a créé une déconnexion fondamentale. Les assistants plus âgés étaient rigides mais fiables ; ils exécutaient des commandes précises de manière prévisible. Les LLM, bien que plus polyvalents, introduisent du caractère aléatoire. La même requête peut donner des résultats différents à chaque fois, rendant les tâches de base peu fiables.

« Les LLM ne sont tout simplement pas conçus pour faire ce que faisaient les anciens assistants vocaux de type commande et contrôle », explique Mark Riedl, professeur à Georgia Tech. Ces nouveaux systèmes ont du mal à effectuer de manière cohérente des actions que les anciens modèles géraient facilement. Les LLM doivent désormais construire des séquences de code entières pour les API, introduisant ainsi davantage de points de défaillance.

Le coût du « renseignement »

Les entreprises technologiques n’abandonnent pas l’ancienne technologie ; ils poursuivent un objectif plus ambitieux : une IA agentique qui comprend le langage naturel et enchaîne les tâches de manière dynamique. Cela nécessite de sacrifier la fiabilité à court terme au profit de capacités potentielles bien supérieures.

Dhruv Jain, directeur du Soundability Lab de l’Université du Michigan, résume la situation : « La question est de savoir si… la gamme élargie de possibilités offertes par la nouvelle technologie vaut plus qu’un modèle non probabiliste précis à 100 %. » L’approche actuelle consiste essentiellement en des tests bêta dans des maisons réelles.

Quelle est la prochaine étape ?

Les entreprises expérimentent des modèles hybrides, comme Gemini Live de Google, pour équilibrer puissance et précision. Mais même ces solutions restent imparfaites. Le problème sous-jacent est que les LLM n’ont pas été suffisamment formés pour faire la distinction entre les situations exigeant une précision absolue et celles où la flexibilité est valorisée.

Les échecs de l’IA pour la maison intelligente soulèvent des questions plus larges sur l’état de préparation de la technologie pour des applications plus critiques. Si l’IA ne peut pas allumer les lumières de manière fiable, quelle confiance pouvons-nous avoir dans sa capacité à gérer des tâches complexes ? La voie à suivre consiste à apprivoiser le caractère aléatoire des LLM, mais au détriment de la profondeur de la conversation.

Cette promesse non tenue de la maison intelligente sert d’avertissement : aller vite et briser les choses n’est pas toujours un progrès. Les entreprises technologiques doivent décider si le potentiel de l’IA avancée l’emporte sur la frustration immédiate des appareils peu fiables. Pour l’instant, de nombreux utilisateurs se retrouvent avec une expérience de maison intelligente plus intelligente, mais plus frustrante.