De toekomst van het slimme huis is jaren geleden gearriveerd – en het werkt niet zoals beloofd. Ondanks de hype rond generatieve AI zijn de huidige stemassistenten minder betrouwbaar dan hun voorgangers en worstelen ze met zelfs basistaken zoals het licht aandoen of koffie zetten. Het kernprobleem is niet een gebrek aan intelligentie, maar een fundamentele discrepantie tussen de manier waarop deze nieuwe AI-systemen werken en wat slimme huizen nodig hebben om te doen.
De illusie van vooruitgang
In 2023 hintte Dave Limp van Amazon op een doorbraak: een stemassistent die de context begreep, naadloos geïntegreerd met slimme apparaten, en vereenvoudigde huisautomatisering. Snel vooruit naar 2025, en hoewel assistenten zoals Alexa Plus en Gemini for Home slimmer klinken, falen ze vaak in de kernfuncties. De huidige “upgrades” geven prioriteit aan gespreksvaardigheid boven consistentie. Gebruikers melden dat hun apparaten opdrachten niet betrouwbaar kunnen uitvoeren, zelfs niet na jaren van installatie.
De situatie is zo wijdverspreid dat technologiebedrijven het probleem erkennen. Het probleem beperkt zich niet tot slimme huizen: zelfs ChatGPT worstelt af en toe met basislogica. Deze mislukking is niet te wijten aan luiheid; het is een gevolg van een gebrekkige aanpak.
Waarom AI het niet goed kan doen
De verschuiving van oudere, ‘sjabloon-matchende’ stemassistenten naar nieuwere op LLM gebaseerde systemen zorgde voor een fundamentele ontkoppeling. Oudere assistenten waren rigide maar betrouwbaar; ze voerden nauwkeurige commando’s voorspelbaar uit. LLM’s zijn weliswaar veelzijdiger, maar introduceren willekeur. Dezelfde zoekopdracht kan elke keer andere resultaten opleveren, waardoor basistaken onbetrouwbaar worden.
“LLM’s zijn gewoon niet ontworpen om te doen wat eerdere stemassistenten in command-and-control-stijl deden”, legt Mark Riedl uit, een professor aan Georgia Tech. Deze nieuwe systemen hebben moeite om consistent acties uit te voeren die oudere modellen met gemak konden uitvoeren. De LLM’s moeten nu volledige codereeksen voor API’s construeren, waardoor er meer faalpunten ontstaan.
De kosten van “intelligentie”
Technologiebedrijven laten de oude technologie niet varen; ze streven een ambitieuzer doel na: een agentische AI die natuurlijke taal begrijpt en taken dynamisch aan elkaar koppelt. Dit vereist dat de betrouwbaarheid op de korte termijn wordt opgeofferd voor het potentieel van veel grotere capaciteiten.
Dhruv Jain, directeur van het Soundability Lab van de Universiteit van Michigan, vat het samen: “De vraag is of… het uitgebreide scala aan mogelijkheden dat de nieuwe technologie biedt meer waard is dan een 100 procent accuraat, niet-probabilistisch model.” De huidige aanpak bestaat in wezen uit bètatesten in echte huizen.
Wat is het volgende?
Bedrijven experimenteren met hybride modellen, zoals Google’s Gemini Live, om kracht en precisie in evenwicht te brengen. Maar zelfs deze oplossingen blijven onvolmaakt. Het onderliggende probleem is dat LLM’s niet voldoende zijn opgeleid om onderscheid te maken tussen situaties die absolute nauwkeurigheid vereisen en situaties waarin flexibiliteit wordt gewaardeerd.
De mislukkingen in smart home AI roepen bredere vragen op over de gereedheid van de technologie voor meer kritische toepassingen. Als AI niet op betrouwbare wijze verlichting kan aanzetten, welk vertrouwen kunnen we dan hebben in het vermogen om complexe taken uit te voeren? De weg voorwaarts omvat het temmen van de willekeur van LLM’s, maar dit gaat ten koste van de diepgang van de gesprekken.
Deze gebroken belofte van het slimme huis dient als waarschuwend verhaal: snel handelen en dingen kapot maken betekent niet altijd vooruitgang. Technologiebedrijven moeten beslissen of het potentieel van geavanceerde AI opweegt tegen de directe frustratie van onbetrouwbare apparaten. Voorlopig blijven veel gebruikers achter met een slimmere, maar frustrerender, slimme thuiservaring.




























