Il futuro della casa intelligente è arrivato anni fa e non funziona come promesso. Nonostante il clamore attorno all’intelligenza artificiale generativa, gli assistenti vocali di oggi sono meno affidabili dei loro predecessori e hanno difficoltà anche con compiti basilari come accendere le luci o preparare il caffè. Il problema principale non è la mancanza di intelligenza, ma una fondamentale discrepanza tra il modo in cui funzionano questi nuovi sistemi di intelligenza artificiale e ciò che le case intelligenti hanno bisogno che facciano.
L’illusione del progresso
Nel 2023, Dave Limp di Amazon ha accennato a una svolta: un assistente vocale in grado di comprendere il contesto, integrarsi perfettamente con i dispositivi intelligenti e semplificare l’automazione domestica. Avanzando rapidamente al 2025, assistenti come Alexa Plus e Gemini for Home suonano in modo più intelligente, spesso falliscono nelle funzioni principali. Gli attuali “aggiornamenti” danno priorità alla capacità di conversazione rispetto alla coerenza. Gli utenti segnalano che i loro dispositivi non sono in grado di eseguire comandi in modo affidabile, anche dopo anni di configurazione.
La situazione è così diffusa che le aziende tecnologiche riconoscono il problema. Il problema non si limita alle case intelligenti: anche ChatGPT a volte ha difficoltà con la logica di base. Questo fallimento non è dovuto alla pigrizia; è una conseguenza di un approccio errato.
Perché l’intelligenza artificiale non riesce a farlo bene
Il passaggio dai vecchi assistenti vocali “con corrispondenza dei modelli” ai più recenti sistemi basati su LLM ha creato una disconnessione fondamentale. Gli assistenti più anziani erano rigidi ma affidabili; eseguivano comandi precisi in modo prevedibile. I LLM, sebbene più versatili, introducono casualità. La stessa query può produrre ogni volta risultati diversi, rendendo inaffidabili le attività di base.
“Gli LLM semplicemente non sono progettati per fare quello che facevano i precedenti assistenti vocali in stile comando e controllo”, spiega Mark Riedl, professore alla Georgia Tech. Questi nuovi sistemi faticano a eseguire in modo coerente azioni che i modelli precedenti gestivano con facilità. Gli LLM devono ora costruire intere sequenze di codice per le API, introducendo più punti di errore.
Il costo dell'”intelligenza”
Le aziende tecnologiche non stanno abbandonando la vecchia tecnologia; stanno inseguendo un obiettivo più ambizioso: un’intelligenza artificiale agente che comprenda il linguaggio naturale e concatena i compiti in modo dinamico. Ciò richiede il sacrificio dell’affidabilità a breve termine a favore del potenziale di capacità molto maggiori.
Dhruv Jain, direttore del Soundability Lab dell’Università del Michigan, riassume: “La domanda è se… la gamma ampliata di possibilità offerte dalla nuova tecnologia vale più di un modello non probabilistico accurato al 100%.” L’approccio attuale è essenzialmente il beta testing nelle case del mondo reale.
Qual è il prossimo passo?
Le aziende stanno sperimentando modelli ibridi, come Gemini Live di Google, per bilanciare potenza e precisione. Ma anche queste soluzioni restano imperfette. Il problema di fondo è che i LLM non sono stati adeguatamente formati per distinguere tra situazioni che richiedono assoluta precisione e quelle in cui viene apprezzata la flessibilità.
I fallimenti dell’intelligenza artificiale per la casa intelligente sollevano interrogativi più ampi sulla preparazione della tecnologia per applicazioni più critiche. Se l’intelligenza artificiale non è in grado di accendere le luci in modo affidabile, che fiducia possiamo avere nella sua capacità di gestire compiti complessi? Il percorso da seguire prevede di domare la casualità dei LLM, ma a scapito della profondità della conversazione.
Questa promessa non mantenuta della casa intelligente funge da ammonimento: muoversi velocemente e rompere le cose non è sempre un progresso. Le aziende tecnologiche devono decidere se il potenziale dell’intelligenza artificiale avanzata supera la frustrazione immediata di dispositivi inaffidabili. Per ora, a molti utenti rimane un’esperienza di casa intelligente più intelligente, ma più frustrante.
