Złamana obietnica sztucznej inteligencji: dlaczego inteligentne domy nadal zawodzą w 2025 r

18

Przyszłość inteligentnego domu nadeszła wiele lat temu – i nie działa tak, jak obiecano. Pomimo szumu wokół generatywnej sztucznej inteligencji, dzisiejsi asystenci głosowi są mniej niezawodni niż ich poprzednicy i mają trudności z wykonaniem nawet podstawowych zadań, takich jak włączenie światła czy parzenie kawy. Głównym problemem nie jest brak inteligencji, ale zasadnicza rozbieżność między sposobem działania nowych systemów sztucznej inteligencji a tym, czego potrzebują inteligentne domy.

Iluzja postępu

W 2023 roku Dave Limp z Amazona zasugerował przełom: asystenta głosowego, który rozumie kontekst, bezproblemowo integruje się z inteligentnymi urządzeniami i ułatwia automatyzację domu. Przejdźmy szybko do roku 2025 i choć asystenci tacy jak Alexa Plus i Gemini for Home brzmią mądrzej, często brakuje im podstawowej funkcjonalności. Obecne „aktualizacje” przedkładają możliwości konwersacyjne nad spójność. Użytkownicy zgłaszają, że ich urządzenia nie mogą niezawodnie wykonywać poleceń nawet po latach konfiguracji.

Sytuacja jest na tyle powszechna, że ​​firmy technologiczne dostrzegają problem. Problem nie ogranicza się do inteligentnych domów: nawet ChatGPT czasami boryka się z podstawową logiką. Ta porażka nie wynika z lenistwa, ale z błędnego podejścia.

Dlaczego sztuczna inteligencja sobie z tym nie radzi

Przejście od starych asystentów głosowych „dopasowujących się do wzorców” do nowych systemów opartych na LLM (Large Language Model) spowodowało zasadniczy podział. Starzy asystenci byli surowi, ale niezawodni; wykonywali precyzyjne polecenia w sposób przewidywalny. LLM, choć bardziej wszechstronne, wprowadzają losowość. To samo zapytanie może za każdym razem dawać różne wyniki, przez co podstawowe zadania będą zawodne.

  • „Urządzenia LLM po prostu nie zostały zaprojektowane do robienia tego, co robili poprzedni asystenci głosowi oparty na komendach i kontroli” – wyjaśnia Mark Riedl, profesor w Georgia Institute of Technology. Te nowe systemy mają trudności z konsekwentnym wykonywaniem zadań, z którymi starsze modele radziły sobie z łatwością. Firmy LLM muszą teraz budować całe sekwencje kodu dla interfejsów API, co wprowadza więcej punktów awarii.

Cena „inteligencji”

Firmy technologiczne nie porzucają starych technologii; dążą do bardziej ambitnego celu: sztucznej inteligencji opartej na agentach, która rozumie język naturalny i dynamicznie łączy zadania. Wymaga to poświęcenia krótkoterminowej niezawodności na rzecz potencjału znacznie większych możliwości.

Dhruv Jain, dyrektor Soundability Lab na Uniwersytecie Michigan, podsumowuje to: „Pytanie brzmi, czy rozszerzony zakres możliwości, jakie oferuje nowa technologia, jest wart więcej niż w 100% dokładny, niedeterministyczny model.” Obecne podejście polega zasadniczo na testach beta w prawdziwych domach.

Co dalej?

Firmy eksperymentują z modelami hybrydowymi, takimi jak Gemini Live firmy Google, aby zrównoważyć moc i precyzję. Ale nawet te rozwiązania pozostają niedoskonałe. Głównym problemem jest to, że osoby z wykształceniem wyższym nie są wystarczająco przeszkolone, aby rozróżniać sytuacje wymagające absolutnej precyzji od sytuacji, w których ceniona jest elastyczność.

Awarie sztucznej inteligencji inteligentnego domu rodzą szersze pytania dotyczące gotowości technologii do zastosowań o większym znaczeniu dla działalności firmy. Jeśli sztuczna inteligencja nie może niezawodnie włączyć światła, jak bardzo możemy ufać jej zdolności do radzenia sobie ze złożonymi zadaniami? Rozwiązaniem jest wykorzystanie losowości LLM, ale kosztem głębi rozmowy.

Ta złamana obietnica inteligentnego domu służy jako przestroga: szybkie poruszanie się i niszczenie rzeczy nie zawsze oznacza postęp. Firmy technologiczne muszą zdecydować, czy potencjał zaawansowanej sztucznej inteligencji przeważa nad natychmiastowym rozczarowaniem zawodnymi urządzeniami. Na razie wielu użytkownikom pozostaje inteligentniejsze, ale bardziej irytujące korzystanie z inteligentnego domu.