22.07.2020

Inteligentne głośniki reagują na więcej słów niż się spodziewaliśmy – „obudzą” je nie tylko standardowe zwroty

„OK Google”, „Alexa”, „Hey Siri” – tymi komendami aktywujemy nasze inteligentne głośniki i zmuszamy do posłuchu. Tak zostały one zaprojektowane przez twórców. Ale okazuje się, że te – coraz popularniejsze – elementy wyposażenia naszych domów rozbudzają się też po zarejestrowaniu całej masy innych wyrazów, które „usłyszą” w otoczeniu. Badacze naliczyli ich ponad 1000.

Naukowcy z Ruhr-Universität Bochum i Bochum Max Planck Institute wykazali ponad tysiąc innych słów i fraz, które mogą w niezamierzony sposób uruchomić Asystenta Google, Amazon Alexa, Apple Siri i innych asystentów głosowych. Opracowali listę angielskich, niemieckich i chińskich terminów, które były wielokrotnie błędnie interpretowane przez różne inteligentne głośniki jako podpowiedzi. Za każdym razem, gdy systemy się budzą, rejestrują krótką sekwencję tego, co zostało powiedziane, i przekazują dane do producenta. Fragmenty dźwiękowe są następnie transkrybowane i sprawdzane przez pracowników odpowiedniej korporacji. W ten sposób fragmenty prywatnych rozmów mogą znaleźć się w systemach firm.

Jak wyglądało badanie?

Badacze wzięli pod lupę najpopularniejsze modele inteligentnych asystentów, takich jak Alexa, Siri i Asystent Google oraz trzy systemy dostępne wyłącznie na chińskich rynkach. Następnie włączyli głośniki i po kolei umieścili je w pokoju z telewizorem. Odtwarzano na nim popularne seriale telewizyjne, takie jak Game of Thrones, House of Cards i Modern Family. Gdy odcinki były odtwarzane , badacze czekali na aktywację wirtualnych asystentów i obserwowali, kiedy urządzenia są aktywowane. Wykorzystali LED-y, które włączały się za każdym razem, gdy urządzenie zaczynało reagować i rejestrować określone słowa. Na podstawie tych danych zespół stworzył listę ponad 1000 sekwencji, które nieprawidłowo uruchamiają asystentów mowy. W zależności od wymowy Alexa reaguje na słowa “a letter” “unacceptable” i “election”. Google reaguje na “OK, cool”, “OK, who is reading” i “cocaine noodles”. Siri aktywuje się gdy usłyszy “a city” lub “Hey Jerry”, a Amazon przez frazę “and the zone”.

Przypadkowe słowa, które wyłapią inteligentni asystenci, mogą zagrozić prywatności. Przecież Amazon automatycznie rejestruje nagrania głosowe Alexa, Google przechowuje transkrypcję zapytań Asystenta (za zgodą użytkownika), a Siri zachowuje dźwięk (po wyrażeniu zgody). W rezultacie asystenci głosowi mogą rejestrować prywatne chwile, jeśli usłyszą coś, co mieści się w dopuszczalnym marginesie błędu dla frazy aktywacji.

źródło: Ruhr-Universität Bochum
czytane: 514

AlexaAmazonasystentasystent głosowybadanieGoogle Homeinteligentne głośnikiinteligentny domSiri

Komentarze

top

Pliki cookies

Serwis wykorzystuje pliki cookies na zasadach określonych w Polityce prywatności, w szczególności w celach personalizacji oraz monitorowania ruchu na stronach serwisu. Możesz określić warunki przechowywania i uzyskiwania dostępu do plików cookies za pomocą ustawień swojej przeglądarki. Korzystając z serwisu wyrażasz zgodę na użycie plików cookies zgodnie z aktualnymi ustawieniami przeglądarki.