Dein Smart-Lautsprecher könnte versehentlich deinen Unterhaltungen lauschen
Alexa, ein bisschen Privatsphäre, bitte?
Lauscht dein Smart-Lautsprecher deinen privaten Unterhaltungen? Möglich. Eine Studie von Forschern an der Northeastern University und am Imperial College London hat herausgefunden, dass manche Smart-Speaker mit intelligenten Sprachassistenten wie Alexa, Google Assistant*, Siri oder Cortana bis zu 19 Mal am Tag versehentlich aktiviert werden könnten.
Wie ist das möglich? Alles ein Missverständnis. Und zwar des jeweiligen Aktivierungsworts.
- Die besten Smart-Lautsprecher* 2020
- Amazon Echo vs Google Home*: Welcher ist der richtige für dich?
- Lies unseren Apple HomePod-Test
Die in diese intelligenten Lautsprecher eingebauten Sprachassistenten werden aktiviert, wenn sie ihr Aktivierungswort oder ihren -satz hören. Du kannst zum Beispiel „OK Google“ sagen, um den Google-Assistenten zu aktivieren, oder „Alexa“, um den virtuellen Assistenten von Amazon zu rufen.
Die Forscher fanden heraus, dass Smart Speaker, einschließlich des Google Home Mini der ersten Generation, des Apple HomePod, Amazons Echo Dot der zweiten und dritten Generation und der Harman Kardon Invoke*, regelmäßig von anderen Wörtern und Phrasen aktiviert werden, als ihrem Aktivierungswort, und bis zu 43 Sekunden lang zuhören.
„Pants on“
Im Versuch wurden lebensechte Zustände immitiert, indem den Lautsprechern 125 Stunden Audio von verschiedenen Netflix-Serien* vorgespielt wurden, einschließlich The Office, The Big Bang Therory, und Narcos (obwohl wir hoffen, dass dein Alltag dem letzteren nicht sehr ähnelt).
Durch Aufzeichnung der Lautsprecher auf Video konnten die Forscher erkennen, ob ihre Lichter aktiviert wurden, und durch Überwachung des Netzwerks, ob Daten an die Cloud gesendet wurden, konnten die Forscher sehen, wann die intelligenten Lautpsrecher aufzeichneten.
Sie fanden heraus, dass die Smart Speaker bis zu 19 Mal am Tag aktiviert wurden und der Apple HomePod war einer der größten Übeltäter. Rede, die mit „Hi“ oder „Hey“ begann, gefolgt von einem „S“ und einem Vokal, oder einem Laut, der wie „ri“ klingt, waren üblicherweise hinter den fehlerhaften Aktivierungen. Beispiele für Sprache, die versehentlich Siri aktivierte, waren unter anderem „he clearly“, „I'm sorry“ und selbst „historians“.
Erhalten Sie täglich Einblicke, Inspiration und Angebote in Ihren Posteingang
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
Zwar wurde der Echo Dot während der Studie am seltensten aufgeweckt, doch Alexa reagierte auf die Phrase „my pants on“ – was in gewissen Situationen peinlich werden könnte.
Die Aktivierungen waren jedoch nicht konsequent, also erwarte nicht, deinen Amazon Echo mit einer Unterhaltung über deine Hose aufzuwecken. Nur 8,44 % der Aktivierungen waren in 75 % der Tests konsistent, was laut den Forschern „auf eine gewisse Zufälligkeit in der Art und Weise zurückzuführen sein könnte, wie intelligente Lautsprecher ihre Aktivierungswörter erkennen, oder sie könnten aus früheren Fehlern lernen und die Art und Weise, wie sie Aktivierungswörter erkennen, ändern“.
Im Moment werden die Methoden, die künstlich intelligente Sprachassistenten zum Lernen und Anpassen ihres Verhaltens verwenden, nur von den Unternehmen, die sie entwickeln, verstanden – aber es ist ermutigend zu wissen, dass unsere Smart Speaker sich ständig anpassen und dadurch immer intelligenter werden.
Eine weitere gute Nachricht? Die Forscher fanden keine Hinweise darauf, dass die Smart-Lautsprecher uns ständig belauschen und sich nur dann aktivieren, wenn sie ein Aktivierungswort wahrnehmen (auch wenn sie nicht immer genau waren).
Wenn du Angst hast, aus Versehen deinen Smart Speaker zu aktivieren, bieten viele Modelle die Funktion, die eingebauten Mikrofone stumm zu schalten. Amazon Echo- und Google Home- und Nest-Lautsprecher besitzen eine dezidierte Taste, während viele Smart Displays einen Schieber besitzen, um die eingebaute Kamera zu blockieren.
Via Naked Security*
* Link in englischer Sprache
Eugen Wegmann ist Online-Redakteur für PurpleClouds Deutschland GmbH / TechRadar Region DACH und zuständig für Gaming und Computer-Hardware.
E-Mail: ewegmann[at]purpleclouds.de