Alexa könnte bald verstorbene Verwandte nachahmen, wenn Amazons obskure neue Idee umgesetzt wird

Ein Foto des Amazon Echo Lautsprechers
(Bildnachweis: Amazon)

Auf der diesjährigen re:Mars-Konferenz hat Amazon die vielleicht gruseligste Technologie vorgestellt, die ich je gehört habe: einen Alexa-Skill, mit dem man die Stimmen anderer Menschen nachahmen kann.

Oberflächlich betrachtet scheint das nicht so schlimm zu sein, oder? Der Nerd in mir denkt bereits darüber nach, wie ich mich wie Tony Stark oder Luke Skywalker fühlen könnte, wenn ich meinen eigenen Alexa-Lautsprecher mit Paul Bettany- oder Anthony Daniels-Stimme hätte (die Stimmen von J.A.R.V.I.S. aus dem MCU (Öffnet sich in einem neuen Tab) bzw. C3-P0 aus Star Wars). Oder wie wäre es mit Dean Winchester oder George Ezra?

Doch anstatt diesen Weg der Prominenz zu gehen, präsentierte Amazons Alexa Senior Vice President Rohit Prasad die Idee zusammen mit einem Clip, in dem einem Kind von Alexa mit der Stimme seines kürzlich verstorbenen Großelternteils vorgelesen wird. Laut Engadget (Öffnet sich in einem neuen Tab) erklärte ein Amazon-Sprecher, dass dieser Clip mit "nur einer Minute Audio" der Person, die Alexa imitiert, nachgestellt werden kann.

Die Szene sollte wahrscheinlich herzerwärmende Gefühle wecken, da du siehst, wie Amazons Technologie einem Kind hilft, seine Trauer zu verarbeiten, aber es hätte genauso gut eine Szene aus Black Mirror sein können. Tatsächlich hat die Folge Wiedergänger (Be Right Back) eine fast identische Prämisse. 

In Be Right Back geht es um Ash (Domhnall Gleeson), der bei einem Autounfall ums Leben kommt. Nachdem sie entdeckt hat, dass sie schwanger ist, muss Martha (Hayley Atwell) eine neue Technologie ausprobieren, die es ihr ermöglicht, mit einer künstlichen Intelligenz zu kommunizieren, die Ash imitiert. Das ist erschreckend und definitiv kein Vorgeschmack auf etwas Gutes. 

Martha ist wütend über den gefälschten Ash, der aus seinem Social-Media-Profil erstellt wurde

Be Right Back war eine Warnung, keine Einladung (Image credit: Netflix)

In seiner Erklärung des Alexa-Tools sagte Rohit Prasad, dass es den Schmerz des Verlustes zwar nicht auslöschen, aber "die Erinnerungen auf jeden Fall verlängern" und den Herzschmerz lindern kann.

Das kann ich sehr gut nachvollziehen. Trauer ist ein schwer zu verarbeitendes Gefühl, vor allem wenn man so jung ist wie das Kind in dem Clip, den Amazon geteilt hat. Aber die Grenzen zwischen Leben und Tod zu verwischen, scheint nicht der gesündeste Weg zu sein, um mit dem Verlust umzugehen. 

Aus Prasads Kommentar geht hervor, dass Amazon dies als eine Weiterentwicklung der Erinnerungen an geliebte Menschen sieht, indem alte Fotos und Videos verwendet werden, die vor ihrem Tod aufgenommen wurden, aber das ist nicht dasselbe. Ein Foto oder ein Video wurde mit dem Einverständnis der Person aufgenommen und zeigt etwas, das die Person vor ihrem Tod getan hat; diese KI-gesteuerte Funktion spielt keine Aufnahme einer Buchlesung ab, sondern benutzt ihre Stimme, um eine Erinnerung zu erschaffen.

Wenn jemand möchte, dass seine Stimme nach seinem Tod durch Alexa weiterlebt, dann soll er es tun. Ich bin mir sicher, dass er diese Funktion lieben wird. Ich persönlich würde es vorziehen, in Frieden zu ruhen.

Ein Alexa Smart Speaker neben einer Bonsai-Pflanze

Ich bevorzuge die aktuelle Stimme von Alexa (Image credit: Amazon)

Mehr als nur digitaler Untod

Abgesehen von den oben genannten albtraumhaften Anwendungen könnte diese Nachahmungsfunktion auch den Weg für neue Betrügereien ebnen. Während viele von uns wissen, dass sie Roboterstimmen am anderen Ende der Leitung ignorieren und auflegen, sind wir vielleicht eher geneigt, den Bitten unserer Großmutter oder unseres Sohnes um Geld zuzuhören.

In Verbindung mit ausgefeilten Video-Deepfaking-Tools könnte es uns irgendwann unmöglich sein, jedem Video, das wir sehen, Glauben zu schenken - alles könnte aus realistischen gefälschten Ton- und Bildaufnahmen zusammengesetzt sein.

Amazon wird nicht das einzige Unternehmen sein, das solche KI-Sprachwerkzeuge entwickelt. Wir vermuten, dass auch Apple, Google und alle anderen Hersteller von Sprachassistenten daran arbeiten, dass sie noch realistischer und persönlicher klingen. Aber diese ausgefeilten Nachahmungsfunktionen sind eine Büchse der Pandora, die nur mit Vorsicht geöffnet werden sollte.

Es scheint, als wäre sich Amazon bewusst, dass Vorsicht geboten ist. Das Unternehmen hat noch keinen Zeitplan genannt, wann es diese Funktion für bestehende Alexa-Geräte bereitstellen wird, und es hat noch nicht einmal bestätigt, ob sie überhaupt öffentlich verfügbar sein wird. 

Aber jetzt, wo die Audio-Unsterblichkeit der Welt offenbart wurde, ist es wahrscheinlich nur noch eine Frage der Zeit, bis Alexa die Fähigkeit erlangt, als Tote zu sprechen.

Franziska Schaub
Chefredakteurin

Franziska Schaub ist Chefredakteurin bei TechRadar Deutschland und unter anderem verantwortlich für die Bereiche Smartphones, Tablets und Fitness.


Du möchtest, dass dein Produkt bei uns vorgestellt wird oder hast Neuigkeiten, die wir unbedingt in die Welt hinausstreuen sollen? Dann melde dich am besten unter fschaub[at]purpleclouds.de :)

Mit Unterstützung von