Alexa heeft straks de stem van je overleden familielid

Laurien Onderwater

25 juni 2022 09:00

Amazon Alexa

De spraakassistent van Amazon heeft een bijzondere upgrade gekregen. Na slechts een minuut luisteren, kan Alexa al de stem van iemand imiteren.

De herinnering levend houden. Dat is wat e-commercegigant Amazon wil bereiken met zijn meest recente Alexa-update. Vanaf nu kan de slimme speaker namelijk stemmen imiteren van mensen nadat hij die slechts één minuut heeft gehoord. Dat kan dus elk persoon zijn, ook een beroemde acteur.

Maar dat is niet de insteek van Amazon. Het bedrijf ziet mogelijkheden in overleden dierbaren te laten spreken. Zo is in onderstaand filmpje te zien (tijdens een demo op de jaarlijkse re:MARS-conferentie) hoe een jongetje aan de spraakassistent vraagt of zijn overleden oma een verhaaltje kan voorlezen. Fast forward naar 1 uur en 2 minuten.

Lees ook:

1 minuut

Amazon laat niks los over hoe de techniek precies werkt. Jammer, want het is een behoorlijke prestatie dat Alexa genoeg heeft aan een minuutje geluidsopname van een (overleden) persoon. Normaliter moet een spraakacteur uren aan klanken, woorden en zinnen inspreken. Die worden dan opgeknipt, om er vervolgens elke denkbare zin mee te maken. Bij Alexa wordt na het horen van de geluidsopname een bestaande computerstem aangepast, zodat die klinkt als de stem van de overledene.

Een mooie innovatie of toch een tikkie creepy? Het Twitterend publiek valt grotendeels in de laatste categorie:

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Overigens rept Amazon met geen woord over ethische bezwaren. Door stemmen te imiteren, is het voor criminelen bijvoorbeeld makkelijker om telefoonfraude te plegen, schrijft RTL Nieuws.

Bronnen: RTL Nieuws, Dutch Cowboys

Beeld: Amazon