‘Mam! Help! Kun je snel geld overmaken?’
Stemklonen Kunstmatige intelligentie – Artificial intelligence AI
Door AI is het klonen van iemands stem al mogelijk in een paar seconden. Wat doen we als we zelfs de stem van onze geliefden niet meer kunnen vertrouwen?
Jennifer DeStefano heeft net haar auto geparkeerd als haar telefoon gaat. Het is een vrijdagmiddag in januari in Scottsdale, Arizona. Terwijl DeStefano uit de auto stapt kijkt ze op het scherm. Een onbekend nummer. Ze krijgt haar vijftienjarige dochter Briana aan de lijn, die in de bergen ten noorden van Scottsdale traint voor een skiwedstrijd. DeStefano zet haar telefoon op speaker.
„Mam!”, zegt Briana. „Er is iets vreselijks gebeurd!”
„Wat heb je gedaan? Wat is er aan de hand?”
Op dat moment klinkt er een zware mannenstem.
„Ga liggen! Hoofd achterover!”
„Wacht, wacht”, zegt DeStefano. „Wat is er?!”
„Luister. Ik heb je dochter”, zegt de man. Hij eist dat DeStefano direct 50.000 dollar overmaakt. „Anders stop ik je dochter vol drugs en dump ik haar over de grens in Mexico.”
DeStefano zet de speakerfunctie van haar telefoon uit. Ze kijkt in paniek rond over de parkeerplaats en schreeuwt om hulp. Voorbijgangers snellen toe. Een van hen belt alarmnummer 911.
De medewerker vertelt DeStefano dat ze waarschijnlijk het slachtoffer is van een ‘AI-scam’. Iets wat, zo vertelt de medewerker van de alarmcentrale, de laatste tijd vaker voorkomt.
DeStefano is pas gerustgesteld als ze, via de telefoon van een voorbijganger, haar man aan de lijn krijgt, die bij haar dochter is. Ze verbreekt de verbinding met de oplichter. Het geld maakt ze nooit over.
„De stem van mijn dochter klonk zo echt. Het was geen opname. Nee, het was een echt gesprek”, zegt ze in een telefoongesprek met NRC. „Ze huilde zoals mijn dochter zou huilen.”
Cybercriminelen hebben een enorm overtuigend nieuw wapen in handen om burgers geld afhandig te maken
Stem klonen met een app
Jennifer DeStefano is een van de vele Amerikaanse slachtoffers van voice cloning, de nieuwste vorm van online oplichting. Daarbij bootsen criminelen een stem na met behulp van artificiële intelligentie (AI), om daarna een vriend of familielid met die stem ertoe aan te zetten geld over te maken. Exacte cijfers zijn er niet, maar in de VS neemt het aantal verhalen over slachtoffers van voice cloning snel toe. In Nederland zijn er, zo meldt de politie, nog geen gevallen bekend.