måndag 11 november 2019

Deepfake som kan skada


Jag såg det med egna ögon, brukar vi säga. Med betydelsen att det vi själva har sett, det måste vara sant. Men vi kan inte längre säga så, för det vi har sett och hört eller läst, kan vara helt och hållet falskt. 

Många olyckliga människor har förlorat massor av pengar till bedragare i bitcoinaffärer efter att har sett annonser med uttalanden från kända personer – som Filip Hammar – om hur mycket pengar de lyckats tjäna på att investera i bitcoin.

Tänk dig då den här annonsen på nätet: du ser och hör Filip Hammar entusiastiskt tala om sin framgångsrika bitcoinaffär. Förmodligen skulle ett sådant reklaminslag vara starkt övertygande och locka ännu fler att vilja investera och tjäna en slant. Det jag hör Filip Hammar berätta – hans ansikte och hans röst – måste ju vara sant, eller hur? Men varning, det kan vara deepfake.

Vi kan lita på att de bedragare som i dag använder sig av kända personer i annonser utan deras medgivande inte kommer att dra sig för att ta till deepfake som uppfanns år 2015. Det är bara fem år sedan. Men metoden att med hjälp av AI skapa någons ansikte samt addera en röst har utvecklats mycket snabbt.

Den teknik som används för att producera deepfake videofilmer med hjälp av Artificial Intelligence kallas Generative Adversarial Network, GAN. Först handlade det enbart om face swapping, det stannade alltså vid att man bytte ut en persons ansikte. I dag kan du visa en människa som inte bara ser ut precis som Boris Johnson utan som också rör sig och talar som Boris Johnson.

Financial Times presenterade deepfake i en lång artikel den 26 oktober och varnar för fenomenet. Deepfake kan användas i bedrägligt syfte. För att vilseleda konsumenter och för att påverka det politiska spelet. Framtiden ser mörk ut.

Inga kommentarer:

Skicka en kommentar