Jag såg det
med egna ögon, brukar vi säga. Med betydelsen att det vi själva har sett, det
måste vara sant. Men vi kan inte längre säga så, för det vi har sett och hört
eller läst, kan vara helt och hållet falskt.
Många
olyckliga människor har förlorat massor av pengar till bedragare i
bitcoinaffärer efter att har sett annonser med uttalanden från kända personer –
som Filip Hammar – om hur mycket pengar de lyckats tjäna på att investera i
bitcoin.
Tänk dig då
den här annonsen på nätet: du ser och hör Filip Hammar entusiastiskt tala om
sin framgångsrika bitcoinaffär. Förmodligen skulle ett sådant reklaminslag vara
starkt övertygande och locka ännu fler att vilja investera och tjäna en slant.
Det jag hör Filip Hammar berätta – hans ansikte och hans röst – måste ju vara
sant, eller hur? Men varning, det kan vara deepfake.
Vi kan lita
på att de bedragare som i dag använder sig av kända personer i annonser utan
deras medgivande inte kommer att dra sig för att ta till deepfake som uppfanns
år 2015. Det är bara fem år sedan. Men metoden att med hjälp av AI skapa någons
ansikte samt addera en röst har utvecklats mycket snabbt.
Den teknik
som används för att producera deepfake videofilmer med hjälp av Artificial
Intelligence kallas Generative Adversarial Network, GAN. Först handlade det enbart
om face swapping, det stannade alltså vid att man
bytte ut en persons ansikte. I dag kan du visa en människa som inte bara ser ut
precis som Boris Johnson utan som också rör sig och talar som Boris Johnson.
Financial
Times presenterade deepfake i en lång artikel den 26 oktober och varnar för
fenomenet. Deepfake kan användas i bedrägligt syfte. För att vilseleda
konsumenter och för att påverka det politiska spelet. Framtiden ser mörk ut.
Inga kommentarer:
Skicka en kommentar