Hoppa till huvudinnehåll
2022-11-15

Allt om deepfakes och hur du avslöjar dem

Vi lever i en tid där tekniken tar sjumilakliv i stort sett dagligen, och det händer vare sig vi vill det eller inte. Det är både fantastiskt och skrämmande på samma gång. I det här blogginlägget kommer jag att prata mer om fenomenet deepfakes och dess utveckling.

Även jag, som alltid älskat ny teknik och att testa nya lösningar, har svårt att hänga med i alla nyheter som dyker upp i flödet. Men innerst inne blir jag fortfarande som ett barn på julafton när jag ser alla häftiga saker som tekniken kan göra för oss.

Ett område som det händer otroligt mycket inom är artificiell intelligens (AI). Varje vecka presenteras nya framsteg och häftiga tillämpningar som får oss att helt tappa hakan över möjligheterna som finns tillgängliga redan nu.

I dag finns det exempelvis AI-verktyg där det räcker med att skriva en valfri mening i verktyget som sedan generar en bild. Det ger oss otroliga möjligheter (framförallt för mig som målar sämre än min femåring) att skapa bilder eller konst med bara ett knapptryck.

Men när hakan sakta börjar röra sig tillbaka upp igen, och jag börjar fundera på riskerna som det här kan medföra, då är det inte riktigt lika roligt längre. Hur skapar man en förståelse för hur enkelt och realistiskt AI faktiskt kan göra bilder, ansikten eller människor för den delen?

Deepfakes utvecklas i rekordfart

Vi har lärt oss ett nytt begrepp de senaste åren; deepfakes. Begreppet ”deepfake” kommer från orden ”deep” i meningen ”djup maskinlärning” och ”fake” i meningen ”falsk”. Med deepfake är det alltså möjligt att läsa in data som ett ansikte. Ett sådant exempel är att man låter en maskinmodell tränas med bilder på en person som man vill kopiera. Det räcker faktiskt med bara en bild för att skapa en deepfake, men det behövs mellan 500 och 1000 bilder från olika vinklar för att få en bra och trovärdig kopia av ansiktet.

Tekniken har utvecklats i rekordfart och blir svårare och svårare att skilja från verkligheten. Den kan ha många praktiska och goda ändamål, men den har också använts för att sprida desinformation.

Nedan kan du se det uppmärksammade klippet från i våras när det spreds en deepfake-video på internet på Ukrainas president Volodymyr Zelenskyy, där han uppmanade ukrainska soldater att lägga ner sina vapen och överlämna sig själva till den ryska armen.

 

Så vad kan vi lära oss av det här klippet? Här kommer några bra tips att tänka på om ni sett en video som sticker ut från det normala:

Hur trovärdigt är klippet?

Det här klippet kom ut några veckor efter att Ryssland hade gått in i Ukraina. Det fanns då ingen direkt anledning till att de ukrainska soldaterna skulle lägga ner sina vapen, och det hade inte heller funnits någon diskussion kring att de skulle kapitulera. Då måste man också fråga sig, vem vinner något på att sprida den här typen av information?

Hur är kvaliteten på klippet?

Än är tekniken inte felfri, och man kan se i klippet hur Zelenskyys ansikte är både är lite suddigt och pixligt i kanterna, plus att ögonlocken inte ser helt naturliga ut vid blinkningar. Om du skulle misstänka att någon gör en deepfake i ett videosamtal med dig, kan du alltid be dem att vrida huvudet åt sidan. Många av bilderna som matas in i modellerna kommer från bilder på ansiktet, vilket medför att bakhuvudet och sidorna av huvudet inte är lika vältränade.

Kan du verifiera/validera det som sägs i klippet?

Försök stämma av med en annan källa om det som sägs faktiskt stämmer. I det här fallet var Ukrainas utrikesdepartement ute på Twitter kort efter videon publicerats och dementerade videon. Om det här skulle ske i din närhet, försök ringa upp eller validera genom en tredje källa att det faktiskt stämmer.

Vi kommer få se fler videos som den här i framtiden, och de kommer med största säkerhet bara att bli tekniskt bättre och mer förfinade. Tänk då en extra gång på tipsen ovan, både för din och andras säkerhet.