Dypfeiker og kildekritikk av videomateriale - The media society 2 - NDLA

Skip to content
Fagartikkel

Dypfeiker og kildekritikk av videomateriale

Dypfeiker (deepfakes) bekymrer seriøse mediehus. Vil det være slik i framtida at vi ikke vil kunne vite hvem som sier hva i en tv-nyhet? Gratis KI-videoteknologi gjør det mulig å få hvem som helst til å si hva som helst.
Video: Medietilsynet / CC BY-NC-ND 4.0

Dypfeik

Dypfeik er et nytt begrep knyttet til falske nyheter, også kjent som "fake news". Deepfake er det opprinnelige begrepet, og det kommer av uttrykkene "deep learning" og "fake". Det er en teknologi som innebærer at programvare drevet av kunstig intelligens kan brukes til å manipulere ansikter. Dermed man lage videoer med kjente personer som kommer med utsagn de aldri har ytret i virkeligheten.

Ennå er det ikke avdekket en alvorlig sak der en dypfeik har vært opprinnelsen. Men nyhetsbyråer, som for eksempel Reuters, er årvåkne og frykter at KI-videoteknologi brukt for å lage dypfeiker skal få alvorlig konsekvenser.

Tenk over

I hvor stor grad skal du stole på opptaket av en tale fra en politiker som er filmet med kun ett kamera og uten publikum?

KI og maskinlære

KI-drevet videoteknologi kan manipulere ansiktet på en person og gi inntrykk av at personen har sagt noe som vedkommende slett ikke har sagt i virkeligheten. Det finnes flere slike typer programvare – noen kan til og med lastes gratis ned fra nett.

Programvaren lærer datamaskinen å blande sammen videoen bedre og bedre for hver runde den tar. En slik runde kalles for epoch – hele datasettet blir kjørt en runde. En runde tilsvarer at datamaskinen har trent én gang. Jo flere ganger et datasett kjøres gjennom datamaskinen, jo bedre blir resultatet.

Eksempel på dypfeik av nyhetsanker

I videoen ser du hvordan mimikken og talen til nyhetsanker Yama Wolasmal er blitt manipulert, slik at det ser ut som om han snakker samisk og mandarin.

Lær mer om hvordan videoen er laget

Vil du vite hvordan videoen over er laget, kan du sjekke ut hvordan NRKbeta tester ut ansiktsmanipulerende programvare:

NRKbeta: Yama kan ikke samisk eller mandarin. Før nå.

Kildesjekk av videokilder

Myndigheter, nyhetsbyråer og -redaksjoner er bekymret for hvilke konsekvenser manipulasjon av videotale kan få. I januar 2020 innførte Facebook nye regler for manipulert innhold. Dersom en video er redigert og syntetisert for å manipulere tale, og dersom KI og maskinlæring er blitt brukt, vil innholdet bli fjernet. Unntaket vil gjelde satire og parodier. Facebook sitt mål er å avdekke dypfeiker automatisk.

Kildegranskning av videomateriale er i utgangspunktet allerede et profesjonelt journalistisk spesialfelt, og nyhetsbyrået Reuters forteller at sjekkpunktene for ikke-profesjonelt videomateriale også kan brukes til å avsløre dypfeiker.

Etter at smarttelefonen ble allemannseie, er det vanlig å se ikke-profesjonelt videomateriale i tv-nyheter. Det er positivt med autentiske og nære bilder fra viktige hendelser, for både nyhetsbyråer og -redaksjoner, og ikke minst for publikum. Samtidig krever det særlig grundig etterforskning av troverdigheten til kildene bak denne typen videomateriale.

Framgangsmåte

  1. Omvendt bildesøk med et nøkkelbilde fra et videoklipp er mulig. Det finnes fremdeles ikke teknologi for omvendt søk på videoklipp.
  2. Se etter og verifiser geografiske kjennetegn fra videoopptakene. Journalister kan sendes ut i feltet, men gransking av kart og alternative bildekilder kan også gjøres.
  3. Undersøk metadata i videofiler. Hva slags informasjon gir de? Dersom videoen er fersk, er det lite sannsynlig at metadataene er tuklet med.
  4. Undersøk og sammenlikn med bilde- og videomateriale fra samme hendelse, men fra andre kilder.
  5. Kjør en dyptgående og systematisk spørsmålsrunde til kilden for videomaterialet. Formålet her er å sette materialet i kontekst og forstå motivet for vedkommendes deling av innholdet.
  6. Få råd fra eksperter på området om temaet i videomaterialet.

  7. Sørg for samarbeid med andre om å verifisere kilder.

Kilder

Grut, S. (2020, 7. januar). Facebook forbyr villedende deepfake-videoer. NRKbeta. https://nrkbeta.no/2020/01/07/facebook-forbyr-villedende-deepfake-videoer/

Lied, H. (2019, 23. februar). Yama kan ikke samisk eller mandarin. Før nå. NRKbeta. https://nrkbeta.no/2019/02/23/yama-kan-ikke-samisk-eller-mandarin-for-na

Written by: Albertine Aaberge.
Last revised date 12/16/2019