Hopp til innhold

  1. Home
  2. Medieuttrykk og mediesamfunnet Vg2 og Vg3ChevronRight
  3. Individet og medieneChevronRight
  4. Kildebruk, opphavsrett og personvernChevronRight
  5. "Deepfakes" og kildekritikk av videomaterialeChevronRight
SubjectMaterialFagstoff

Fagartikkel

"Deepfakes" og kildekritikk av videomateriale

"Deepfakes" bekymrer seriøse mediehus. Vil det være slik i fremtiden at vi ikke vil kunne vite hvem som sier hva i en TV-nyhet? Gratis AI-videoteknologi gjør det mulig å få hvem som helst til å si hva som helst.

I videoen ser du hvordan mimikk og tale til nyhetsanker Yama Wolasmal er blitt manipulert, slik at det ser ut som om han snakker samisk og mandarin.

Deepfake

Deepfake er et nytt begrep knyttet til falske nyheter, også kjent som "fake news". Deepfake kommer av uttrykkene 'deep learning' og 'fake'. Programmer som gjør maskinlæring mulig ved hjelp av kunstig intelligens (AI), blir brukt for få et ansikt til kunne uttrykke noe verbalt som ansiktet i utgangspunktet ikke har uttrykt.

Ennå er det ikke avdekket en alvorlig sak der deepfake har vært opprinnelsen. Men nyhetsbyråer, som for eksempel Reuters, er årvåkne og frykter at AI- videoteknologi brukt for å lage deepfakes, skal få alvorlig konsekvenser.

AI og maskinlære

AI-drevet videoteknologi manipulerer ansiktet på en person og gir inntrykk av at personen har sagt noe som vedkommende slett ikke har sagt. Det fins flere typer programvare av denne typen – noen kan til og med lastes gratis ned fra nett.

Programvaren lærer datamaskinen å blande sammen videoen bedre og bedre for hver runde den tar. En slik runde kalles for 'epoch' – hele datasettet blir kjørt en runde. En 'epoch' tilsvarer at datamaskinen har trent én gang. Jo flere ganger et datasett kjøres gjennom datamaskinen, jo bedre blir resultatet.

Sjekk ut

Vil du vite hvordan videoen over er laget, kan du sjekke ut hvordan NRKBeta tester ut ansiktsmanipulerende programvare.

Kildesjekk av videokilder

Myndigheter, nyhetsbyråer og -redaksjoner er bekymret for hvilke konsekvenser manipulasjon av videotale kan få. I januar 2020 innfører Facebook til og med nye regler for manipulert innhold. Dersom en video er redigert og syntetisert for å manipulere tale, og at AI og maskinlæring er blitt brukt, vil innholdet bli fjernet. Unntaket vil gjelde satire og parodier. Facebook sitt mål er å avdekke deepfakes automatisk.

Kildegranskning av videomateriale er i utgangspunktet allerede et profesjonelt journalistisk spesialfelt, og nyhetsbyrået Reuters forteller at sjekkpunktene for ikke-profesjonelt videomateriale, også kan brukes til å avsløre 'deepfakes'.

Tenk over

Hvor mye ville dere stole på opptaket av en tale fra en politiker som er filmet med kun ett kamera og uten noe publikum til stede?

Etter at smarttelefonen ble allemannseie, er det vanlig å se ikke-profesjonelt videomateriale i TV-nyheter. Det er positivt med autentiske og nære bilder fra viktige hendelser, for både nyhetsbyråer og -redaksjoner, og ikke minst for publikum. Samtidig krever det særlig grundig etterforskning av troverdigheten til kildene bak denne typen videomateriale.

  1. Omvendt bildesøk med et nøkkelbilde fra et videoklipp er mulig. Det fins fremdeles ikke teknologi for omvendt søk på videoklipp.
  2. Se etter og verifisere geografisk kjennetegn fra videoopptakene. Journalister kan sendes ut i feltet, men granskning av kart og alternative bildekilder kan også gjøres.
  3. Undersøke metadata i videofiler. Hva sier de? Dersom videoen er fersk, er det lite sannsynlig at metadataene er tuklet med.
  4. Undersøke og sammenligne med bilde- og videomateriale fra samme hendelse, men fra andre kilder.
  5. Kjøre en dyptgående og systematisk spørsmålsrunde til kilden for videomaterialet. Formålet her er å sette materialet i kontekst og forstå motivet for vedkommendes deling av innholdet.
  6. Få rådgivning hos eksperter på området og tema for videomateriale. Sørge for samarbeid med andre om å verifisere kilder.

Kilder

Grut, Ståle. (2020, 7.januar). Facebook forbyr villedende deepfake-videoer. NRKbeta. Hentet fra https://nrkbeta.no/2020/01/07/facebook-forbyr-villedende-deepfake-videoer/

Lied, Henrik. (2019, 23. februar). Yama kan ikke samisk eller mandarin. Før nå. NRKbeta. Hentet fra https://nrkbeta.no/2019/02/23/yama-kan-ikke-samisk-eller-mandarin-for-na

Nordiske mediedager. (2019). Deep Fakes: Hvordan Reuters avslører falske videoer. Hentet fra https://www.nordiskemediedager.no/nmd-tv/?v=af660abe-00090061-200f0549#

Læringsressurser

Kildebruk, opphavsrett og personvern

SubjectEmne

Læringssti

SubjectEmne

Fagstoff

SubjectEmne

Oppgaver og aktiviteter

SubjectEmne

Vurderingsressurs

SubjectEmne

Kildemateriale