Hopp til innhald
Fagartikkel

Djupfeikar og kjeldekritikk av videomateriale

Djupfeikar (deepfakes) uroar seriøse mediehus. Vil det vere slik i framtida at vi ikkje vil kunne vite kven som seier kva i ei tv-nyheit? Gratis KI-videoteknologi gjer det mogleg å få kven som helst til å seie kva som helst.
Video: Medietilsynet / CC BY-NC-ND 4.0

Djupfeik

Djupfeik er eit nytt omgrep knytt til falske nyheiter, òg kjent som "fake news". Deepfake er det opphavleget omgrepet, og det kjem av uttrykka "deep learning" og "fake". Det er ein teknologi som inneber at programvare driven av kunstig intelligens kan brukast til å manipulere ansikt. Dermed kan ein lage videoar med kjende personar som kjem med utsegner dei aldri har ytra i verkelegheita.

Enno er det ikkje avdekt ei alvorleg sak der ein djupfeik har vore opphavet. Men nyheitsbyrå, som til dømes Reuters, er årvakne og fryktar at KI-videoteknologi brukt for å lage djupfeikar, skal få alvorlege konsekvensar.

Tenk over

I kva grad skal du stole på opptaket av ein tale frå ein politikar som er filma med berre eitt kamera og utan publikum?

KI og maskinlæring

KI-driven videoteknologi kan manipulere ansiktet på ein person og gi inntrykk av at personen har sagt noko som vedkommande slett ikkje har sagt i verkelegheita. Det finst fleire slike typar programvare – nokre kan til og med lastast gratis ned frå nettet.

Programvara lærer datamaskina å blande saman videoen betre og betre for kvar runde ho tek. Ein slik runde blir kalla for epoch – heile datasettet blir køyrt ein runde. Ein runde tilsvarer at datamaskina har trent éin gong. Jo fleire gonger eit datasett blir køyrt gjennom datamaskina, jo betre blir resultatet.

Eksempel på djupfeik av nyheitsanker

I videoen ser du korleis mimikken og talen til nyheitsanker Yama Wolasmal er blitt manipulerte, slik at det ser ut som om han snakkar samisk og mandarin.

Video: NRK / Avgrensa bruksrett

Lær meir om korleis videoen er laga

Vil du vite korleis videoen over er laga, kan du sjekke ut korleis NRKbeta testar ut ansiktsmanipulerande programvare:

NRKbeta: Yama kan ikke samisk eller mandarin. Før nå.

Kjeldesjekk av videokjelder

Styresmakter, nyheitsbyrå og -redaksjonar er bekymra for kva for konsekvensar manipulasjon av videotale kan få. I januar 2020 innførte Facebook nye reglar for manipulert innhald. Dersom ein video er redigert og syntetisert for å manipulere tale, og dersom KI og maskinlæring er blitt brukt, vil innhaldet bli fjerna. Unntaket vil gjelde satire og parodiar. Facebook sitt mål er å avdekke deepfakar automatisk.

Kjeldegransking av videomateriale er i utgangspunktet allereie eit profesjonelt journalistisk spesialfelt, og nyheitsbyrået Reuters fortel at sjekkpunkta for ikkje-profesjonelt videomateriale òg kan brukast til å avsløre deepfakar.

Etter at smarttelefonen vart allemannseige, er det vanleg å sjå ikkje-profesjonelt videomateriale i tv-nyheiter. Det er positivt med autentiske og nære bilete frå viktige hendingar, for både nyheitsbyrå og -redaksjonar, og ikkje minst for publikum. På same tid krev det særleg grundig etterforsking av truverdet til kjeldene bak denne typen videomateriale.

Framgangsmåte

  1. Omvendt biletsøk med eit nøkkelbilete frå eit videoklipp er mogleg. Det finst framleis ikkje teknologi for omvendt søk på videoklipp.
  2. Sjå etter og verifiser geografiske kjenneteikn frå videoopptaka. Journalistar kan sendast ut i feltet, men gransking av kart og alternative biletkjelder kan òg gjerast.
  3. Undersøk metadata i videofiler. Kva informasjon gir dei? Dersom videoen er fersk, er det lite sannsynleg at metadataa er tukla med.
  4. Undersøk og samanlikn med bilet- og videomateriale frå same hending, men frå andre kjelder.
  5. Køyr ein djuptgåande og systematisk spørsmålsrunde til kjelda for videomaterialet. Formålet her er å setje materialet i kontekst og forstå motivet for vedkommande si deling av innhaldet.
  6. Få råd frå ekspertar på området om temaa i videomaterialet.

  7. Sørg for samarbeid med andre om å verifisere kjelder.

Kjelder

Grut, S. (2020, 7.januar). Facebook forbyr villedende deepfake-videoer. NRKbeta. https://nrkbeta.no/2020/01/07/facebook-forbyr-villedende-deepfake-videoer/

Lied, H. (2019, 23. februar). Yama kan ikke samisk eller mandarin. Før nå. NRKbeta. https://nrkbeta.no/2019/02/23/yama-kan-ikke-samisk-eller-mandarin-for-na