Djupfeikar og kjeldekritikk av videomateriale
Djupfeik er eit nytt omgrep knytt til falske nyheiter, òg kjent som "fake news". Deepfake er det opphavleget omgrepet, og det kjem av uttrykka "deep learning" og "fake". Det er ein teknologi som inneber at programvare driven av kunstig intelligens kan brukast til å manipulere ansikt. Dermed kan ein lage videoar med kjende personar som kjem med utsegner dei aldri har ytra i verkelegheita.
Enno er det ikkje avdekt ei alvorleg sak der ein djupfeik har vore opphavet. Men nyheitsbyrå, som til dømes Reuters, er årvakne og fryktar at KI-videoteknologi brukt for å lage djupfeikar, skal få alvorlege konsekvensar.
Tenk over
I kva grad skal du stole på opptaket av ein tale frå ein politikar som er filma med berre eitt kamera og utan publikum?
KI-driven videoteknologi kan manipulere ansiktet på ein person og gi inntrykk av at personen har sagt noko som vedkommande slett ikkje har sagt i verkelegheita. Det finst fleire slike typar programvare – nokre kan til og med lastast gratis ned frå nettet.
Programvara lærer datamaskina å blande saman videoen betre og betre for kvar runde ho tek. Ein slik runde blir kalla for epoch – heile datasettet blir køyrt ein runde. Ein runde tilsvarer at datamaskina har trent éin gong. Jo fleire gonger eit datasett blir køyrt gjennom datamaskina, jo betre blir resultatet.
Eksempel på djupfeik av nyheitsanker
I videoen ser du korleis mimikken og talen til nyheitsanker Yama Wolasmal er blitt manipulerte, slik at det ser ut som om han snakkar samisk og mandarin.
Styresmakter, nyheitsbyrå og -redaksjonar er bekymra for kva for konsekvensar manipulasjon av videotale kan få. I januar 2020 innførte Facebook nye reglar for manipulert innhald. Dersom ein video er redigert og syntetisert for å manipulere tale, og dersom KI og maskinlæring er blitt brukt, vil innhaldet bli fjerna. Unntaket vil gjelde satire og parodiar. Facebook sitt mål er å avdekke deepfakar automatisk.
Kjeldegransking av videomateriale er i utgangspunktet allereie eit profesjonelt journalistisk spesialfelt, og nyheitsbyrået Reuters fortel at sjekkpunkta for ikkje-profesjonelt videomateriale òg kan brukast til å avsløre deepfakar.
Etter at smarttelefonen vart allemannseige, er det vanleg å sjå ikkje-profesjonelt videomateriale i tv-nyheiter. Det er positivt med autentiske og nære bilete frå viktige hendingar, for både nyheitsbyrå og -redaksjonar, og ikkje minst for publikum. På same tid krev det særleg grundig etterforsking av truverdet til kjeldene bak denne typen videomateriale.
Framgangsmåte
- Omvendt biletsøk med eit nøkkelbilete frå eit videoklipp er mogleg. Det finst framleis ikkje teknologi for omvendt søk på videoklipp.
- Sjå etter og verifiser geografiske kjenneteikn frå videoopptaka. Journalistar kan sendast ut i feltet, men gransking av kart og alternative biletkjelder kan òg gjerast.
- Undersøk metadata i videofiler. Kva informasjon gir dei? Dersom videoen er fersk, er det lite sannsynleg at metadataa er tukla med.
- Undersøk og samanlikn med bilet- og videomateriale frå same hending, men frå andre kjelder.
- Køyr ein djuptgåande og systematisk spørsmålsrunde til kjelda for videomaterialet. Formålet her er å setje materialet i kontekst og forstå motivet for vedkommande si deling av innhaldet.
Få råd frå ekspertar på området om temaa i videomaterialet.
Sørg for samarbeid med andre om å verifisere kjelder.