Journalister har i flere år brukt kunstig intelligens som støtte til å samle inn, systematisere og ettergå informasjon. KI kan også generere tekst og bilder. Det gir redaksjonelle medier mulighet til å spare tid og penger. Samtidig utfordrer bruk av KI journalistikkens troverdighet og uavhengighet.
Hvordan brukes generativ KI i journalistikk?
Spesialiserte KI-tekstroboter
Begrepet kunstig intelligens (KI) brukes om teknologier som systematiserer og behandler store mengder data for å løse bestemte oppgaver. Mange journalister bruker allerede spesialiserte KI-verktøy til å samle, sammenlikne og sortere informasjon raskt og effektivt.
Det finnes spesialiserte KI-tekstroboter som brukes til å oversette tekster fra språk til språk og til transkribering og oversetting av lyd. På denne måten kan meldinger fra internasjonale nyhetsbyråer eller artikler og videoer fra internasjonale mediehus enkelt tas i bruk av norske redaksjoner. NTB bruker KI-verktøy blant annet til å oversette bokmålstekster til nynorsk.
Automatisk generering av tekst
Generativ KI er samlebetegnelsen for KI-roboter som genererer innhold etter instrukser vi gir. Tekstgenereringsmodeller, som for eksempel ChatGPT, kan brukes til å skape tekster som til forveksling likner tekster skrevet av journalister. Slike KI-verktøy kan også brukes til å redigere og sammenfatte tekster. For eksempel bruker Aftenposten ChatGPT til å lage kortversjoner av tekster skrevet av journalister, og til å lage syntetiske lydversjoner av skrevet tekst.
Automatisk generering av bilder og video
Bilde- og videogeneratorer, som for eksempel Midjourney og Dall-E, kan brukes til å generere kunstige bilder og videoer. Verktøyet er allerede tatt i bruk i fiksjon og markedskommunikasjon.
Redaksjonelle medier har vært tilbakeholdne med å bruke KI-genererte bilder. Vi er vant til at bilder i redaksjonell sammenheng er bevis eller dokumentasjon på noe som faktisk finnes eller har hendt. Dersom vi ikke lenger kan stole på det, kan bildejournalistikken miste sin troverdighet.
Noen mediehus har likevel valgt å bruke KI-genererte illustrasjonsbilder, men etter klare retningslinjer. NRK har for eksempel en regel som sier at de aldri skal bruke KI til å generere fotorealistiske bilder eller videoer, og at alle KI-genererte illustrasjonsbilder som benyttes, skal være tydelig merket.
Utfordringer ved bruk av KI i journalistikk
Journalistikk er avhengig av tillit
Journalistikkens oppgave er å formidle informasjon på en objektiv og sannferdig måte. Prinsipielt er det borgerne i et samfunn som er journalistenes oppdragsgiver. De forventer derfor at det som publiseres, er troverdig og ikke styrt av bestemte interesser. Denne tilliten svekkes når vi er usikre på om tekster og bilder som publiseres i redaksjonelle medier, faktisk er autentiske.
KI-baserte verktøy genererer tekster og bilder ut fra et enormt og delvis ukjent datamateriale og skiller ikke nødvendigvis sannhet fra løgn.
I motsetning til ekte journalister har ikke en tekstrobot evne til kritisk tenkning og etisk refleksjon. I etterkant kan det være vanskelig å ettergå kildenes troverdighet. Verktøyene vil derfor kunne være svært nyttige for aktører som ønsker å spre desinformasjon.
KI kan opprettholde stereotypier
Det er også sannsynlig at det perspektivet verktøyene legger til grunn i generering av tekst og bilder, er preget av kultur og politikk i de samfunnene som leverer mest data inn i den store "informasjonsallmenningen". Innhold som bygger på eksisterende data, ikke nyvunnet informasjon, vil også kunne bidra til å opprettholde og forsterke stereotypier.
Tenk etter
Hvorfor er det sannsynlig at et KI-generert bilde av julenissen vil ha umiskjennelige amerikanske trekk?
Og hvorfor er det overveiende sannsynlig at bildet av julenissen viser en mann dersom vi ikke presiserer at det skal være en kvinnelig julenisse?
KI har ikke empati
Maskiner har ikke følelser, mens journalister har både hjerne og hjerte. Det er derfor lite trolig at avanserte KI-verktøy vil kunne erstatte dagens menneskeskapte journalistikk.
De gode journalistiske fortellingene formidler ikke bare fakta, men også følelser og stemninger. Det er avgjørende for at vi skal kunne identifisere oss med mennesker som er rammet av urett, krig og katastrofer og føle at det angår oss. Nettopp mangel på empati er i dag en av de største svakhetene ved tekster generert av kunstig intelligens.
Arbeidsplasser og opphavsrett i fare
KI oppleves av mange journalister som en trussel mot arbeidsplassen deres. I ei økonomisk krevende tid vil mange mediehus la seg friste til å erstatte menneskelig arbeidskraft med teknologi, slik tilfellet var for noen år siden da mange typografer og trykkere ble erstattet av datateknologi.
Bruk av KI utfordrer også opphavsretten. Når data hentes fra utallige kilder på nettet, hvordan skal da opphavsretten til de ulike informasjonsbrokkene ivaretas og krediteres?
Presseetikk i ei ny tid
I november 2023 var en rekke internasjonale journalist- og medieorganisasjoner samlet i Paris for å utarbeide forslag til retningslinjer for bruk av KI i journalistikk. De slo fast at kunstig intelligens må brukes i tråd med det som i dag er grunnleggende verdier i journalistikken, som etterrettelighet, uavhengighet, kildevern og respekt for personvern og opphavsrett.
I tråd med dette er også flere norske mediehus i gang med å utforme egne retningslinjer. Et viktig element er at KI-generert innhold alltid skal kvalitetssikres av redaksjonelle medarbeidere før publisering, i tråd med vanlige presseetiske krav.
Retningslinjer i Paris Charter on AI and Journalism
Bruk og utvikling av KI-systemer i journalistikk må ivareta presseetiske kjerneverdier som krav til sannferdighet, rettferdighet, uavhengighet, ansvarlighet og respekt for personvern og kildevern.
Menneskelige beslutninger må fortsatt være sentrale i både strategiske og daglige redaksjonelle valg.
KI-systemene som brukes av medier og journalister, bør være gjenstand for uavhengig, omfattende og grundig evaluering som involverer støttegrupper for journalistikk.
Mediene skal alltid være ansvarlige for det innholdet de publiserer.
All bruk av KI som har en betydelig innvirkning på produksjon eller distribusjon av journalistisk innhold, bør være tydelig merket og kommunisert til alle mottakere.
Det skal være mulig å spore opprinnelsen til det innholdet som publiseres.
Journalister og medier skal bestrebe seg på å sikre et tydelig skille mellom autentisk innhold og innhold som er laget eller endret ved hjelp av KI.
Bruk av KI for automatisk tilpasning av innhold for ulike brukergrupper bør underlegges presseetisk vurdering.
Siden journalister og redaksjonelle medier er viktige voktere av borgernes rett til informasjon, bør de også få en aktiv rolle i styringen av KI-systemer.
Bruk av KI-generert journalistisk innhold bør være styrt av formelle avtaler som sikrer bærekraftig journalistikk og interessene til redaksjonelle medier og journalister.
(Reporters Without Borders, 2023, oversatt av NDLA)
Aftenpostens retningslinjer for bruk av KI
Aftenposten oppfordrer sine medarbeidere til å ta i bruk ny teknologi som et arbeidsverktøy. Vi skal forholde oss til generativ KI på samme måte som andre kilder og verktøy - kritisk og nysgjerrig.
Aftenpostens redaksjon skal kvalitetssikre KI-generert innhold.
Sensitive saker og opplysninger skal ikke deles med KI-tjenester før publisering.
I tilfeller der KI-teknologien spiller en avgjørende rolle for en publisering, skal dette fremgå tydelig og forståelig.
Hvordan jobber Aftenposten med KI-genererte artikkeloppsummeringer?
Aftenposten bruker en språkmodell som verktøy for å gi leserne en kortversjon av artiklene våre.
KI-genererte oppsummeringer leses, bearbeides, redigeres og kvalitetssikres av redaksjonen.
Oppsummeringer kan genereres når artikkelen er godkjent for snarlig publisering.
Det skal ikke genereres oppsummeringer før publisering av artikler med sensitivt innhold.
Hvordan jobber Aftenposten med KI-genererte bilder/illustrasjoner?
Aftenposten skal som hovedregel ikke bruke KI-genererte bilder som gir inntrykk av å være en reell situasjon, eller som kan forveksles med et fotografi.
Aftenposten kan eksperimentere med KI-genererte illustrasjoner og grafikker. Vi skal ha en varsom tilnærming, og publisering av disse må i testfasen vurderes av redaksjonsledelsen i hvert enkelt tilfelle.
Bruk av KI-genererte illustrasjoner skal merkes tydelig og forståelig.
Hvordan jobber Aftenposten med syntetiske stemmer?
Aftenposten bruker syntetiske stemmer for å formidle journalistisk innhold i lydformat.
Vi bruker KI for å trene opp den syntetiske stemmen, men det er redaksjonen som står ansvarlig for innholdet som leses opp.
(Aftenposten, 2023)
Dagens Næringslivs retningslinjer for bruk av KI
Generative språkmodeller (Eks. ChatGPT, Bard o.l)
DNs journalister kan bruke språkmodeller som verktøy, men teksten skal alltid bearbeides av et menneske og ettergås gjennom ordinært kildearbeid.
Eksempler på bruk er; korrekturlesing, oversettelse, transkribering, tittelforslag, oppsummering, idéutvikling og generering av metadata.
Vi publiserer ikke uredigert tekst skrevet av generativ kunstig intelligens. Unntaket er når selve språkmodellen er et relevant journalistisk poeng. Da presiseres hvilke KI-verktøy som er brukt og på hvilken måte.
Vi verner om kildevernet og deler ikke sensitivt materiale eller personopplysninger.
Bilde- og videogeneratorer (Eks. Midjourney, Dall-E)
DN verner om det journalistiske fotografiets troverdighet, og manipulerer ikke bilder med kunstig intelligens eller annen teknologi.
Vi publiserer ikke KI-genererte bilder, eller video, som kan forveksles med ekte fotografi. Unntaket er ved omtale av teknologien eller tilknyttede nyhetssaker/problemstillinger.
Vi kan bruke KI-genererte illustrasjoner. Dette skal alltid godkjennes av redaksjonell ledelse.
Illustrasjonene skal merkes tydelig med kilde og relevant bakgrunnsinformasjon. De merkes for å unngå gjenbruk.
Rettigheter rundt KI-genererte bilder er fortsatt uavklart, og teknologien skal derfor brukes med varsomhet.
Annen bruk av kunstig intelligens
DN samarbeider med Amedia om utvikling av språkmodeller for nyheter skrevet på norsk. Dette brukes i dag til å anbefale relevante artikler i børstjenesten Investor, i vårt vinsøk og nederst i artikler.
Algoritmer medvirker til plassering av innhold i enkelte etasjer på DN.no. Det betyr at innholdet kan se forskjellig ut for forskjellige besøkende.
DNs automatiserte journalistikk (eks. boligroboten) er kvalitetssikret gjennom regelsett og artikkelmaler. Den publiseres derfor uten menneskelig godkjenning, og merkes som automatisk generert innhold.
(Dagens Næringsliv, 2023)
VGs retningslinjer for bruk av KI
Første hovedregel er at VGs journalister skal forholde seg til bruk av tekst, video, bilder, lyd og annet innhold skapt ved hjelp av AI (generativ AI) på samme måte som andre kilder til informasjon; med åpen nysgjerrighet og med varsomhet.
Andre hovedregel er at bruk av generativ AI manuelt godkjennes før publisering. Unntak merkes tydelig.
Tredje hovedregel er at VG ikke skal bruke AI til å generere fotorealistiske bilder. Bruk av AI-generert innhold må aldri rokke ved det journalistiske fotografiets troverdighet. VG skal unngå å bruke AI til å forbedre/redigere fotografier og video, utover tradisjonell bildebehandling og beskjæring. VG kan derimot bruke AI til å generere illustrasjoner/grafikk/modeller. Dette skal merkes tydelig, og inntil videre konkret godkjennes av redaktør.
Fjerde hovedregel er at AI-generert innhold skal merkes tydelig, og på en måte som er forståelig.
Femte hovedregel er at VGs journalister i utgangspunktet kun bør dele materiale som er godkjent for umiddelbart publisering på VGs flater med AI-tjenester. Kildeopplysninger, personopplysninger eller sensitive opplysninger skal ikke deles med AI-tjenester uten godkjenning fra avdelingsleder, redaktør eller sikkerhetssjef.
Bruk av kunstig intelligens er på full fart inn i mediebransjen. Synliggjør etiske problemstillinger, og lag et etisk regelverk for KI i mediebransjen.