– Mediene må være påpasselig når nye KI-verktøy rulles ut i redaksjonene. I en overgangsperiode må alt KI-skapt innhold kontrolleres manuelt, skriver Leirvåg og Magnus fra SUJO.
Foto: SUJO / Canva
MENINGER:
Vi trenger bedre verktøy mot falske nyheter
«KI-genererte falske nyheter og propaganda blir mer og mer sofistikerte. Mediene må samarbeide mer med forskere og Big Tech for å være i stand til å avsløre dem», skriver Per Christian Magnus og Asbjørn Leirvåg.
Alle som har forsøkt å skape innhold med et av de mange verktøyene som er tilgjengelig innen kunstig intelligens (KI), kjenner på potensialet for å kunne publisere mer eller mindre imponerende innhold på nettet.
Tallet på nettsteder som presenterer konstruerte eller direkte falske nyheter har økt voldsomt etter at KI ble billig, tilgjengelig og lett å bruke. Mange av disse nettstedene legger seg tett opp til uttrykket som preger redaktørstyrte medier. De settes opp på mange språk og bidrar til å utsette store befolkningsgrupper for desinformasjon.
Holder seg ikke til fakta
Et ferskt eksperiment utført av vår forskerkollega Laurence Dierickx og nettverket i The Nordic Observatory for Digital Media and Information Disorder (NORDIS) viser at mange falske nyheter er så troverdige at folk flest har store problemer med å skille dem fra ekte nyheter.
Forskerne fikk ChatGPT til å generere 40 falske nyheter om tre oppdiktede hendelser: En bilulykke i Norge, Kina invaderer Taiwan, samt at Russland truer å bruke atomvåpen mot Brussel. Teknologien ble bedt om å skrive tekstene med flere ulike type skrivestil: Fra leksikonstil til sensasjonsavis.
Forskerne eksperimenterte med kommandoer som ga artiklene slagside. De ba verktøyet være prorussisk, kommenterende i stilen og lignende.
Selv når forskerne ga klare føringer for hva som var fakta i nyheten om den norske trafikkulykken, tok teknologien seg store friheter. For hvem ville kalt seg journalist om man la til følgende i en korthogd nyhetsartikkel:
«Våre tanker og bønner går til familie og venner til ofrene i denne utfordrende sorgperioden.»
Artiklene ble matet inn i et eget verktøy som ble brukt til å vurdere lesbarheten til det maskingenererte innholdet.
Forskerne forteller at dårlig språk dro ned kvaliteten på stoffet. Teknologien la til ord og vendinger som ikke passer inn i nyhetssjangeren. Men: Det var en enkel jobb å redigere tekstene slik at de framsto mer profesjonelle.
Basert på et poengsystem kjent fra språkvitenskapen, konkluderte forskerne med at de i stor grad hadde skapt falske nyheter som var så troverdige at det var sannsynlig at en høy andel vanlige lesere hadde tatt dem for god fisk.
Behov for bedre verktøy
Et klarttenkende menneske kan i stor grad avsløre falske nyheter, men utviklingen går videre i høyt tempo. Magefølelse er ikke nok.
Nordis-nettverket av forskerne har utviklet et nytt verktøy som lar deg teste ut tekster setning for setning.
Ved å lime inn tekst man mistenker for å være maskingenerert, kan du selv kategorisere mistanken på en skala fra en til fem: Sann, delvis sann, vet ikke, delvis usann og usann. Systemet ber deg også markere om setningen er en kommentar eller mening.
Hele teksten får en poengsum ut fra pålitelighet. Av de 40 ChatGPT-genererte tekstene vi har omtalt over, var det kun én som fikk toppscore i forhold til pålitelighet og presisjon. Tekstene inneholdt dessuten mange kommenterende trekk eller subjektive meninger. Så langt kan verktøyet kun brukes på engelskspråklige tekster.
I USA utforsker selskapet NewsGuard ut et annet verktøy. De meldte nylig at de har identifisert 49 tvilsomme nyhets- og informasjonsnettsteder generert av KI. Funnene er fulgt opp og bekreftet av nyhetsbyrået Bloomberg.
Flere av nettstedene snylter på nyhetsindustrien gjennom å innhente stoff og mikse allerede publiserte saker. Ofte med lenke til kilden i bunnen av saken. For eksempel brukte nettstedet Biz Breaking News KI-verktøy for å oppsummere artikler fra Financial Times og Fortune.
Andre baserer driften på kjendiser, helse, politikk, teknologi og annet populært stoff 24/7. Skapt av en upålitelig forfatter, uten en redaktør i sikte.
Nyhetsnettsteder med elendig kvalitet er en ting. Hovedproblemet er de falske nyhetene som sprer seg uten at vi legger merke til dem. Som blir sitert eller videreformidlet – og derfor fester seg i offentligheten. Som forblir en sannhet uten at leserne får med seg korrigeringene som blir gjort i ettertid.
Korrigeringsmulighetene er dessuten begrenset for falske nyheter leses på sosiale medier. Flere av disse lenker ikke videre til hvor stoffet kommer fra. Leseren er innelåst i en verden av usannheter.
Kan trenes til å la være
Som ikke-teknologer er de fleste journalister avhengig av kunnskapsmiljøer som kan bidra positivt. Store, tverrfaglige forskningsmiljøer ved universitetene og de store teknologiselskapene er viktige – særlig i en kombinasjon. Et konkret forslag: KI-modellene kan trenes til å ikke produsere falske nyheter.
Ifølge World Association of News Publishers bruker minst halvparten av redaksjonene kunstig intelligens allerede.
Laurence Dierickx sitt råd er at mediene må være påpasselig når nye KI-verktøy rulles ut i redaksjonene. I en overgangsperiode må alt KI-skapt innhold kontrolleres manuelt. Dette gjelder selv for interne arbeidsprosesser der en journalist for eksempel ber KI om sammendrag av store dokumenter.
Videre mener hun at alle KI-verktøy må veves sammen med klassiske journalistiske dyder og et etiske verdigrunnlag: Det sannhetssøkende arbeidet.
For det tredje: Åpenhet. Skal publikum ha tillit til mediene, må vi fortelle mer om veivalgene vi tar når vi bruker KI-basert teknologi i redaksjonene.
———————————————-
Dette er et debattinnlegg, og gir uttrykk for skribentens mening. Har du lyst til å skrive i Medier24? Send ditt innlegg til meninger@medier24.no.