– Vi må være forsiktige med å tilskrive disse teknologiene subjektive, menneskelige egenskaper, skriver Touileb og Magnus.

MENINGER:

KI-dyret må mates med varsomhet

«Så lenge vi ikke vet mer om hvordan Big Tech-selskapene bruker informasjonen vi deler med dem, bør vi være svært varsomme med å mate kunstig intelligens-teknologien med potensielt sensitivt materiale», skriver Samia Touileb og Per Christian Magnus.

Publisert

Mange peker på at kunstig intelligens (KI) kan redusere rutinepregede oppgaver i journalistikken. Da kan kreftene brukes på prosjekter som løfter journalistikken, gir innsikt og avdekker kritikkverdige forhold.

Det er for tiden en utbredt optimisme rundt at kloke, erfarne journalisthjerner kan bruke KI til det beste for samfunnet.

Før jul var det få som tenkte over at prompt jockey er et nytt yrke. Slike eksperter er gode til å mate KI-modellene med kompliserte ord, tegn, beskrivelser og vendinger for å få ut ønskede resultater. Dette er naturligvis komplisert. Derfor rulles det ukentlig ut titalls nye tjenester som alle har maskinlæring i bunn. De fleste selger seg inn på å forenkle veien fra ide til produkt innen områder som hittil har forutsatt kreative og dyktige fagfolk.

Alle som har utforsket ChatGPT vet at det er et sjansespill å be KI forfatte noe. Tekstene imponerer grammatisk, men fakta er det verre med.

Språkmodellen trenes gjennom å mate inn tekster. Algoritmene forsøker å maksimere nøyaktigheten av oppgaven du har skrevet inn, men maskinen aner ikke om svaret holder som fakta.

Noen beskylder teknologien for å lyve, men det ligger ingen intensjoner eller subjektive vurderinger bak. Dette kalles konfabulering.

Vi må være forsiktige med å tilskrive disse teknologiene subjektive, menneskelige egenskaper. Selv om KI er en språkmodell som ikke har verdier, inneholder den en del data som reflekterer menneskeverdier. Ved å gi KI treningsdata blir dette utviklet over tid. Dermed kan omstridt innhold fra data vi har matet modellen med bli forsterket i senere faser.

Touilebs forskning viser så langt at teknologien skaper uttrykk som reflekterer verdier og ofte holdninger. Holdninger som til og med kan være farlige.

Norske redaksjoner har dette i bakhodet når det jobbes med retningslinjer for å bruke kunstig intelligens i det daglige arbeidet.

Her ved Media City Bergen har bransjen gått sammen for å dele erfaringer. Problemstillingene er veldig mange, og det vil ta tid å bli trygg i bruken.

De fleste redaksjoner ønsker en plakat som beskriver retningslinjer for bruk. Den kommer til å bli hyppig oppdatert.

Vårt råd er å være realistisk og kritisk. Ingen tjenester er gratis. Alle aktørene har en forretningsmodell. Ved å gi dem gratis data bidrar vi til å forbedre modellene.

Men så langt vet vi som brukere for lite om konsekvensene. Vi er nødt til å rette oppmerksomheten mot hva som skjer med tekst, lyd, bilder og video som sendes inn i teknologiene.

Vi kan ikke bare håpe dette går bra. Vi må ha kontroll. Særlig på sensitivt materiale. Derfor bør journalister være varsomme med å mate maskinene med upublisert materiale. Tips fra publikum kan være tidkrevende å sortere manuelt. KI kan bistå, men OpenAI bør ikke brukes.

Hva med å mate KI med saksdokumenter og journaler? Tenk igjen over hva de inneholder før du ber teknologien om å skrive sammendrag eller kortversjoner. Ikke minst: Vurder resultatet kritisk.

Lekker maskinene spørsmålene vi stiller dem? Vi har ikke dekning for å mene det, men kan heller ikke utelukke det. Husk igjen: Alt du mater inn brukes til å forbedre og trene teknologien. Innholdet du har gitt bort vil ligge på en server et sted i verden - til nærmest evig tid. Så langt er problemet størst for KI-modellene som genererer nytt innhold.

Språkmodellene er dårlig på fakta, men desto bedre til å kjenne igjen mønstre og språk. Redaksjonene sparer mye tid på automatisk transkribering. TV og radio kan enkelt få omdannet lyd til råtekst som kan utnyttes journalistisk på andre plattformer. Denne typen verktøy gir oss bedre kontroll på dataene.

KI-genererte bilder utfordrer troverdighet og publikums tillit til mediene. Ifølge Presseforbundet skal Vær varsom-plakaten være så slitesterk at den kan ta opp i seg nye utfordringer.

Kunstig intelligens i redaksjonene utfordrer både punkt 4.11 om å verne om det journalistiske fotografiets troverdighet, punkt 3.2 om kildekritikk og faktakontroll - samt punkt 3.4 om kildevern.

Allerede høsten 2019 tok den finske varianten av Pressens faglige utvalg stilling til hva mediene bør gjøre med automatisering og algoritmebruk. De kom til at publikum har krav til å vite når teknologien er brukt og legger opp til tydelig merking som et viktig krav. Beslutningen var forskningsbasert og lente seg til funnene i en rapport som ble overlevert The Alliance of Independent Press Councils of Europe (AIPCE).

Vi ønsker ikke å være gledesdrepere, men oppfordrer journalister og redaktører til å være forsiktige. Senter for undersøkende journalistikk ønsker å bidra til kritisk bruk av KI – særlig i de mindre redaksjonene og i lokalavisene. Dette ble nylig forsterket gjennom innspill fra vårt faglige råd.

Teknologien må i langt større grad vise oss forbehold. Disse må merkes disse tydelig. Kildene bør være synlige.

Men det er opp til oss å finne ut hvordan journalistikken vår kan bli bedre ved å ta i bruk teknologiens muligheter.

———————————————-

Dette er et debattinnlegg, og gir uttrykk for skribentens mening. Har du lyst til å skrive i Medier24? Send ditt innlegg til meninger@medier24.no.

Powered by Labrador CMS