Christoph Trattner er direktør for MediaFutures forskningssenter i Bergen.
Christoph Trattner er direktør for MediaFutures forskningssenter i Bergen.

MENINGER:

Kunstig intelligens kan trenge hjelp fra presseetikken

«Når redaksjoner innfører kunstig intelligens i publiseringen, er det mye som kan gå galt dersom presseetikken ikke er godt integrert i teknologien.», skriver Christoph Trattner.

Publisert

Kunstig intelligens er i ferd med å forandre enhver sektor i samfunnet – fra juss til medisin, forsvar, utdanning og ikke minst journalistikk. I tiden fremover vil vi oppleve at stadig flere sider av produksjon, distribusjon og konsum av informasjon blir påvirket av systemer med innslag av kunstig intelligens.

Derfor må det sørges for at videreutviklingen av den skjer på en ansvarlig måte, med hensyn til en rekke samfunnsmessige, etiske og juridiske aspekter.

Selv om det etiske regelverket for journalister er i stadig utvikling som svar på nye sosiale og tekniske utfordringer, bygger de journalistiske idealene på noen institusjonaliserte regler og prinsipper som kan veilede dem som utvikler nye medieteknologier.

Yrkesetikken er en viktig del av profesjonsutøvelsen til journalister, redaktører og medieteknologer. Etiske retningslinjer supplerer gjeldende lovgivning og definerer ofte felles standarder. De beskriver generelle forventninger til en ansvarlig yrkespraksis og legger til rette for hvordan problemstillinger skal løses.

Vær varsom-plakaten og andre presseetiske regelverk kan komme til nytte i utformingen av pålitelige, forklarbare og upartiske kunstig intelligens systemer.

Hvordan kan slike abstrakte normer oversettes til konkrete handlinger og brukes som rettesnor under design-, bygge- og evalueringsprosessen av et KI-basert system, f.eks. nyhetsstrøm tilrettelagt av algoritmer?

Den amerikanske Society of Professional Journalists lister opp følgende fire etiske hovedprinsipper for journalister: 1) Å søke sannhet, 2) Minimere skade, 3) Å handle uavhengig, og 4) Å opptre ansvarlig og transparent.

For å søke sannhet, må designere og utviklere sørge for at informasjon i nyhetsstrømmen er korrekt. Dette kan gjøres ved en algoritmisk utfiltrering av desinformasjon, manuell gjennomgang av innholdet som får mye oppmerksomhet, og ved innholds- og kildemerking.

For å lære krever modellene for kunstig intelligens at data må defineres og samles. Faktasjekkere kan merke innholdet som brukes til trening og forbedring av modellene for å redusere forekomsten av falsk informasjon. Kvaliteten på modellene bør evalueres både automatisk og manuelt.

Moderering av innhold er nødvendig for å minimere skaden innholdet kan forårsake for enkeltpersoner. IKT-utviklere kan designe og utvikle klassifisering som automatisk oppdager innhold om ofre for kriminalitet, overgrep, mobbing eller brudd på personvernet, og stoppe spredning av den. Lignende klassifisering kan filtrere ut uønsket innhold som for eksempel bidrar til depresjon, spiseforstyrrelser eller selvskading.

Uavhengighet innebærer at interessekonflikter avdekkes til det beste for allmennheten. Medie- og teknologiplattformer kan utvikle databaser med informasjon om kildetyper, om hvordan de er finansiert, eierforhold, sponsing osv. Kildeinformasjon kan merkes i brukergrensesnittet (f.eks. med etiketter) for å klargjøre hvor informasjonen kommer fra og forholdet mellom den som styrer nyhetsstrømmen og kilden.

For å opprettholde prinsippet om ansvarlighet kreves det transparens. Periodisk offentliggjøring av interne evalueringer kan brukes til å avklare hvordan operatøren av nyhetsstrømmen opprettholder prinsipper om sannhet, minimering av skade og uavhengighet.

For å sikre åpenhet om algoritmer, kan det opprettes en stilling som algoritmeviter med full tilgang til systeminformasjon og ansvar for å forklare publikum hvorfor ting skjer når programkoden ikke virker som tenkt. Slike stillinger kan publisere offentlige rapporter eller ha ansvar for å svare dem som søker oppreisning.

Vi som arbeider ved MediaFutures Forskningssenter for ansvarlig medieteknologi og innovasjon ved Universitetet i Bergen håper at på samme måte som for journalistikk og medier, kan andre fagfelt, for eksempel medisin og juss, vurdere å dra nytte av sitt etisk regelverk ved utforming av ansvarlige KI-baserte systemer som vil gagne både enkeltmennesker og samfunn.

Samtidig er det er viktig å understreke at etiske koder ikke kan oversettes til enkle sjekklister som er tilpasset teknologi.

Snarere skal resonnementet og verdiene nedfelt i koder hjelpe teknologer å foreta mer ansvarlige valg i deres arbeid. Samarbeid mellom tekniske eksperter og andre interessenter er nødvendig og avgjørende.

Kunstig intelligens har kommet for å bli, og en stor grad av fremtidig verdiskaping vil basere seg nettopp på KI-baserte systemer. For å kunne utnytte mulighetene og vekstpotensialet som ligger i den teknologien, må vi sørge for at utviklingsprosesser utføres ansvarlig og på en etisk måte. Vårt senter skal bidra med mer forskning og løsninger for å sikre vellykkede initiativer innen ansvarlig teknologi og kunstig intelligens.

———————————————-

Tankene presentert i dette innlegget er utdypet i en forskningsartikkel «Leveraging Professional Ethics for Responsible AI» som i kommende uker blir publisert i tidsskriftet Communications of The ACM.

Dette er et debattinnlegg, og gir uttrykk for skribentens mening. Har du lyst til å skrive i Medier24? Send ditt innlegg til [email protected].

Powered by Labrador CMS