«Hvordan stoppe falske nyheter – med moderering eller automatisering? Akkurat nå virker det ikke som om det finnes noen enkle – eller gode – løsninger», skriver David Ingham.

Debatt

Hvordan stoppe falske nyheter – med moderering eller automatisering?

«Akkurat nå virker det ikke som om det finnes noen enkle – eller gode – løsninger», skriver David Ingham.

Denne artikkelen er over to år gammel.

  • DAVID INGHAM, digital partner, Media & Entertainment, Cognizant

Collins Dictionary kalte “fake news” “Årets ord” allerede i 2017, men det er særlig i tiden etterpå at oppmerksomheten rundt og granskningen av hvordan falske nyheter påvirker oss og samfunnet rundt, har skutt fart.

David Ingham, digital partner, Media & Entertainment, Cognizant.

Enten vi snakker om polarisering av debatten, barn som føler seg dumme når de deler nyheter som senere viser seg å være falske eller truslene mot grunnleggende samfunnsstrukturer og institusjoner; falske nyheter representerer en enorm utfordring, ikke minst for mediene selv.

I takt med at volumet øker har alt fra sosiale plattformer, nettleserutviklere og medieselskaper tatt ansvaret for å finne en måte å stoppe spredning av falsk informasjon på.

Mange av tiltakene faller i to kategorier; moderering og automatisering.

Moderering – den menneskelige faktor

Det mest høyprofilerte eksempelet på moderering av innhold utenfor de enkelte mediehusene, er kanskje Newsguard. Tilgjengelig som en plug-in i de største nettleserne, for desktop og mobil, leverer denne tjenesten en rød eller grønn rating av en publikasjons troverdighet, basert på en journalistisk vurdering.

Og det skapte debatt da Newsguard flagget en av verdens største online-publikasjoner, Mail Online, og skrev at avisen “ikke lever opp til grunnleggende standarder for nøyaktighet og etterrettelighet”. 

For selv om Newsguard benytter ni apolitiske kriterier for journalistisk praksis når de vurderer kredibilitet og transparens, er det ingen tvil om at metoden kommer med utfordringer knyttet til subjektivitet. 

Alle som vurderer troverdighet knyttet til informasjon og innhold, har stor makt. Og selv om Newsguard sin metode, som benytter seg av journalistenes utdanning og erfaring med å jobbe balansert og objektivt, er grunnleggende god, er det ikke til å komme forbi at vurderingene som ligger til grunn for ratingen, er gjort av mennesker.

Med andre ord, personer med egne meninger, fordommer og forhåndsoppfatninger.

Og der en liberal moderator kanskje rater en høyrevridd publikasjon lavt, vil en annen, med større sympati for nettstedet som vurderes, kanskje scoret på en annen måte.

En annen utfordring oppstår når falske nyheter dukker opp i ellers troverdige og solide publikasjoner. Apple News formidler et stort antall magasiner, aviser og nettsteder gjennom sin tjeneste. Å ta ansvar for å moderere hver enkelt artikkel er i praksis uoverkommelig i en verden der nytt innhold publiseres kontinuerlig i stadig flere kanaler.

Når en anerkjent publikasjon formidler falske eller unøyaktige nyheter, er faren for at det ikke blir oppdaget, relativt stor.

Et eksempel er nyheten om de såkalte Momo-utfordringene, der barn ble oppfordret til å skade seg selv og til å ta sitt eget liv. Denne ble formidlet av en rekke troverdige nyhetskanaler, blant annet BBC og The Independent. Da nyheten ble avslørt som falsk, ble mediene beskyldt for å fare med løgn.

Denne typen nyheter representerer store utfordringer for mediene, som mangler ressursene og evnen til å bekjempe falske nyheter som går viralt i troverdige kanaler.

Automatisering – mennesket i maskinen

Det finnes organisasjoner som forsøker å håndtere kapasitetsutfordringene ved bruk av automatisering og kunstig intelligens.

Et eksempel er Fake News Challenge (FNC), et grasrotinitiativ der over 100 frivillige og 70 team fra akademia og næringsliv rundt om i verden har gått sammen om å utforske hvordan maskinlæring og “natural language processing” kan benyttes for å bekjempe falske nyheter. 

Det samme gjør Google når de benytter AI i sin Google News app for å vurdere om en artikkel skal fjernes eller bli liggende på plattformen.

I denne sammenhengen er det viktig å huske at også en automatisert respons på en falsk nyhet bygger på menneskelige vurderinger som igjen er sårbare for bias, holdningene og fordommene til de som gjør dem.

Subjektivitet er med andre ord en utfordring også når selve beslutningen er automatisert. Og akkurat nå kan det virke som om teknologien som produserer falske nyheter har et forsprang på AI-baserte løsninger som skal bekjempe dem.

Som en konsekvens har Open AI-prosjektet bestemt seg for ikke å publisere sin nyeste løsning, et program som selv kan skrive nyheter og historier, av frykt for at den skal bli misbrukt.

Parallelt utvikler også de falske nyhetene seg og dukker opp i nye former og i nye kanaler. Såkalte “deepfakes” er realistiske videoer der kunstig intelligens er benyttet for å lage nye versjoner der en person sier ting som aldri er sagt eller gjør ting som aldri har skjedd.

Enten vi snakker om falske kjendisnyheter eller redigerte uttalelser fra politikere, representerer deepfakes og annet syntetisert innhold på nettet nok en utfordring i kampen mot de falske nyhetene.

En tapt sak?

Det er lett å bli motløs, men kampen mot falske nyheter er på ingen måte en tapt sak.

Den enorme oppmerksomheten fra lesere, politikere, journalister, mediehus, myndigheter og regjeringer gir i seg selv grunn til optimisme. Og presset på alt fra nettleserutviklere til de store sosiale medier-plattformene er så stort, at det ikke er noe vei utenom en holdbar løsning i fremtiden.

Flere personer og organisasjoner kommer til å engasjere seg og mer penger vil bli brukt på utviklingen av bedre teknologi fremover. 

Og en viktig faktor kommer til å være nettopp sofistikerte, teknologiske løsninger som kan håndtere flommen av feil- og desinformasjon.

Vi ser at nettopp dette fungerte i møte med utfordringene knyttet til spam, der filtrene i dag ikke bare benytter avsenderidentitet som markør for å klassifisere innhold som spam, men alt fra IP-adresser til gjenkjenning av trender i både innhold og formater.

Løsningene er langt fra perfekte, men tjener som gode eksempler på hva vi kan få til ved hjelp av teknologi og automatisering.

I mellomtiden finnes det ingen enkle svar. Mens utviklerne jobber med både high- og lowtech-løsninger, er vi som mediekonsumenter selv nødt til å ta ansvar for å forstå forskjellen på falske og ekte nyheter, godt og dårlig innhold.

Det gjør vi blant annet ved å ta enda mer på alvor hva vi lærer barn og ungdom om å lese innhold med et kritisk blikk allerede i barneskolen og når vi installerer moderator-løsninger som Newsguard i nettleseren vi benytter.

Powered by Labrador CMS