Selskapet Abdera har utviklet sin egen modell for å gjenkjenne og ta bort uønskede kommentarer i kommentarfelt.
Allerede har de fått med seg norske aviser som Nordlys, Dagbladet og Firda som pilotkunder.
Erland Grimstad er maskinlæringsingeniør i selskapet. Han forteller at ideen begynte med en masteroppgave på Universitetet i Tromsø som handlet om å gjenkjenne usunne kommentarer.
– Det var et potensiale der, så vi tok det videre til media og fikk vite at det var et stort behov for moderering med å gjenkjenne hatprat og uønskede kommentarer på nett, sier han.
Han forklarer at de har trent sin egen maskinlæringsmodell for å kunne forstå kommentarspråk som skrivefeil og dialekt.
– Vi har så brukt den modellen med forståelsen til å gjenkjenne hva som er uønskede kommentarer, sier han.
Vil nå ut
Per nå er det norske aviser som er målet for gründerselskapet, men etter hvert håper gjengen på fire at flere vil slenge seg på.
– Interessen har vært veldig positiv. Vi har snakket med flere aviser fra da dette var på idéstadiet. Og alle likte veldig godt det vi presenterte, sier administrerende direktør Johannes H. Nilsen.
Han tror det er et produkt som kan brukes i hele verden.
– Vi ønsker å gå globalt etter hvert. Vi kan også på inn i andre markedet, som gamingverdenen. Sosiale medier-plattformene bruker også enorme ressurser på moderering, sier han, og legger til:
– Om det er et marked vi skal gå etter vet vi ikke, men vi har jo lyst til å få dette til å vokse utover Tromsø, selvfølgelig, og ut i verden etter hvert.
Tror moderering blir sentralt
Grimstad sier han tror mengden generert innhold og automatisk generert innhold vil eksplodere de neste årene.
Han mener derfor at det må finnes et verktøy for å navigere gjennom det genererte innholdet på nettet.
– Da tenker jeg at moderering kommer til å bli veldig sentralt, sier han.
På spørsmål om muligheten for overmoderering forklarer Nilsen at de ikke anser det som deres jobb å bestemme hva som er greit og ikke greit i et kommentarfelt.
– Det vi har tatt utgangspunkt i når vi har trent modellen er den juridiske definisjonen av hatprat. Modellen er trent for å kjenne igjen hatprat.
– Utover det er er det ikke vår oppgave å si hva som er greit eller ikke. Derfor tilbyr vi en spesialtilpasset modell som jobber etter dine retningslinjer. For å sikre at modellen er optimalt, så ser vi på hvilke kommentarer kundene ikke vil ha basert på hva de sletter og hvilke retningslinjer de har.
At all form for moderering blir automatisert og maskinbasert tror Grimstad ikke. Blant annet ved tvilstilfeller er målet at de skal gå til en menneskelig moderator.
– I brorparten av tilfellene så er ikke det egentlig nødvendig, sier han.
Har du tips til denne eller andre saker? Kontakt oss på: tips@medier24.no