Hvorfor slettes en antirasistisk video på Instagram?
I dag kan vi lese i Aftenposten at en antirasistisk Instagram-video har blitt slettet av Meta for brudd på retningslinjene. Det er langt fra første gang vi hører om slike tilfeller. Hvorfor gjør Meta det? Hvorfor ser de ikke forskjell på rasisme og antirasisme?
I videoen det er snakk om ser vi noen av de rasistiske meldingene fotballspilleren Mushaga Bakenga jevnlig mottar. Vi følger han inn på Politihuset i Oslo, hvor han anmelder saken. Etterpå prater han om hvorfor det er viktig å ta tak i det problemet rasisme er i hverdagen.
Det er en video med et viktig budskap, som bør deles så mye som mulig. Mange har gjort det, men flere har opplevd at videoen blir slettet fordi den bryter Instagrams retningslinjer.
Sannsynligvis er Norges Fotballforbunds kommunikasjonssjef Yngve Haavik på riktig spor i en kommentar han gir til Aftenposten:
– Videoen har et klart antirasistisk budskap, men inneholder rasistiske ord fra SMS-er for å få frem alvoret i rasismen både Bakenga og andre blir utsatt for. Årsaken kan være at Instagram bruker automatiserte verktøy for å luke bort blant annet rasistiske ord og uttrykk, og at det er bakgrunnen for at budskapet ikke er blitt oppfattet.
Hvorfor skjer det?
Alle sosiale medier bruker automatiserte systemer til å moderere innholdet på plattformene sine. Kunstig intelligens luker bort hatprat, rasisme, pornografi og annet uønsket innhold.
Automatiske systemer er veldig effektive når det gjelder å kjenne igjen mange typer uønsket innhold, men de er veldig dårlige når det gjelder å sette innholdet inn sammenhenger som humor, ironi, sarkasme og, som i dette tilfellet, bruk av eksempler for å illustrere et problem.
Vi så noe av det samme i 2016, da Facebook slettet Aftenpostens post med Nick Uts ikoniske bilde av den lille jenta Phan Thi Kim Phuc som løper naken fra napalmbombene i Vietnam. Den kunstige intelligensen, som var trent på å kjenne igjen og fjerne bilder av nakne barn, visste ikke at akkurat dette bildet av et nakent barn var et unntak. Hvordan skulle den kunne vite det?
Kunstig intelligens er ikke er intelligent. Den er bare veldig flink til å behandle enorme mengder data. Mange oppgaver som er enkle for oss mennesker, er umulig for selv den kraftigste kunstige intelligensen. Å forstå humor er et eksempel på det. Har du forsøkt å be ChatGPT om å lage en vits?
At de rasistiske meldingene som ble vist i videoen med Bakenga egentlig bare var virkemidler i en antirasistisk video, er derfor umulig for den kunstige intelligensen å forstå.
Hvorfor bruker de ikke mennesker til å moderere?
Det deles ca. 95 millioner poster på Instagram hver dag. Selv med flere titusener moderatorer, ville det være umulig å gå igjennom hver enkelt post, for ikke å snakke om kommentarer på postene. Da ville det gå flere timer fra du klikket ‘publiser’ til posten ble synlig på plattformen.
Derfor må plattformene bruke kunstig intelligens.
I første kvartal i år fjernet Meta 11,7 millioner Instagram-poster og kommentarer som inneholdt trakassering eller hatprat. 82 prosent ble fjernet av Metas automatiske systemer, mens 18 prosent ble rapportert av brukere. I underkant av en halv million tilfeller ble omgjort etter klage.
Det er bedre at de gjør feil, enn at de ikke gjør noe
Det er ingen tvil om at Metas systemer bommer rett som det er. I tillegg til de fire prosentene som blir rette opp etter klage, er det mange tilfeller som ikke rettes opp selv om de automatiske systemene har gjort feil.
For hver enkelt av oss som opplever å få en post slettet eller en konto deaktivert på grunn av en slik feil, er det i beste fall irriterende, eller i verste fall katastrofalt. Nils-Jarle Sætre opplevde å få sin side deaktivert uten grunn da han samlet inn penger til Alzheimerforskning tidligere i sommer.
Det er også mye uønsket innhold som slipper gjennom Metas systemer, noe Bakengas kommentarfelt er et eksempel på.
Men alternativet er mye verre. Uten automatisk moderering ville det ha vært tre-fire millionene flere poster og kommentarer med trakassering og hatprat på Instagram hver måned, i tillegg til millioner av poster med andre former for uønsket innhold.
Center for Countering Digital Hate har dokumentert en dramatisk økning av trakassering og hatprat på Twitter etter at Elon Musk sa opp mange av de som modererte innhold på plattformen.
Vi ønsker oss alle et sted vi kan ringe eller sende melding og få svar av et menneske, men vil det egentlig hjelpe? En kundeservicemedarbeider vil bare klare å svare på en brøkdel av de klagene som kommer hver dag bare her i Norge. Er det mindre frustrerende å ikke få hjelp av et menneske, enn av et automatisk system?
Meta kan bli bedre
Det er likevel ingen tvil om at Meta har et stort potensial for å bli bedre. Først og fremst bør de endre hvordan de kommuniserer med brukerne. Forklaringene de gir når de fjerner innhold er helt ubrukelige.
Det samme gjelder kommunikasjonen i klageprosessen. Den er helt fraværende nå. Mye frustrasjon kunne ha vært unngått om Metas automatiske systemer kommuniserte litt bedre.
Meta lover «personlig hjelp» til de som betaler en drøy hundrelapp i måneden for Meta Verified. Jeg må innrømme et jeg er skeptisk, men det kan jo hende at de overrasker. Det vet i snart, for Verified har akkurat blitt tilgjengelig her i Norge også.
Forsidefoto: Alexander Shatov/Instagram