Journalistisk selvskading med ChatGPT
Historien er full av eksempler på at mediebransjen velger teknologiske snarveier, som i ettertid viser seg å koste dyrt. Journalistikken ble gitt bort gratis da internett kom. Man lukket øynene for utviklingen da Google revolusjonerte annonsemarkedet. Hele bransjen gjorde seg avhengige av Facebook som kanal for å nå leserne. Nå er det ChatGPT som er favorittverktøyet for journalistisk selvskading.
ChatGPT er et fantastisk verktøy hvis det brukes riktig. Det er et verktøy som kan gjøre journalister mer effektive. Det kan automatisere rutineoppgaver, så journalister kan bruke mer tid på å skape god journalistikk.
Men veien er kort fra nyttig bruk til misbruk som ødelegger journalistikken.
«…vil YouTube introdusere mekanismer som gir muligheten for å anmode om fjerning av innhold som simulerer kjente individer, inkludert deres ansikt og stemme, gjennom personvernforespørsler.»
Sitatet er hentet fra en sak i en norsk nettavis, og er generert av ChatGPT. I tillegg er en nesten identisk formulering gjentatt to avsnitt nedenfor. Jeg vil påstå at ingen god journalist ville ha kommet opp med en slik formulering, og helt sikkert ikke to ganger i løpet av tre avsnitt.
Dessverre står forbeholdet «Denne saken er laget med hjelp av ChatGPT og desket av redaksjonen» stadig oftere nederst på enkle nyhetssaker. Pressemeldinger mates inn i ChatGPT, og resultatet publiseres med lite eller ingen redigering. Det er ikke journalistikk, det er latskap.
Utfordringen med ChatGPT er at den er mye bedre enn noe verktøy vi har sett tidligere, men samtidig ikke i nærheten av god nok. Språket som kommer ut av ChatGPT er grammatisk riktig, men flatt og livløst. Ofte er det også dårlig formulert. Det har en naturlig forklaring.
Når en god journalist skriver, forsøker hun å male mentale bilder i hodet til leseren. Hun velger ord og formuleringer som skal fremkalle de samme bildene i leserens hjerne, som hun selv har når hun skriver.
Det er ikke mulig for kunstig intelligens (ennå). KI er i praksis bare en matematisk sannsynlighetsberegning av hvilke ord som hører sammen. En KI-modell forstår ikke begrepet mentale bilder, eller hva følelser er. Den kan beskrive følelsen medlidenhet, for den har sikkert tusen beskrivelser av ordet ‘medlidenhet’ i treningsdataene sine, men den vet ikke hvordan medlidenhet føles.
Derfor blir språket en KI-modell genererer flatt og livløst. Det fremkaller ikke følelser og mentale bilder.
Når journalister og redaksjoner erstatter journalistisk fagkompetanse med ChatGPT, velger de bort et levende språk, følelser og mentale bilder til fordel for en rekke ord som er grammatisk riktige, men som bare er en rekke med ord.
ChatGPT er et godt verktøy når tekst skal oversettes eller sammendrag skal skrives, men det er bare et hjelpemiddel. Det er fortsatt journalistens jobb å velge de riktige formuleringene, sikre god leseflyt og gi teksten liv. Det kan ikke ChatGPT gjøre. Hvis journalister ikke tar seg tid til å bearbeide tekstene de får ut av KI-modellene, så sier de i praksis at journalistisk fagkompetanse ikke har noen verdi. Da gjør de seg selv overflødige.
Det er journalistisk selvskading.
Konsekvensen av redaksjonenes latskap er at de venner leserne til et flatt og livløst språk. Hvis leserne får servert mange nok tekster generert av ChatGPT, og urørt av menneskehender, vil de venne seg til at det er slik journalistikk er. Da vil de miste evnen til å sette pris på god journalistikk.
Vi står foran nok et teknologisk veiskille for mediene. Det er opp til bransjen selv å velge om de igjen tar den teknologiske snarveien, eller om de vil prioritere god journalistikk.
Dere er herved advart.
Forsidebilde: ChatGPT / DALL-E