Världsunikt: Hela mediebranschen samverkar om AI-transparens

För mediebranschen innebär AI-tekniken en mängd nya utmaningar och frågor.
För att stötta publicister har medlemsorganisationen Utgivarna nu tagit fram branschgemensamma rekommendationer för AI och transparens
Du kan läsa pressmeddelandet om rekommendationerna från Utgivarna här.
Det är första gången som en hel mediebransch ställer sig bakom rekommendationer av det här slaget.
– Det handlar om hur vi ska berätta för våra läsare, tittare och lyssnare om när vi använder AI-verktyg. När ska vi vara transparenta och hur? säger James Savage, ordförande för Sveriges Tidskrifter, styrelsemedlem i Utgivarna och publisher på The Local.
De nya rekommendationerna kring AI och transparens ger både principiell och praktisk vägledning för svenska publicister. I rekommendationerna betonas att de inte är bindande och att de är iterativa, det vill säga att de kommer att behöva förändras med teknikens utveckling.
Det var i höstas som grundarna av nätverket Nordic AI Journalism, Schibsteds AI-expert Agnes Stenbom och SR:s AI-chef Olle Zachrisson, initierade workshops om AI och transparens under Utgivarnas paraply. Utgivarna är en intresseorganisation för medieföretag i Sverige och medlemmar är Sveriges Tidskrifter, TU, SVT, TV4, SR och UR.
18 mediechefer deltog i projektet. Arbetet har nu mynnat ut i branschgemensamma rekommendationer för AI och transparens.
– Vi är väldigt medvetna om att vi måste dra nytta av de möjligheter som AI innebär, men vi måste också slå vakt om vår trovärdighet. Det är viktigt att vi branschgemensamt försöker bena ut detta, säger James Savage, som varit med i arbetet.
Fokus för projektet har varit transparens gentemot mediepubliken, och om hur svenska medieföretag kan informera sina användare om bruk av AI i redaktionella medieprodukter. Grunden är att mediepubliken ska kunna lita på innehåll som publiceras av redaktionella medier som är ansluta till det pressetiska systemet.
I dag finns AI-tekniken inom en mängd områden för många medier, det kan gälla transkribering, artificiella röster, artikelrekommendationer och så vidare.
– Det finns ju AI-verktyg som används internt inom olika redaktionella processer, som inte riskerar att påverka vår trovärdighet, så länge som ansvarig utgivare tar ansvar för det som publiceras, säger James Savage.
Som exempel tar han AI-transkriberingsverktyg, vilket många journalister använder i dag, men få (eller inga?) redaktioner berättar för publiken om.
– Om vi börjar flagga för AI i allt vi gör så finns det en risk för att folk inte förstår att de grundläggande journalistiska metoderna, verktygen och principerna är oförändrade. Det är viktigt att läsarna, tittarna och lyssnarna förstår att deras tidskrifter, tidningar och program skapas av journalister, av människor som har en yrkesetik.
När ska man vara transparent med läsaren om olika AI-stöd?
– Vi har sagt att AI med en betydande inverkan på journalistiken kräver transparens. Men vi har också sagt att den principen är vägledande. I slutändan är det redaktionen och den ansvariga utgivaren som definierar detta för den egna publikationen och redaktionen.
Varför behövs rekommendationerna?
– För att vi ska jobba mot någon slags gemensam referensram. Det är viktigt att det inte blir förvirrande för läsarna, därför behöver vi koordinera oss i mediabranschen.
Under gårdagen (onsdag) röstade EU-parlamentet om den nya lagstiftningen EU Act, ett banbrytande första försök att sätta riktlinjer om AI för hela EU. Utgivarna har tidigare i processen kritiserat en skrivning i lagförslaget om märkning av AI-genererad text i vissa fall. Utgivarna menar att tillägget är problematiskt ur grundlagssynpunkt och förklarar att ”medieföretagen och dess utgivare har – och tar – givetvis ansvar för att tydliggöra om, och i vilken utsträckning, AI använts”.
– För att värna yttrandefriheten är det viktigt att vi medier själva bestämmer hur vi förhåller oss till olika innovationer. Vi i Utgivarna anser att det är bättre att branschen jobbar ihop och tar hand om det här själva, än att ha tvingande regler kring märkning.
Nu lämnar vi Utgivarnas rekommendationer en stund igen och går över till en annan världsnyhet. James Savage har precis blivit intervjuad av Sveriges Radio när vi hörs på telefon.
Han som ofta agerar expert på det brittiska kungahuset har haft fullt upp.
– Alla har blivit helt besatta av den här nya bilden från brittiska kungahuset, säger James Savage.
Radiointervjun handlade om den uppmärksammade Instagram-bilden på prinsessan av Wales, Kate Middleton, som publicerades på Mors dag. Kate Middleton har inte synts offentligt sedan en bukoperation i januari. Bilden visade sig dock vara (slarvigt) retuscherad.
– Alla stora nyhetsbyråer och många tidningar i Storbritannien och runt om i världen publicerade bilden – och dagen efter fick de ta bort den. När man tittar noga på bilden så ser man att den är väldigt klantigt gjord, säger James Savage.
Det är oklart om Kate-bilden är manipulerad med AI, men den illustrerar ändå problemet med manipulering och transparens, menar James Savage.
– Vår trovärdighet riskerar också att sättas på spel när sådant här händer, säger han.
Vad tycker du om hela den här storyn?
– Ja, alla undrar ju var hon är, men det är inte så att man undrar mindre nu.
Text: Matilda Nilsson
Foto: Sara Arnald och Getty Images
Utgivarnas rekommendationer om AI och transparens
Här följer en summering av Utgivarnas 7 rekommendationer.
- AI med en betydande inverkan på journalistiken kräver transparens. Vad “betydande inverkan på journalistiken” betyder ligger hos redaktionen och ansvarig utgivare att avgöra och fatta beslut om. Beslutet om transparens görs anpassat efter varje publikations specifika omständigheter och behov.
- Övriga AI-arbetsverktyg behöver ej informeras om. För de flesta interna AI-tillämpningar där tekniken används för att stötta i såväl redaktionellt som kommersiellt arbete behöver publiken inte informeras om användningen. I rekommendationerna ges följande exempel: transkribering, rättstavningsprogram och SEO-arbete.
- AI-transparens måste ses som ett iterativt tema. Många av de AI-tekniker som nu nyttjas i mediebranschen befinner sig i ett tidigt skede och öppenheten och tydligheten kring dessa användningar kommer att behöva omprövas över tid, i takt med att teknologin och användarnas vanor och förväntningar utvecklas.
- Var specifik med vilken form av AI-verktyg som tillämpats. AI är ett paraplybegrepp som fångar en mängd tillämpningar och tekniker. För att avmystifiera begreppet rekommenderas att medieföretag kommunicerar om tekniken som just verktyg och att man förklarar vilken uppgift AI har varit del av, snarare än att ge mediekonsumenten en känsla av att AI gjort allt som har med en publicering att göra. Till exempel kan en AI-tecknad serie som förklarar en viss journalistisk granskning få följande bildtext: “seriestrippen är skapad med stöd av ett AI-verktyg för bildgenerering”. Vidare kan en redaktion som har nyttjat en språkmodell för grävande journalistik för att möjliggöra en omfattande dataanalys i samband med publiceringen informera om till exempel den specifika modellen de använt, och förklarar hur olika metodval kan ha påverkat granskningen.
- Dela information i anslutning till konsumerat innehåll. Också här är rekommendation 1 (se ovan) om “betydande inverkan på journalistiken” central för bedömningsarbetet, och redaktionerna har ett ansvar att löpande utvärdera behovet av publikinformation. Hur informationen når publiken kan och bör variera mellan publiceringar. Men till exempel kan en podd som läses av AI-genererade röster ha följande disclaimer i början av avsnittet: “Rösten du kommer att höra är skapad med stöd av ett AI-verktyg för röstgenerering”.
- Harmonisera branschens språkbruk kring generativ AI. För att mediekonsumenterna lättare ska förstå och förhålla sig till generativ AI i svenska medier rekommenderas en harmoniserad approach för beskrivning av AI. I rekommendationerna föreslås skrivningen ”med stöd av” (t ex ”ett AI-verktyg”) men lämpligt språkbruk är ett redaktionellt beslut, som även kommer behöva omprövas kontinuerligt.
- Undvik visuell märkning av AI i redaktionella medier. Rekommendationerna innehåller en avrådan från en standardiserad visuell märkning (t ex en ikon) för AI i redaktionella medier. Det motiveras av att:
* en explicit visuell differentiering kan ge intrycket av att trovärdigheten i AI-genererat/påverkat innehåll överlag skiljer sig från innehåll som skapats av mänskliga journalister eller redaktörer.
* En visuell märkning kan vara svår att implementera konsekvent över olika medieplattformar och innehållstyper.
* Det riskerar bli en tungrodd process givet var vi befinner oss just nu i AI-utvecklingen. En visuell standard riskerar att snabbt bli irrelevant.
Hela rekommendationen hittar du hos Nordic AI Journalism.