Aftonbladets AI-nav, som består av åtta personer med olika yrkesroller, driver AI-utvecklingen framåt på tidningen. Exempelvis så görs AI-sammanfattningar av artiklar, det finns en AI-röst för uppläsning av nyheter och video textas automatisk med hjälp av AI. Men när det gäller bilder har kvällstidningen en mer restriktiv hållning.
– Vi använder inte AI-genererade bilder för nyhets- eller dokumentärrapportering, säger Mats Strand, bildchef för Aftonbladet.
Redan i december presenterade tidningens AI-nav tillsammans med Mats Strand en policy för just AI-bilder vid ett stormöte på tidningen. Policyn är uppdelad i vad som är tillåtet och inte tillåtet när det gäller AI och bilder.
– Vi får använda AI-genererade bilder till lättsamma featureartiklar och då ska det tydligt framgå att bilderna är AI-genererade, säger Mats Strand.
Policyn är ett levande dokument som kommer att uppdateras med teknikutvecklingen. För närvarande är det inte tillåtet att göra bilder till Aftonbladet i OpenAI:s bildtjänst Dall-E. Detta eftersom Aftonbladet saknar licensavtal med Dall-E. Vidare specificeras hur nyhetsbilder får och inte får bildredigeras i programmet Adobe Photoshop. Adobe har flera nya verktyg i Photoshop som bygger på AI-teknik, som till exempel att det går att lägga till AI-genererat innehåll till ett foto.
– Vår AI-bildpolicy är en förlängning av vår bildpolicy och den säger att bilder i Aftonbladet ska vara sanna och reflektera verkligheten. När det gäller nyhetsfotografi har vi alltid sagt att man får göra det som man kunde göra i det gamla mörkrummet, det vill säga att ljusa upp eller mörka ned en bild och färgkorrigera inom rimliga gränser, säger Mats Strand.
Än så länge har Aftonbladet bara använt AI-genererade bilder i ett fåtal fall, till exempel i en artikelserie på Kulturen om just AI-konst.
– Vi har siktat in oss mer på hur du ska kunna se och känna igen AI-genererade bilder och deep fakes och vad du bör vara uppmärksam på, säger Mats Strand.
Tidningen har tagit fram en checklista med tips på hur du kan undersöka tillförlitligheten hos en bild. Till exempel: verifiera källan, ta reda på vad står det i bildens metadata och zooma in på detaljer i bilden.
– Det är svårt att skydda sig mot någon som verkligen försöker lura en och tekniken blir bara bättre. Det jag verkligen saknar när det gäller AI, det är en AI-tjänst som kan upptäcka AI-genererade bilder, säger Mats Strand.
Samtidigt menar han att med journalistiskt förnuft är det ofta lätt att avslöja en AI-bild. Ett steg på vägen kan vara att undersöka om det finns fler foton från samma händelse, från andra vinklar och så vidare.
– Vi märker att många läsare hör av sig till vår tipstjänst och menar att bilder, framför allt från Gaza, är manipulerade med AI. Bara för att man vet att det går att generera bilder med AI, så misstänkliggörs korrekta bilder. Det kan skada den styrka som fotografiet har som trovärdigt dokument, men jag tror ändå inte att själva nyhetsbilden är hotad.
För Aftonbladet är det viktigt att jobba med trovärdiga källor och bildbyråer och fotografer som tidningen har god kontakt med. Men Mats Strand vill gå ännu längre.
– Jag förespråkar att AI-genererade bilder ska vattenstämplas.
En vattenstämpel skulle hänga med bilden, oavsett var den hamnar – och är något som Mats Strand önskar för Aftonbladets AI-bilder. Det finns även ett större branschinitiativ kallat Content Authenticity Initiative (CAI), grundat av Adobe, New York Times och Twitter, som syftar till att tydliggöra fotografiers ursprung.
– Det är ett verktyg för att stärka trovärdigheten för bilder. Man ska kunna följa och se var originalet togs, med vilken kamera, vilket objektiv och vilka justeringar som gjorts i till exempel Photoshop. Sedan måste man ta hänsyn till källskyddet också. Det går inte att ha med GPS-punkter om var känsliga foton tagits, men för övriga bilder är det här ett intressant initiativ, menar Mats Strand.
Bland CAI:s runt 200 medlemmar finns Aftonbladet, BBC, Getty Images, Leica, Microsoft, Nikon, Reuters, Schibsted och Shutterstock med flera.
Text: Matilda Nilsson
Aftonbladets AI-policy för bilder
Tillåtet:
• Du måste alltid vara transparent med läsarna när du använder AI-genererade bilder och skriva “Illustration: Skapad med stöd av AI-verktyg från [namnet på företaget] och kvalitetssäkrad av Aftonbladet”.
• Du får använda AI-genererade illustrationer och genrebilder till lättsamma featureartiklar.
• Du får i vissa fall använda AI-genererade bilder till roliga eller skojiga artiklar, så kallade “klackisar”, men aldrig för att ersätta en äkta bild på specifika individer, företag eller andra juridiska personer.
• Du får använda AI-genererade bilder som bas för en egenproducerad illustration för att sedan jobba vidare på.
• Bilder som är producerade i hybrid mellan AI och människa ska märkas med [Illustration: Namn Efternamn, med stöd av AI-verktyg från [namnet på företaget] och kvalitetssäkrad av Aftonbladet”.
• Om du vill använda Midjourney för att skapa illustrationer, kontakta AI-navet.
Ej tillåtet:
• Du får inte använda AI-genererade bilder till nyhetshändelser.
• Använd inte Photoshops inbyggda AI-verktyg för bildredigering (Brusreducering/AI-genererad uppskalning) i den dagliga produktionen. Det kan dock finnas specialfall där dessa verktyg kan användas, men detta ska alltid ske i samråd med Bildredaktören. Att skala upp en bild med Photoshop-verktyget Bildstorlek är dock tillåtet.
• Du får inte använda Photoshops AI-generering för att ändra en bild.
Du får inte använda följande generativ AI för att skapa bilder som används i journalistiska produkter på grund av att vi saknar licensavtal:
1. Dall-E (Open AI)
Listan uppdateras i takt med teknikutvecklingen.
Källa: Aftonbladet
Aftonbladets checklista för bilder
• Är källan tillförlitlig? Om inte, går den att verifiera på något annat sätt? Ofta får man bra resultat av att bildsöka med Google.
• Kan det finnas ett annat syfte eller motiv bakom bilden?
• Har bilden någon Metadata? (Photoshop: shift + option + cmd + i)
• Zooma in och kolla detaljerna – ser föremål ut att gå in i varandra eller är på något annat sätt ”ologiska”?
• Text i bild eller fingrar, tår och händer har historiskt varit sådant AI varit dålig på att generera. Kolla om de ser konstiga ut.
• Träna på AI-bilder. Följ konton på Facebook och Instagram så kommer du att träna på att känna igen sådant som utmärker AI-bilder.
Listan uppdateras i takt med teknikutvecklingen.
Källa: Aftonbladet
Fortsätt läsa fler artiklar i vår stora guide om AI-bilder