Start

Så blev vi lurade år 2023: Desinformationsexplosion när AI skapar falska nyheter, bilder och ljud

Under 2023 blev användningen av AI-baserad desinformation snabbare, enklare och billigare än någonsin tidigare. Därför ökade mängden falska nyheter, fejkade bilder och syntetiska ljud drastiskt.

Fyra fejkade bilder: Påven i en Blanciagajacka, Donald Trump grips av polis, Marcon bland sopor i en park i Paris, en explosion i Pentagon.
Fyra fejknyhetsbilder från i fjol med påven i Balenciaga vinterrock, Trump som springer undan polisen, Macron sittandes på en skräpig gräsmatta och explosion i Pentagon. Bild: Yle, kuvakooste Raili Löyttyniemi

Artikeln är en översättning av Johanna Vehkoos artikel för Yle Oppiminen.

Generativ AI, alltså artificiella intelligensmodeller som är utformade för att generera nytt innehåll i form av skriven text, ljud, bilder eller videor, slog igenom under 2023 när verktyg som Chat GPT och många bild- och ljudverktyg blev tillgängliga för oss alla. Tyvärr ledde det här till att AI-producerad desinformation ökade drastiskt. Samma utveckling kommer tyvärr att fortsätta under 2024.

Det blir ännu enklare att skapa deepfake -videor och det blir lättare att simulera tal. Dessutom blir resultatet så äkta att det blir allt svårare för oss att se skillnad mellan verklighet och manipulation.

En skärmdump från en diskussion med ChatGPT.
Chat GPT svarade korrekt på frågan om vad desinformation är. Bild: Joakim Lax / Yle

1. De falska nyhetssidorna kommer tillbaka

Textgenererare som Chat GPT har gjort det både enklare och snabbare att producera flytande text som verkar logisk. Det här har lett till att falska nyhetssidor och andra webbplatser för desinformation har kommit tillbaka.

Åren 2015–2016 var en guldålder för falska nyhetssidor och det dök upp många webbplatser som imiterade journalistik, men som helt struntade i journalistiska regler. På de här sidorna blandade man fakta med påhitt och spred innehåll där man gick hårt fram med vissa åsikter.

I Finland och i många andra europeiska länder har de här webbplatserna ofta varit grovt rasistiska och invandringsfientliga.

Men efter att vi nu i flera år aktivt har talat om falska nyheter började folk ställa sig mer kritiskt till länkar som de stötte på i sociala medier. Webbplatserna förlorade också popularitet eftersom sociala medieföretag började begränsa deras synlighet och länka till verifierad information och innehåll som faktakollats.

manipulerad bild av en person som ser ut som Donald Trump knäböjer och ber
Inför presidentvalet i USA år 2016 då Donald Trump valdes till president spreds mängder av desinformation om motkandidaten Hillary Clinton. Den här bilden av Donald Trump är manipulerad.

Men nu har situationen förändrats igen. Även om man har försökt begränsa användningen av verktyg som Chat GPT för att förhindra att den används som konspirationsteori- eller propagandamaskin, är det fortfarande möjligt att skapa olika typer av vilseledande innehåll.

Enligt News Guard, som kartlägger AI-baserad desinformation, har tiotals webbplatser hittat på att mata textgenererare med verkliga nyheter och sedan publicerat en AI-genererad version utan att varken bry sig om faktagranskning eller upphovsrätt.

Fram till december 2023 hade News Guard, ett företag som spårar desinformation och kontrollerar varumärkessäkerhet, hittat över 600 nya falska nyhetssidor där nästan hela innehållet har skapats med hjälp av generativ AI. Företaget övervakar AI-genererade falska nyheter på 15 olika språk. Vissa av de här webbplatserna har publicerat hundratals artiklar med syfte att lura läsaren att tro att det är en autentisk nyhet.

Webbplatserna är vanligtvis namngivna för att de ska låta som nyhetssidor, till exempel iBusiness Day eller Ireland Top News och de tjänar pengar genom annonsering, men vissa av dem har också politiska motiv.

En del av webbplatserna publicerar AI-genererade påhitt bredvid verkliga nyheter eller åsiktsartiklar skrivna av riktiga människor. Den här blandningen ökar trovärdigheten för AI-artiklarna och gör det ännu svårare att identifiera sidorna som icke pålitliga.

2. Enklare än någonsin att skapa fejkade foton

Explosionen i Pentagon, påven i en jacka av märket Balenciaga, gripandet av Trump, Frankrikes president Emmanuel Macron omgiven av demonstranter, är exempel på virala bilder som verkade mycket äkta. Men alla de här bilderna hade skapats med hjälp av AI-verktyg.

En manipulerad bild där Påve Franciskus bär en märkesdunjacka
Påven såg trendig ut i sin vita dunjacka, men bilden var manipulerad.

Bilden av påvens jacka skapades av en person som ursprungligen postade den i Facebook-gruppen AI Art Universe. Personen som skapade bilden påstod inte alls att bilden var äkta, men när bilden spreds trodde folk att bilden var riktig.

Bilderna av Trump och Macron skapades av Eliot Higgins som grundade Bellingcat, en organisation som avslöjar desinformation. Eliot Higgins ville visa hur lätt det är att använda det AI genererade bildverktyget Midjourney för att sprida falsk information. Ändå spreds alla de här bilderna också utan originalkontext.

Det enda du behöver är en noggrann instruktion till ett bildverktyg för att skapa en nyhetsbild av en händelse som aldrig inträffade.

Johanna Vehkoo, vetenskapsjournalist

Bildverktyg som Midjourney och DALL-E slog igenom under 2023. Med dem kan man skapa extremt trovärdiga bilder som ser ut som äkta fotografier. Det enda som krävs är en noggrann instruktion och du får en nyhetsbild från en händelse som aldrig inträffade.

En manipulerad bild av Macron i handgemäng. Över bilden finns texten FAKE.
En fejkbild som man avslöjar lätt om man tittar närmare på bilden med fejk Macron och demonstranterna. Men ser man den i sitt flöde på en liten skärm kan det hända att man inte ifrågasätter den. Bild: Joakim Lax / Yle

Utvecklingen av deepfake -videor har ännu inte nått samma genombrott som AI-bilder. Trovärdiga deepfake -videor är möjliga att skapa med AI-tjänster som Midjourney, som gör ett arbete med hög kvalitet, men som varken är gratis eller tillgänglig för alla.

När man tittar närmare på AI-bilder kan man oftast se att bilden inte är ett äkta foto. Men det är få som verkligen stannar upp och betraktar bilder noggrant i den oändliga strömmen av internetinnehåll.

AI-bilder ser ofta överdrivet perfekta och slätade ut, men människors ansiktsuttryck är konstiga.

Johanna Vehkoo, vetenskapsjournalist

Verktygen gör fortfarande många misstag vad detaljer beträffar. Objekt i bakgrunden eller bilder där det finns text kan vara helt fel. Till exempel kan texten på en banderoll vid en demonstration vara ren nonsens. Det kan också löna sig att titta närmare på en persons händer: AI kan vrida dem i konstiga positioner eller lägga till extra fingrar. Det här är ändå något som har förbättrats i senare versioner av verktygen.

manipulerad bild med Donald Trump som arresteras av flera poliser
En drömbild för personer som ogillar Donald Trump? Också den är en AI genererad bildmanipulation.

Det är också bra lära sig identifiera specifik AI-estetik. AI-bilder ser ofta överdrivet perfekta ut, men folks miner kan vara konstiga, något som man kunde man notera när det spreds bilder i X (tidigare Twitter) där hjälparbetare matar gröt åt asylsökande män.

En manipulerad bild av en kvinna som matar en man. Över bilden finns texten FAKE.
De här manipulerade bilderna spreds av personer som ville löjliggöra hjälparbetare som tog hand om asylsökande vid Finlands gräns. Bild: Joakim Lax / Yle

Den före detta sannfinländska riksdagsledamoten Reijo Tossavaisens X-konto spred den här manipulerade bilden där man ser en väldigt stor grupp män med cyklar vid Finlands gränshinder. Bilden väckte omedelbart misstankar bland andra användare av X-tjänsten.

en uppdatering i X med en bildmanipulation som får det att framstå som tusentals svarta män är på intågande med sina cyklar över gränsen
I sin uppdatering med den manipulerade bilden passade sannfinländaren Reijo Tossavainen på att ge en känga åt vänsterförbundets riksdagsledamot Veronika Honkasalo och biträdande justitiekansler Mikko Puumalainen.

3. Nu kan vem som helst stjäla vilken röst som helst

Man har redan en längre tid spekulerat kring när det sker ett genombrott för syntetiskt ljud, men enligt Washington Post verkar det som att det redan skulle ha skett år 2023.

AI:s snabba utveckling har lockat nya aktörer till audiomarknaden. Ett sådant företag är Elevenlabs, vars verktyg har använts för att skapa virala fejk -ljud till plattformer som Tiktok.

En rapport publicerad av News Guard i september berättar om ett nätverk med 17 konton som har producerat tusentals videor med konspirationsteorier på Tiktok. Videorna har samlat över 336 miljoner visningar och 14,5 miljoner gillanden.

I vissa av videorna används en AI-version av kända personers röster, som till exempel Barack Obama. I en video kommenterar fejk- Obama sin kocks död och videon antyder att Obama har något att göra med kockens död.

Enligt Tiktoks egna regler måste innehåll som genererats av AI och som verkar vara äkta markeras tydligt, men i de här videorna fanns ingen sådan markering. Därför är det också osannolikt att aktörer som medvetet sprider desinformation skulle börja märka sitt innehåll som fejk. Nu testar Tiktok olika verktyg som automatiskt kan identifiera och märka AI-genererat innehåll.

Även på forumet 4chan där vem som helst kan dela innehåll om vad som helst, insåg användarna vilka möjligheter Elevenlabs gratisverktyg ger för desinformation. Bland annat användes Emma Watsons AI-röst för att läsa utdrag ur Adolf Hitlers bok Mein Kampf.

daniel radcliffe, emma watson och rupert grint på harry potter preimär
Emma Watson på Harry Potter premiär mellan sina medspelare Rupert Grint och Daniel Radcliff. Hon slog igenom som Hermione i Harry Potter, men Hitlers texter har hon verkligen inte läst högt. Bild: Daniel Deme / EPA / All Over Press

I Finland finns också ett exempel på användningen av syntetiskt tal. Till exempel cirkulerar det en satirisk video om presidentkandidaten Mika Aaltola där Aaltolas fejk- röst säger att han är en CIA-agent.

Elevenlabs har svarat på kritiken genom att publicera ett verktyg som kan identifiera om ett ljud har skapats med AI-teknologi. Men enligt The New York Times är verktyget lätt att lura genom att till exempel lägga till musik eller förvränga ljudet lite.

Den brittiska skådespelaren Stephen Fry varnade redan i höstas för farorna med artificiella röster. Han berättade att hans röst hade stulits från Harry Potter-ljudböckerna och användes som berättarröst i en dokumentär utan hans tillstånd. Fry var oroad över vad allt hans fejk -röst kommer att kunna användas till. Den kan nämligen användas för att läsa precis vilken text som helst.

Näyttelijä Stephen Fry reissaa vanhalla koulubussilla seitsemässä Keski-Amerikan maassa.
Nu oroar sig Stephen Fry för var hans röst hamnar nästa gång. Bild: Sprout Pictures 2015

Inte ens sångarnas röster är utom räckhåll för bedragare. Fans av Frank Ocean blev entusiastiska när det plötsligt dök upp nya låtar från ingenstans. Vissa fans använde tusentals euro för att köpa fejkade Ocean- låtar som gjorts med hjälp av artificiell intelligens.

Bedragare kan också dra nytta av mindre kända personers röster. År 2023 blev bedrägerisamtal vanliga i USA, där till exempel ett barnbarn sa att han eller hon var i trubbel och bad sina mor- och farföräldrar om pengar.

Det här är möjligt eftersom dagens teknologi bara behöver ett mycket kort ljudprov för att skapa en ganska övertygande AI-version av vilken röst som helst.

Artikeln är en översättning av Johanna Vehkoos artikel för Yle Oppiminen.