Hoppa till sökfunktionen Hoppa till innehållet

Du använder en äldre webbläsare som kanske inte ger den bästa upplevelsen på vår webbplats - för bästa prestanda och säkerhet, uppdatera din webbläsare.

Läs mer om rekommenderade webbläsare

Desinformation och supervalåret 2024

Under 2024 kommer det hållas val i mer än 70 länder och flera miljarder människor kommer att ha möjlighet att gå och rösta. Alla val som står för dörren aktualiserar också en risk som oroar allt fler; att den nya AI-tekniken kommer användas för att tillverka och sprida desinformation för att på ett otillbörligt sätt försöka påverka oss väljare.  I WEF:s årliga riskrapport som släpptes i förra veckan listas desinformation som det största globala hotet de kommande två åren. Men behöver det verkligen bli så illa och finns det inte några bra motmedel?

 Redan 1972 släppte proggbandet Hoola Bandoola Band den numer klassiska låten där Halta Lotta, Lille Gerhard och Mor Maria alla frågar sig ”vem i hela världen kan man lita på?”

I kölvattnet av den pågående AI-revolutionen har den här frågan blivit mer aktuell än någonsin och hotet att AI ska användas för att sprida falska budskap och desinformation har blivit en allt hetare fråga i många länder. I årets upplaga av World Economic Forums Global Risk Report har en panel av mer än 1400 riskexperter utsett spridning av desinformation och felaktig information till det största globala hotet kommande två år. Det riskerar att både undergräva förtroendet för demokratiska val och för samhällets institutioner samtidigt som det bidrar till allt större polarisering.

De tio största globala riskerna

1. Desinformation/Felaktig information
2. Extremväder
3. Polarisering
4. Cyberosäkerhet
5. Inbördeskrig
6. Bristande ekonomiska utvecklingsmöjligheter
7. Inflation
8. Ofrivillig migration
9. Lågkonjunktur
10. Utsläpp
Källa: WEF Global Risk Report 2024

Även om desinformation i samband med politiska val inte är någon ny företeelse så oroar sig många för att utvecklingen av nya kraftfulla AI-verktyg har gjort att de här riskerna blivit betydligt större än tidigare. AI kan både sprida desinformation mer effektivt samtidigt som tekniken öppnar för nya sätt producera ”fake news”.

Något som fått mycket uppmärksamhet det senaste året är att det med AI:s hjälp numer går att generera filmer av kända personer som säger saker de i själva verket aldrig har sagt. Fejkade bilder och videoklipp av politiker kan sedan spridas i sociala medier i syfte att påverka väljarna. Den här sortens manipulation har redan använts i flera valrörelser. I det turkiska presidentvalet förra året användes falska bilder och videor för att diskreditera oppositionens kandidat. Även i den pågående amerikanska valkampanjen finns redan flera exempel på den här typen av fejkade videoklipp. Men trots att de här hoten självklart ska tas på allvar så är läget inte nattsvart och man ska inte glömma att vi människor också har rätt goda möjligheter att kunna värja oss mot den här och andra sorters desinformation. 

Tekniken gör oss automatiskt mer kritiska

När jag var ung så var ett fotografi något alla såg som ett godtagbart bevis för att det bilden visade verkligen hade hänt. Visserligen fanns det exempel på bildförfalskningar i historien och många minns säkert skolböcker som visade retuscherade före- och efterbilder från Sovjetunionen där personer som hamnat i onåd hade suddats bort från officiella fotografier. Men den sortens förfalskningar var ovanliga och framför allt så krävde de resurser och specialkompetens för att göra bra. Men i takt med att traditionella fotografier ersattes av elektroniska bilder och program som Photoshop blev allmänt spridda så blev det också allt lättare att göra trovärdiga bildförfalskningar. Det ändrade också gradvis vår syn på fotografier. När vi såg vad tekniken kunde åstadkomma blev vi också medvetna om att ett foto inte längre nödvändigtvis speglade verkligheten. Vi blev automatiskt mer kritiska till att lita på bilder. Under de senaste åren har teknikutvecklingen fortsatt och idag kan även video och röster förfalskas på ett naturtroget sätt. På sociala medier finns mängder av videos där vi starkt misstänker att det vi ser är fejk trots att det är välgjort. Ser vi ett videoklipp där president Biden säger att nu är det dags för USA att tillåta fri invandring från Mexiko och hela Sydamerika så gör innebörden av det som sägs att vi förstår att det med största sannolikhet är fejk - trots att rösten låter som Bidens och hans läppar formar orden på ett naturtroget sätt. Vår vetskap om vad den nya tekniken kan åstadkomma är i sig själv ett rätt bra skydd mot den här sortens desinformation.

Källan, källan, källan

I takt med att det blir svårare att lita på mycket av det vi ser och hör så blir det i stället allt viktigare att veta var informationen kommer ifrån. Att ha koll på källan är ett väl beprövat sätt att slippa förfalskningar. I konstvärden har förfalskningar varit ett problem i alla tider. Att avslöja en förfalskad tavla kan vara nästintill omöjligt även för en expert om den är tillräckligt bra gjord. Men ett effektivt motmedel mot konstförfalskningar är det som med ett fint ord kallas proveniens. Proveniens är helt enkelt en dokumentation av ett konstverks historia. En tavla som säljs av ett dödsbo där den döde i sin ungdom var bästa vän med konstnären är ett utmärkt sätt att kunna styrka äktheten.

När AI blir allt bättre på att producera vilken till synes trovärdig information som helst så kommer informationens ursprung bli allt viktigare. Alla kommer självklart inte ha vare sig tid eller möjlighet att spåra ursprungskällor. Men precis som en konstköpare som inte vill bli lurad litar på att ett välrenommerat auktionshus som Bukowskis eller Christies har gjort det jobbet så kommer vi väljare att lämna över det arbetet till andra som vi har förtroende för. Sen kan det vara CNN för en demokrat och Fox News för en republikan. Men publicerar någon av dessa ett videoklipp där Biden ramlar av en cykel så tror vi på det medan vi antagligen starkt skulle misstänka att det var fejk om det bara dök upp slumpmässigt i flödet på sociala medier. Precis som konstköpare så gillar inte heller väljare att bli lurade oavsett vilket politiskt läger man tillhör. Därför kommer sannolikt också de flesta efterfråga någon sorts kvalitetskontroll som åtminstone filtrerar bort det som bevisligen är helt påhittat. 

Arméer av AI-botar ett hot men det finns motmedel

Falska bilder och videoklipp är bara ett sätt att sprida desinformation. Ett annat sätt är att använda AI för att skapa botar som driver mängder av falska konton på sociala medier som sedan används för att sprida olika budskap i syfte att påverka oss väljare. Fejkkonton på sociala medier är inte heller något nytt och så kallade trollfabriker har funnits länge. Däremot ger AI-tekniken möjligheter att kunna administrera många fler fejkkonton än tidigare och dessutom individuellt bearbeta många fler enskilda väljare än vad människor mäktar med. Botar som utger sig för att vara människor skulle inte minst kunna användas för att först identifiera och sedan försöka påverka de väljare som tvekar och inte har bestämt sig.

Men även mot botarméer finns det motmedel. X:s ägare Elon Musk har nyligen aviserat att plattformen ska börja ta ut en symbolisk avgift av alla användare som vill ha ett konto. Det skulle i så fall innebära en betydande kostnad för den som vill skapa tusentals fejkkonton, men än viktigare är att avgiften måste betalas på något sätt och det blir en stor utmaning att sätta upp fungerande betallösningar för mängder av fejkade användare. 

Ett annat motmedel är att de regleringar som nu planeras kring AI i många länder ser ut att utformas så att den kommer innehålla krav på att vi ska få veta om vi chattar med en AI eller om ett meddelade vi får är skapat av en AI. Rimligen kommer då många av oss att välja att sålla bort åsikter som vi vet är skapade av botar. 

Slutligen ska vi inte heller glömma att AI-tekniken också kan användas för att motverka problemet med fejkade användare och falska budskap. Om det inte redan finns så kommer det säkert att skapas AI-tjänster som kan hjälpa oss att varna för både falska användare och uppenbart osanna påståenden och information. 

AI i politiskt kampanjarbete är här för att stanna

Trots att undertecknad inte kan undgå att känna att oron för att AI-genererad desinformation ska bli den västerländska demokratins undergång är överdriven så kommer AI-tekniken ändå att spela en stor roll i framtida politiska kampanjer. Det gör också frågan om vad som är en acceptabel användning av AI i opinionsbildning viktig att diskutera.

Att AI kommer att kunna användas i politiskt kampanjarbete är helt klart. Det kan handla om använda AI för att vässa ett politiskt budskap, att snabbt komma fram med bra motargument till vad motståndarna tycker eller att välja hur man ska paketera och rikta sina egna förslag för att passa speciellt viktiga väljargrupper. Självklart kan AI också användas för mindre nobla strategier som att skräddarsy budskap med syfte att skrämma väljare eller spela på deras oro eller ilska. 

Men faktum är att allt det här inklusive skrämselpropagandan är vad politiska strateger och kampanjgeneraler har sysslat med i alla tider. Det enda nya är att de nu har fått ett nytt kraftfullt verktyg för att göra jobbet ännu bättre. I det avseendet skiljer sig AI i politiska kampanjer inte från hur AI förväntas användas för att effektivisera alla andra branscher och verksamheter där tekniken nu gör sitt intåg. Så räkna kallt med att AI kommer att bli ett flitigt använt verktyg i valrörelser framöver men glöm inte heller att det är ett verktyg som åtminstone i riktiga demokratier är fritt för alla att använda.

(Det här är del två om risker kopplade till den pågående AI-revolutionen. Den första delen heter: Håller AI på att bli en ny IT-bubbla?)