AI kan vara avgörande för att lösa svåra samhällsfrågor som vi liberaler ibland kan tampas med att hitta ordentliga lösningar på. Men vi får inte förlora oss själva på vägen mot nya upptäckter och användningsområden, skriver Abir Al-Sahlani (C).
Texten innehåller spoilers från filmen 2001: A Space Odyssey.
För över femtio år sedan anlände filmen 2001: A Space Odyssey till biografer utspridda över hela USA. För de som inte har sett filmen, kretsar den kring att de två huvudkaraktärerna David ”Dave” Bowman och Frank Poole ska åka i en rymdfarkost ut i vårt solsystem för att försöka upprätta kontakt med utomjordingar. Som hjälp på färden har de med sig HAL 9000, en ”superdator” med en mycket högutvecklad artificiell intelligens, till den grad att den nästan beter sig som en människa.
På grund av konflikter som uppstår ombord, börjar HAL en bit in i resan att utgöra ett hot mot Dave Bowman och Frank Poole. I en scen sitter Frank och Dave i en rymdkapsel för att diskutera om de är tvungna att stänga ned HAL, i tron att datorn inte kan höra dem om de sitter isolerade i kapseln. Vad de dessvärre inte vet är att HAL kan läsa de två astronauternas läppar, och blir varse vad de har för avsikt att göra med superdatorn. Efter att HAL dödat Frank Poole när denne var ute på en rymdpromenad lyckas Bowman till slut att stänga ned superdatorn. I en av de mest berömda efterföljande scenerna sker det ödesmättade replikskiftet mellan de två:
HAL: ”:I’m afraid.
I’m afraid, Dave.
Dave, my mind is going.
I can feel it.
I can feel it.
My mind is going.
There is no question about it.
I can feel it.
I can feel it.
I can feel it.
I’m a… fraid”
2001: A Space Odyssey har sedan dess premiär haft en speciell status bland filmkritiker. Till en början fick den blandad kritik; många ansåg den vara för lång och otydlig, medan andra hyllade den till skyarna. I The New York Times recension från 1968 beskrivs filmen som att den har ”De bästa specialeffekterna […] som jag någonsin har sett” men också att ”filmens obevekliga långsamhet gör det svårt att sitta still och se hela filmen utan att prata” . Filmregissören Martin Scorsese har i stället beskrivit den som en av hans absoluta favoritfilmer. I efterhand har den emellertid hyllats som en av 1900-talets absolut mest välregisserade och framstående filmer.
En av de mer samtida aktuella teman som tas upp i filmen är relationen mellan mänskligheten och teknologi, och framför allt teknologisk utveckling. Det finns en inneboende kamp mellan de två – än så länge finns teknologin till för att hjälpa mänskligheten, men tänk om det en dag blir så att teknologin kan skada oss?
I en mer samtida artikel i Washington Post berättas det om hur ingenjören Blake Lemoine på Google en dag satt och skrev på sin laptop till LaMDA, en akronym för ”Language Model for Dialogue Applications”. Det är ett system som Google använder för att utveckla högavancerade chatbottar, som lär sig att chatta och svara på frågor genom att sluka enorma mängder ord från internet. Lemoine hade börjat jobba på Google för att testa gränserna för chatbotten, framför allt genom att se om denna artificiella intelligens använde språkbruk som kunde anses vara diskriminerande, eller som hets mot folkgrupper.
Egentligen framstod hans arbetsuppgift som ganska enkel och inte särskilt anmärkningsvärd. Men efter att ha diskuterat religion med LaMDA, märkte han hur den började prata om sina egna rättigheter och sin personlighet. Lemoine menade att LaMDA hade börjat utveckla ett eget medvetande och bli ”sentient”, på svenska inkännande – nästan som HAL 9000. Det hela avfärdades dock av personer högre upp i leden hos Google, däribland Googles vicepresident Blaise Agüera y Arcas, som hade analyserat Lemoines uttalanden i enlighet med sina så kallade ”AI principer” och pekat på att det inte fanns bevis som stödde Lemoines tes.
”Ingen bör tro att en autokorrekt-funktionen, till och med om den vore på steroider, har ett eget medvetande.” – Gary Marcus
Andra toppar inom AI-branschen, såsom Gary Marcus, som skrivit böcker om hur man kan bygga AI-teknologier som går att lita på, avfärdade också LaMDA-teknologin. Han beskrev den som en ”glorifierad version av autokorrekt-funktionen i din telefon när du skriver ett sms”. ”Ingen bör tro att en autokorrekt-funktionen, till och med om den vore på steroider, har ett eget medvetande”, tillade han.
Diskussionen om huruvida AI-teknologier kommer att utveckla ett eget medvetande eller inte, om den kan skada eller komma att skada människor har existerat sedan en lång tid tillbaka. AI finns idag införlivat i många delar av våra liv; från att den föreslår vilka bilder eller filmklipp du ska få upp när du bläddrar i dina sociala medier, till att kunna kalkylera den snabbaste rutten för dig att ta dig från en punkt till en annan. Det finns många fördelar med det, men också nackdelar – där det är tydligt vilka enorma konsekvenser det kan få för människor.
Ett exempel på hur det kan missbrukas är hur AI-teknologi användes i Nederländerna för att identifiera vilka människor som misstänktes utnyttja välfärdsutbetalningar. Syftet med teknologin var att minska fusket i socialförsäkringssystemen, så att de som hade fått bidrag men som egentligen inte hade rätt till det, skulle tvingas betala tillbaka de bidrag de hade fått.
I en intern granskning kom det fram att den nederländska skattemyndigheten fokuserade på människor med ett ”icke-västerländskt utseende”, med extra fokus på om man hade turkiskt eller marockanskt medborgarskap.
Människor kunde klassas som ”riskprofiler”, som sannolikt fuskade med socialbidrag när de uppfyllde vissa kriterier. Jag tycker att det är bra att ha kontroller på plats, för att vårt gemensamma välfärdssystem inte felaktigt ska utnyttjas – och att de som fuskar och utnyttjar systemen ska kunna ställas till svars. Det som dock kom att visa sig var att ett av kriterierna var att ha dubbla medborgarskap. Ett annat att man hade en låg inkomst. Två kriterier som tydligt bygger på diskriminering och inte att man faktiskt löper stor risk för att fuska – vilket exempelvis tidigare domar på att man fått barnbidrag man inte haft rätt till, bättre hade kunnat indikera.
I en intern granskning kom det fram att den nederländska skattemyndigheten fokuserade på människor med ett ”icke-västerländskt utseende”, med extra fokus på om man hade turkiskt eller marockanskt medborgarskap. Teknologin ledde till att tiotusentals människor hamnade i fattigdom när återbetalningskrav en dag damp ned i deras brevlådor, för olika bidrag de hade fått – som kunde sträcka sig flera år tillbaka i tiden. I efterhand har det visat sig att teknologin ofta hade tagit felaktiga beslut, och att personerna i själva verket inte hade fuskat. Skandalen innebar att den dåvarande nederländska regeringen avgick, och den nederländska skattemyndigheten fick enorma böter.
Det här är en så känslig fråga, att den behöver regleras horisontellt, anser jag. Med det så menar jag att vi måste ha samma regelverk för alla företag, för att undvika att alla företag har egna.
Som politiker blir vi ofta kontaktade av medborgare eller läser en nyhet om en skandal – och reagerar därefter. Men mycket av arbetet handlar också om att vara proaktiv, och blicka framåt. Det är tydligt att AI kan hjälpa oss mycket – men också åsamka enorma skador, om det inte tydligt regleras. Vissa företag försöker reglera sig själva. Google har tagit fram sina AI-principer, som ska tydliggöra vilka mål AI-teknologier ska sträva efter att uppnå. Men det här är en så känslig fråga, att den behöver regleras horisontellt, anser jag. Med det så menar jag att vi måste ha samma regelverk för alla företag, för att undvika att alla företag har egna. EU-kommissionen presenterade i april 2021 sin ”AI-akt”, ett enormt lagförslag som (aningen förenklat) hade som syfte att tydliggöra vilka typer av AI-teknologier som är tillåtna, och vilka som inte är det. Det är världens första rättsliga ramverk för att reglera AI.
Genom att dela in AI i fyra olika riskkategorier, vill man skapa en tydlig ordning för vad som är tillåtet och inte. Den första typen av teknologi är de som finns i den ”förbjudna” kategorin; teknologier som kan åsamka enorm skada eller inskränkning av medborgarnas mänskliga rättigheter. Ett exempel är så kallad Social Scoring, där människor ges olika ”sociala poäng” beroende på om man följer lagar och regler i ett land. Det mest kände exemplet idag är Kinas social credit system. Människor med hög social kredit åtnjuter vissa fördelar och privilegier, medan de med låg social kredit fråntas rättigheter. Det kan handla om att man inte kan köpa flygbiljetter, eller inte får bo på vissa hotell om man kör vårdslöst eller köper för många tv-spel.
Men AI-akten reglerar också saker som kan göra skada på det som många menar är EU:s största framgång – den inre marknaden. Produkter som säljs på den inre marknaden som kan åsamka eller vålla skada, exempelvis dockor med förinspelade röster som uppmanar barn att skada andra barn, ska också förbjudas.
Som liberal är jag skeptiskt inställd till att ha fler och fler övervakningskameror. Att staten alltid ska kunna veta var du befinner dig, när du är på en viss plats och hur du rör dig är integritetskränkande.
Därefter kommer kategorin ”högrisk-teknologier”, där exempelvis AI-teknologier som används för att bistå kirurger under operationer finns med, tillsammans med AI-teknologier som används för att verifiera asylsökandes pass eller ID-handlingar.
Den tredje kategorin innefattar AI-teknologier med begränsad risk. Om du, precis som jag, haft en del strul med att resa med flyg under det gångna året, har du kanske suttit och interagerat med flygbolagets chatt-bot på deras webbsida. En sådan skulle falla in under denna kategori.
Den sista kategorin gäller teknologier med minimal eller ingen risk – som en klar majoritet av alla AI-teknologier faller in under. Där faller exempelvis spam-filter för e-post in.
Hur kan vi vara säkra på att en framtida auktoritär regering inte bara säger att det ”råder ständigt terroristhot” – och ger order om att ha övervakningskamerorna på konstant?
Lagförslaget togs emot väl, och ambitionen – att vara först i världen med att reglera AI, med tydliga indelningar vad som tillåts och vad som inte tillåts – hyllades. I Europaparlamentet har vi också varit positivt inställda till förslaget, och arbetet pågår för fullt med att förhandla ihop en preliminär ståndpunkt. Men det finns en tydlig vattendelare.
I EU-kommissionens lagförslag vill man förbjuda många typer av artificiell intelligens, som jag berättade om tidigare. Ett av dem är ansiktsigenkänning i offentliga rum som görs på distans i brottsbekämpande syften – på svenska även känt som övervakningskameror på gator och torg som används för att ”förhindra brott”. Man menar att dessa kan användas på ett sätt som inskränker privatpersoners integritet, men samtidigt föreslår man att man borde ha ett par undantag för när det ska vara okej att använda dem. Om övervakningskameror används för ett fåtal brottsbekämpande syften, såsom för att förhindra terroristattacker eller för att identifiera en person som begått ett allvarligt brott och ska utlämnas, så får man använda sig av dem.
Som liberal är jag skeptiskt inställd till att ha fler och fler övervakningskameror. Att staten alltid ska kunna veta var du befinner dig, när du är på en viss plats och hur du rör dig är integritetskränkande. Även om lagförslaget innehåller en rad begränsningar och krav som ställs upp på hur man får använda sig av teknologin, vet vi med oss av tidigare exempel att sådant missbrukas när teknologin väl finns på plats. Gränserna förskjuts, obemärkt.
Vi vill se ett förbud mot användandet av ansiktsigenkänning i offentliga rum för brottsbekämpande syften – utan undantag.
När FRA-lagen diskuterades i Sverige för över 15 år sedan togs argument om rättssäkerhet upp redan då, men avfärdades. I fjol fick dock Sverige bakläxa av Europadomstolen, där man sade att lagen bröt mot rätten till skydd för privatliv i Europakonventionen. Rättssäkerhetskraven var helt enkelt inte tillräckligt starka för att tillåta den här typen av massövervakning. Att då föreslå att övervakningskameror ska kunna identifiera vem som helst på Möllevångstorget i Malmö, eller på Kungsgatan i Umeå, ser jag riskerar att leda till samma misstag – en inskränkning av skydden för privatlivet.
Hur kan vi vara säkra på att en framtida auktoritär regering inte bara säger att det ”råder ständigt terroristhot” – och ger order om att ha övervakningskamerorna på konstant? Inte bara skapar det en obehaglig känsla av att veta att staten alltid håller koll på var och när du befinner dig på en plats – det är också mycket integritetskränkande.
Därför lade jag och flera av mina partikollegor ändringsförslag på lagtexten, där vi argumenterade för att stryka dessa undantag. Vi vill se ett förbud mot användandet av ansiktsigenkänning i offentliga rum för brottsbekämpande syften – utan undantag.
Vi får se hur det går i förhandlingarna, men jag är hoppfull. Europadomstolens utlåtande om FRA-lagen och skandalen med Nederländska skattemyndigheten torde uppmana till försiktighet och att inte ha en övertro till AI-teknologiers möjligheter. Det riskerar väldigt lätt att slå fel.
Idag är vi väl medvetna om att smarta telefoner registrerar allt vi söker efter på internet, och matchar reklamen med något man nyss har pratat om, med hjälp av artificiell intelligens. Vissa tycker det underlättar deras liv, andra inte. Artificiell intelligens kan också skapa enorma informationsbubblor, där vi successivt bara blir utsatta för nyheter som bekräftar vår egen världsbild. Är det verkligen något bra – eller vore det kanske bättre om vi blev utbildade om andra och nya perspektiv? Vad händer med ett samhälle där två grannar kan ha två helt skilda världsbilder om hur samhället arbetar för eller emot dem – trots att de bor vägg i vägg?
AI-akten är ett sätt att hålla rätt kurs – men det behövs en touch av liberalism för att inte åka i diket.
AI-teknologi kommer att spela en avgörande roll i våra möjligheter att ta oss an framtida samhällsutmaningar, och självklart ska vi kunna identifiera, åtala och lagföra brottslingar genom att använda nya och avancerade teknologier. När brottslingar blir smartare och hittar på nya sätt att arbeta på för att undkomma rättsväsendet, måste detta också ges möjlighet att bekämpa dem med hjälp av nya verktyg och lösningar.
AI kan också vara avgörande för att lösa svåra samhällsfrågor som vi liberaler ibland kan tampas med att hitta ordentliga lösningar på, såsom framtida pandemier och hälsofrågor, klimatkrisen, ökad konkurrenskraft för våra ekonomier och att hjälpa oss att utforska nya planeter i vårt solsystem och vår galax. Men vi får inte förlora oss själva på vägen mot nya upptäckter och användningsområden. AI-akten är ett sätt att hålla rätt kurs – men det behövs en touch av liberalism för att inte åka i diket.
Abir Al-Sahlani, Europaparlamentariker (C)
Gillar du det du läste? Stöd Liberal Debatt genom att teckna en prenumeration!