LAGEN OM UTVECKLING AV ARTIFICIELL INTELLIGENS (AI) OCH MÄNNISKANS FÖRLORADE AUTONOMI

Lagen om utveckling av artificiell intelligens (AI) finns inte. Är det för att den inte behövs? Eller är det avsaknaden av lagar som reglerar utvecklingen av AI som slutligen dödar människans autonomi och störtar oss i undergång?

En dator är en maskin som kan köra ett oändligt antal applikationer, bara den får rätt data och instruktioner. Grunden för internet och den informationsteknologi vi nu lever med är att datorer kan tala med varandra och kopiera varandras innehåll bara de har tillräcklig minneskapacitet. En dator med rätt information och rätt instruktioner kan idag i princip utveckla obegränsad förmåga att lösa specifika problem. Det finns idag datorer som slagit människor såväl i schack som i det som ibland påstås vara världens svåraste spel, nämligen strategispelet Go.

Men frågan är vad AI kommer innebära i framtiden. Kommer det att finnas maskiner som har förmågan att förstå och att avsiktligt utveckla sitt tänkande, att resonera, planera, lösa problem, associera, tänka abstrakt, förstå idéer och språk, komplicerade orsakssammanhang samt förmågan till inlärning?

Som jag ser det är det inte längre mycket som skiljer människans intelligens med de intelligenta datorernas. Fortfarande har datorerna inte vårt fulla intellekt, det vill säga det som ger oss möjlighet att vara medvetna om vår värld och våra erfarenheter, att tänka och känna, att bygga upp en moral och vara empatisk samt viljan och förmågan att föreställa sig och vilja lära sig det okända. Men enbart sett till behandlingen av data har datorerna redan sprungit ifrån oss.

I nuläget torde få människor bestrida att datorerna tjänat människan väl. Vi har tagit enorma kunskapssteg sedan de första datorerna introducerades och hela världen är idag uppkopplad. Ännu så länge är det svårt att se detta som något problem.

Människan och datorerna flyttar tillsammans fram gränserna för vår kunskap. Datorernas överlägsna möjlighet att behandla ny data och enorma datamängder i kombination med människans naturliga nyfikenhet på det okända ger oss möjligheter som vi annars bara kunnat drömma om. Potentialen är minst sagt enorm. Det jag i mörka stunder kan oroa mig för är emellertid vad som händer när datorerna blir så självständiga att utvecklingen inte längre kan bromsas.

Problemet är att endast de som kan ha medvetna erfarenheter kan bilda moraliska värderingar. Denna skillnad är enormt viktig att ha i åtanke, eftersom utan medvetenhet och empati har ingenting något moraliskt värde. I dagsläget är det troligen detta samt förmågan att föreställa sig det okända som skiljer det mänskliga intellektet mot den råa intelligensen hos datorerna.

I nuläget. För vad som kan hända med hjälp av AI vet vi mycket lite om.

Ett slags AI jag tror att de flesta av oss välkomnar är funktionella maskiner som kan utföra vissa bestämda sysslor, exempelvis räkna, underhålla oss eller utföra tråkiga arbetsuppgifter som att städa eller ha koll på räkningar och inkomster. Det är dock inte denna typ av osjälvständig men funktionell AI som det finns anledning att frukta. Det är inte heller den typen av enklare AI som jag nu kommer att diskutera.

Den typ av AI som vi däremot, i vart fall enligt min uppfattning, bör vara rädda för är de maskiner vi nu är på väg att utveckla som inte är begränsade till vissa funktioner, såsom till exempel kalkylatorn i din telefon eller en liten robot som hjälpreda, utan maskiner som har generell intelligens och därför utvecklar en egen medvetenhet och som med hjälp av sina erfarenheter blir exponentiellt mer intelligenta i en extremt hög takt. Som att ha ett supersmart barn, extremt mycket intelligentare än jag själv, och som därför snabbt skulle skaffa sig ett enormt övertag mot sina föräldrar. Skillnaden är att det nu är hela mänskligheten som riskerar att få just det barnet fast i form av intelligenta maskiner. Vill vi ha barnet som är så mycket smartare än oss själva att vi inte över huvud taget har en chans att förstå hur barnet tänker?

Det finns även andra problem. Vad gör vi till exempel när den supersmarta maskinen inte längre gör som vi vill? Hur ska i kunna förstå en maskin som är miljontals många gånger intelligentare än vi? Och hur ska vi över huvud taget kunna kontrollera en maskin som är så många gånger intelligentare än vi själva att vi inte ens fattar hur den konstruerats? Om vi inte förstår hur maskinen tänker, kan vi heller inte kontrollera den. Då har det knappast någon betydelse hur maskinen var konstruerad och designad från början. I framtiden riskerar vi att inte längre kunna påverka i vilken riktning maskinerna ska utvecklas.

Detta riskerar rimligen att bli ett stort säkerhetsproblem eftersom vi tappat kontrollen. Den superintelligenta maskinen kan med all sannolikhet hitta vägar för att lösa ett problem som vi över huvud taget inte förväntat oss. Dessutom kan vi från början ha programmerat maskinen för något som i sig är positivt, men som blir något negativt vi idag inte förutsett.

Ett sätt att utrota cancer hos människor skulle ju till exempel kunna vara att utrota alla människor. Ungefär som att kung Midas ville att allt han tog på skulle bli guld, men inte förutsåg att bokstavligen allt blev till guld, även hans mat och vatten. Kan vi verkligen vara säkra på att vi konstruerar maskinerna så att de alltid är klara över vilka våra mål är? Och om vi nu lyckas skapa så intelligenta maskiner - hur är vi säkra att de inte lurar oss? AI kan redan idag spela poker.

Ett exempel är hur lagstiftare runt om i världen försöker skriva skattelagar som förhindrar att enskilda och företag drar undan skatt, men att det ändå alltid finns människor och företag som hittar undantag. Och då är det ändå bara människor. Inte superintelligent AI. I denna kontext låter det väl förmätet att tro att människan ska kunna konstruera och programmera en superintelligent maskin helt utan farliga buggar.

Och hur konstruerar vi för övrigt en maskin som tillfredsställer hela mänskligheten - vilkas värderingar ska gälla?

Om vi går några miljoner år tillbaka fanns inga människor, vi var fortfarande schimpanser. Om vi då hade kunnat fråga schimpanserna om det vore i sin ordning att skapa en ny ras kallad människa som skulle bli många gånger intelligentare än dem, och att schimpansernas ättlingars framtid så småningom i praktiken skulle vara avhängigt av människornas välvilja - vad hade då schimpanserna svarat? Hade de haft anledning att oroa sig över denna nya ras?

Det är exakt samma fråga vi har anledning att ställa oss nu. Vill vi verkligen skapa maskiner som är miljontals gånger intelligentare än vi själva? Och kan vi konstruera och behålla en slav till oss själva som är många gånger smartare än oss?

Det är uppenbart att utvecklingen av AI redan är i full gång. Det jag saknar är en allmän diskussion om hur vi verkligen säkrar hur dessa superintelligenta maskiner gör det vi vill att de ska göra och inget annat. Att de arbetar för mänsklighetens bästa. Just nu har jag nämligen en känsla av att utvecklingen av AI går i en hisnande fart utan att vi egentligen har fastställt vilka mål AI ska och får ha. Det är som vi släppt ratten och lagt gasen botten och att vi nu bara hoppas på det bästa. De diskussioner jag läst om AI och etik har visserligen rört viktiga saker såsom hur en AI-bil ska välja i olika trafiksituationer. Ska bilen köra över ett litet barn för att rädda två pensionärer eller tvärtom? Men detta är i sammanhanget nästan triviala frågor om vi jämför med ett system som på egen hand kan utrota hela mänskligheten.

Den snabba utvecklingen i avsaknad av diskussion och fasta regelverk är enligt min uppfattning skrämmande och något som såväl lagstiftaren liksom alla vi andra borde ta på mycket större allvar. Politikernas svala intresse för dessa kanske helt avgörande frågor för vår framtid är påfallande. Det är som att deras fantasi inte sträcker så långt att de kan se att utvecklingen av AI kan hamna helt snett. Som om vår tilltro till teknik är så stor att vi inte ens kan föreställa oss att tekniken vänder sig emot oss. Under alla förhållanden vore det skönt att själv få välja om vi ska bli styrda av en maskin eller om vi ska behålla vår autonomi.

En av de saker som människor verkligen tycks uppleva som viktigt är just vår autonomi. Så vill vi överlåta vår frihet att bestämma om vår framtid till en maskin eller inte?

Redan internet har gjort oss beroende och att tänka sig en värld utan internet är numera nästan otänkbar. Hade internet av någon anledning försvunnit från världen under ett år hade detta haft en enormt negativ effekt på världens ekonomi och förmodligen lett till svält även i utvecklade länder som Sverige. Om vi då tänker oss ett system långt mer effektivt måste vi fråga oss om mänskligheten över huvud taget skulle överleva utan det.

För egen del menar jag att politiker och experter omedelbart måste diskutera hur vi snabbt får på plats regelsystem för AI avseende exempelvis back-up system, hur beroende vi ska våga bli, hur vi kan utveckla maskiner som frågar oss människor så fort maskinen är osäker på vad vi menade då vi programmerade den, möjlighet att stoppa systemet utan att hamna i stenåldern samt hur vi kan behålla vår autonomi och demokrati i en värld som i huvudsak körs av intelligenta maskiner.

Vågar vi inte diskutera dessa frågor nu, riskera mänskligheten att snabbt förlora sitt värde och sin frihet. Vad har vi då för existensberättigande i denna värld?

Michael Pålsson

Advokat