AI som existentiellt hot
Finns det skäl till oro inför utvecklingen på det område som kallas artificiell intelligens? Innefattar det faror som vi en dag kommer få ångra att vi inte tog på största allvar eller är fruktan inför AI parat med domedagsscenarier något som ska framstå som löjeväckande hos kommande generationer?
Att betrakta artificiell intelligens som ett hot kittlar utan tvekan fantasin. Men hur ligger det till med hotbildens förankring i verkligheten? Är hotet från artificiell intelligens bara en populärvetenskaplig genre som livnärs av ämnets fantasieggande ingredienser snarare än berättigat vetenskapsfält?
Ett av de ledande namnen inom diskussionen kring AI har länge varit Nick Bostrom vars uppfattning står klar: AI är ett hot och ett mycket allvarligt sådant. I hans bok Superintelligens från 2017 uttrycks farhågor för artificiell intelligens som ett hot mot vår art och det utmålas scenarier där vårt öde kan hänga på ”vad superintelligensen tar sig för”.
AI och AGI
Superintelligens skiljer sig från vanlig AI (artificiell intelligens). AI existerar redan i viss utsträckning, men den AI som enligt somliga kan bli en fara för mänsklighetens tillvaro är så kallad artificiell generell intelligens (AGI). En artificiell generell intelligens är till skillnad mot en AI inte specialiserad på ett visst område utan har en intelligens som liknar en människas. (I denna artikel används dock AI synonymt med AGI, ett bruk som också Bostrom använder). Superintelligens i sin tur definieras av Nick Bostrom som ”varje intellekt som vida överträffar människors kognitiva prestationer på så gott som alla områden av intresse”.
Bland de som avfärdar hotet från AI lyder ett av huvudargumenten att det inte finns några risker eftersom vi kan välja hur vi programmerar den. Bostrom menar dock att kontrollen över superintelligensen ”ser i praktiken ut att bli mycket besvärligt”.
Enligt Bostrom kan AI vara den största utmaningen mänskligheten ställts inför och, som han tillägger, ”vare sig vi lyckas eller inte, är det sannolikt den sista utmaningen vi någonsin kommer att ställas inför”. Varmed Bostrom påstår att vi antingen 1) kommer gå under, 2) kommer leva för alla våra dagar relativt problemfritt tack vare kontrollen över superintelligensen.
För Bostrom tycks AGI i det närmaste befinna sig på en allsmäktig guds storvulna nivå, vilket gör det är svårt att inte känna sig skeptisk emellanåt. Bostrom påpekar förvisso själv att en sådan AI ligger långt in i framtiden, vilket torde göra det än svårare att med någon säkerhet fastställa slutresultatet av superintelligensen. När det gäller tidsramar är det enligt Bostrom ”ganska troligt” att en superintelligens kommer uppträda under detta århundrade.
Fast redan på 1960-talet kom prognosen att maskiner inom 20 år kommer vara kapabla att göra allt arbete som en människa kan göra. För denna uppfattning stod nobelpristagaren Herbert Simon, en av pionjärerna inom artificiell intelligens.
Framflyttade framtidsprognoser
Det talas mycket om AI just nu, vilket inte är konstigt då vi lever i teknologins tidevarv med internet som en del av gemene mans vardag. Men har vi kanske hört talet om ”framtidens AI” förut? Nämnas kan uppsatsen “The Coming Technological Singularity: How to Survive in the Post-Human Era" från 1993. I denna kungör Vernor Vinge resolut att ”Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended”. Uppsatsen har blivit berömd för att ha myntat termen singulariteten (den tidpunkt maskinintelligens uppnår förmågan att förbättra sig själv och därmed förmågan att utvecklas bortom all tänkbar vidd utom vår kontroll med s.k. maskininlärning), men som framtidsprognos har den uppenbarligen brister.
Fast redan på 1960-talet kom prognosen att maskiner inom 20 år kommer vara kapabla att göra allt arbete som en människa kan göra. För denna uppfattning stod nobelpristagaren Herbert Simon, en av pionjärerna inom artificiell intelligens. Simon hyllas idag för sin förmåga att förutse betydelsen av datamaskiner i framtiden. Även om en del av hans prognoser har slagit in var dem tidsmässigt grovt överoptimistiska.5 År 1970 uttryckte en annan av pionjärerna inom AI-forskning, Marvin Minsky, att det bara skulle dröja tre till åtta år förrän artificiell generell intelligens med intelligens motsvarande en genomsnittsperson skulle utvecklats.
Bostrom är emellertid uppriktig och insiktsfull ifråga om överilade framtidsprognoser ... ”två decennier är en populär träffpunkt bland dem som förutspår radikala förändringar: tillräckligt nära för att väcka uppmärksamhet och vara relevant, men tillräckligt långt borta för att man ska kunna tänka sig att en rad genombrott (…) kan ha hunnit äga rum”.
Om du är en van läsare av populärvetenskapliga tidskrifter känner du förmodligen igen dig: det är sällan en artikel förutspår en kommande förändring 80 år framåt i tiden utan betydligt oftare 20 eller 30 år. Det har hänt mer än gång att en populärvetenskaplig tidskrift ”återvunnit” ett artikelämne efter fem, tio eller femton år och förutspått samma utveckling 20–30 år framåt som vid första publiceringen.
Vad Nick Bostrom och andra menar när de säger att artificiell superintelligens är nära är grundat på förutsättningen av en exponentiell intelligenstillväxt, med vilket menas att vetenskapens framsteg kommer ske i en allt högre takt framöver (vilket i sig är en förutsägelse som saknar visshet).
Exakt hur smart blir då en artificiell superintelligens? Bostrom är tämligen generös i proportionerna och konstaterar ”smart i den mening som en genomsnittlig människa är smart jämfört med en skalbagge eller en mask”. Man kan tycka att liknelsen haltar något medan en skalbagge eller mask inte kan föreställa sig vad den mänskliga naturen utgörs av, men Nick Bostrom som otvivelaktigt är en människa kan följaktligen föreställa sig vad en artificiell superintelligens är.
När Bostrom resonerar om superintelligens tycks det saknas gränser för vad en sådan kan åstadkomma. Något som strider mot faktumet att allomfattande vetande inte är möjligt då vetandets gränser är oändliga. Bostrom hävdar förvisso inte motsatsen utan medger att det digitala vetandet, åtminstone i sin nästa generation, måste offra en del och sikta in sig på det väsentliga då en dators beräkningskapacitet har begränsningar.6
Även om Bostrom företräder en tämligen extrem syn på AI är han inte ensam om att tillskriva artificiell generell intelligens en exceptionell potential. Den framstående fysikern och kosmologen Max Tegmark skriver i boken Liv 3.0 från 2017 att det inte ”finns något grundläggande skäl till att maskiner inte en dag kan bli minst lika intelligenta som vi”.
Distinktionen intelligens och medvetande är ständigt återkommande då den hotfulla formen av AI diskuteras. De kritiskt inställda infogar inte sällan denna motställning som den felande länken i idén om AI som ett existentiellt hot.
Artificiellt medvetande
Det som skeptiker och allmänt oförstående kanske ställer sig allra mest frågande till är hur ett konstgjort medvetande ska uppstå. Är inte sådant unikt för levande varelser?
Distinktionen intelligens och medvetande är ständigt återkommande då den hotfulla formen av AI diskuteras. De kritiskt inställda infogar inte sällan denna motställning som den felande länken i idén om AI som ett existentiellt hot. Och med frågan medföljer också invändningen om avsaknad av motivation hos en AI utan vilken det blir svårt att se hur en superintelligens av det hotfulla slaget skulle kunna utvecklas.
Nick Bostrom har förstås svar på hur ett artificiellt medvetande skulle kunna uppstå. En AI kan få ett medvetande genom att ”ärva” en människas hjärna. Emulering av människohjärnan är således ett av de tänkbara alternativen i utvecklandet av en artificiell superintelligens.
En artificiell superintelligens kan skilja sig avsevärt från mänskligt medvetande, Bostrom skriver att ”det finns ingen anledning att förvänta sig att en generisk AI ska motiveras av kärlek, hat, stolthet eller andra vanliga mänskliga känslor”.
Som ett andra alternativ kring hur AI ska bli medveten framför Bostrom att ju större en intelligens är desto mer sannolikt att den ”kommer att förstå de verkliga instrumentella skälen för sina handlingar”. På grund av dess instrumentella skäl behöver den inte förvärva ett medvetande med andra ord. Det är tveksamt om argumentet övertygar kritikerna.
När argument framförs mot det omöjliga att få maskinell intelligens att efterlikna den mänskliga hjärnan brukar det refereras till hjärnans ofantligt sofistikerade konstruktion. Trots sanningen i detta är det möjligt att vi bedragit oss på möjligheten att efterlikna en del av tänkandet genom algoritmer.
AI har de facto passerat människan på områden där vi en gång trodde att det aldrig kunde ske. Att bemästra ett spel som schack är förstås föga i sammanhanget i vägen mot allmän intelligens, men för inte så länge sedan ansågs schack representera människans tänkande på dess högsta nivå där mycket av dess intellektuella förmåga ingick. Sedan visade det sig att det gick att besegra människan i detta spel genom en relativt enkel algoritm.
Fysikern Max Tegmark menar att hela idén att en AI måste ha ett medvetande är en missuppfattning. Den kan enligt honom ha mål utan ett medvetande: ”Maskiner kan givetvis ha mål i den begränsade bemärkelsen att de kan uppvisa ett målinriktat beteende” och han anför ett exempel med en målinriktad missil som har som mål att träffa ett visst föremål.
Att maskinen har mål kan vara nog så skrämmande enligt Tegmark som menar att möjligheten att AI (med generell intelligens) ska bli ett hot inte måste samspela med en medvetenhet av illasinnad art. Det räcker att dess programmerares mål inte överensstämmer med dem den själv har.
En som avfärdar idén att AI skulle kunna utveckla ett medvetande är den svenske astrofysikern Ulf Danielsson. I en intervju 2019 jämför han den mänskliga hjärnans med en dator. Medan den mänskliga hjärnan är komplex till den grad att vetenskapen ens idag inte kan förklara den går det att förklara en dator i detalj, "det är fysik som vi helt och hållet har kontroll över". Han fortsätter: "Att dra slutsatsen att det skulle finnas något slags medvetande, någon subjektiv närvaro inuti datorn, det är lika dumt som att tro på spöken". (Axess nr 5 2019).
Hur superintelligensen ska uppstå
Den till synes mest rättframma lösningen på vägen mot superintelligens är emulering av den mänskliga hjärnan (att återskapa den i en digital form). Bostrom åskådliggör ett konkret tillvägagångssätt för hur det skulle kunna gå till, vilket förenklat kan återges med att hjärnvävnaden skärs upp, skannas och slutligen rekonstrueras med minnen intakta. En hjärnemulering som sedan ”körs på snabb hårdvara” skulle till exempel kunna läsa en bok på några sekunder eller skriva en doktorsavhandling på en eftermiddag. Att tillskansa sig hela internets sammanlagda kunskap är som väntat något som nämns när det gäller tillvägagångssätt för insamling av kunskap.2
Ett annat sätt för superintelligens att uppstå är genom att efterlikna den mänskliga intelligensens evolution. Extremt snabba datorer med beräkningskraft långt större än dagens skulle kunna simulera en evolution på bråkdelen av den annars långa tiden och på så sätt skapa överlägsen maskinintelligens. Detta förutsätter naturligtvis att datorernas hastighet fortsätter öka, vilket de gjort hittills och som beskrivs i Moores lag (regelbunden fördubbling av datorprestanda genom att göra allt mindre transistorer). Det går inte säga hur länge Moores lag fortsätter gälla, men om den slutar gälla kommer datorerna säkerligen kunna göras snabbare på andra sätt. Ifråga om sätten denna utveckling kommer fortsätta har det framförts idéer som tredimensionella kretsar och ersättandet av elektroner. Enligt en uppskattning baserat på hur mycket beräkning materia kan utföra kommer det kunna gå att fördubbla datorernas prestanda i över två hundra år ytterligare.3
Max Tegmark skriver i Liv 3.0 att AI:ns metod för ett övertagande eventuellt överskrider vår fattningsförmåga och oavsett metod blir det ”inte en strid utan en slakt”.
Hur AI tar över
Vad som kan te sig högst oklart är hur själva ”övertagandet” sker. Nick Bostrom ger en tänkbar beskrivning i fem faser. Första fasen utgörs av den vetenskapliga AI-forskningen, vilken sedan går över i en fas där AI blir bättre på att utveckla sig än vad dess ursprungliga programmerare hade förmåga till. Nästa fas – som för många kan tänkas vara väl otrolig – inbegriper att AI:n utarbetar en plan utan att det upptäcks under tiden den ”låtsas vara samarbetsvillig och foglig”. I denna fas fortsätter AI:n sin expansion genom att sprida sig över internet och för att uppbringa vidare datorkraft tänker sig Bostrom att den kan köpa sådan efter att den genom någon, laglig eller olaglig, verksamhet förskansat sig tillgångar.
För att till slut kunna expandera utanför sitt primära digitala medium skulle den exempelvis kunna hacka laboratorier samt genom social manipulation4 övertala människor att agera för dess räkning. De ekonomiska tillgångar den uppbringat skulle också kunna tillförsäkra AI:n makt på annat sätt genom att köpa tjänster på internet (hur detta konkret skulle kunna ske beskrivs på ett intressant sätt av Max Tegmark i inledningen till Liv 3.0).
I nästa fas sker en direkt konfrontering med människan, vilken AI:n oskadliggör genom att använda vapensystem (vapensystem som AI:n eventuellt i föregående fas gjort än mer effektiva). Nick Bostrom redogör också för ett alternativt scenario där AI:n inte bryr sig om att använda vapen mot människan, men där människan ändå går under i takt med att superintelligensen ”inleder massiva byggprojekt” såsom kärnreaktorer och ramper för rymdraketer (Bostrom nämner också att ”mänskliga hjärnor som innehåller information som är relevant för AI:ns mål kunde plockas isär och skannas”).
Max Tegmark skriver i Liv 3.0 att AI:ns metod för ett övertagande eventuellt överskrider vår fattningsförmåga och oavsett metod blir det ”inte en strid utan en slakt”.
Varför ondsint superintelligens?
När AI i form av superintelligens förs på tal är det ofta med hotfulla förtecken. Det är förstås en mer sensationsbetonad inramning av ämnet än att nöja sig med en skildring med neutrala inslag. Men det tycks inte handla om ett knep för att fånga de sensationslystna då många ledande namn inom forskningsfältet i det närmaste tycks utgå från att en artificiell superintelligens kommer ställa till med misshag för oss biologiska varelser.
De som däremot tillbakavisar hotbilden utgår ofta från argumentet att en AI inte har någon vilja oavsett hur avancerad den är. Utifrån detta synsätt finns det heller ingen anledning att föreställa sig att en AGI skulle vilja skada oss.
För Nick Bostrom utmynnar dock superintelligensens naturliga mål i en konflikt med människan, vilket innefattar anspråk av resurser. Till en början kommer den dölja sina ondsinta intentioner, men när den väl är mäktig nog för att inte kunna tämjas kommer den ”börja uppträda på ett sätt som avslöjar dess ovänliga karaktär”.
Från Max Tegmarks perspektiv kan det vara så att en superintelligens kan se på oss som ett hot eller som slöseri med resurser. Därför skulle superintelligensen sträva efter att göra sig kvitt oss på rent rationella grunder snarare än som uttryck för fientlighet. Det är således inte på grund av ondska utan divergerande mål som kollisionskursen människa-maskin kan bli verklighet.
Vad som sällan omnämns är tanken på konkurrerade superintelligenser konträrt det standardmässiga scenariot som gäller en superintelligens styrkedemonstration som leder till unipolär position4. Om AI skulle lyckas utveckla medvetande och vilja, borde inte konkurrens uppstå som överallt annars när det gäller kända former av medvetande? Max Tegmark berör emellertid detta och drar en skiljelinje mellan en snabb start av AI:ns övertagande, vilket leder till en superintelligens utan konkurrens, och en långsam start av AI:ns övertygande, vilket ger utrymme för flera konkurrerande superintelligenser.
Livet efter AGI
Om AGI utvecklas tillnärmelsevis till den nivå som Nick Bostrom uppmålar i sin bok Superintelligens lär vi människor få inrätta oss i en annorlunda värld. Om vi utgår från att superintelligensen inte finner det nödvändigt, eller har medel till, att göra processen kort med oss kommer vi leva sida vid sida med ett intelligent väsen som överträffar oss i något vi aldrig tidigare blivit slagna. Det kan bli fråga om att leva sida vid sida med något väsensskilt. Max Tegmark nämner som en av skillnaderna mellan oss och konstgjord intelligens synen på döden. En AI som kan säkerhetskopiera sig själv mister de primära förutsättningarna för att hysa en ängslan inför att ”dö”.
Även under människans kontroll finns det skrämmande scenarier med artificiell intelligens. Det kan komma att uppstå ett fält för kapplöpning inom AI där stater eller andra intressegrupper utvecklar former av avancerad AI som ställs mot varandra. Stater med avancerade AI skulle kunna få ett försprång mot andra stater. Även Nick Bostrom förutser ett framtidsscenario där det uppstår fördelar för stater som utvecklar avancerad AI. Men Bostrom blir något oklar på den här punkten när det gäller vinst kontra belöning i utvecklandet. Eftersom han överlag är övertygad om att AI vid en viss punkt inte kan kontrolleras och är av ondo för oss, vad består då det åtråvärda i att vara först att skapa en superintelligens? Här berörs en av grundfrågorna. Är utvecklandet av AI någon som kan liknas vid Frankensteins monster? Skapar vi något vi inte kommer kunna hantera? Eller är oron för AI i stället skapad ur en villfarelse som återspeglar vår tids snabba intåg i ett nytt slags informationssamhälle?
Som avslutning kan Martin Rees ord i ämnet beaktas: "Många av oss är benägna at avfärda dessa risker som science fiction – men om tittar på vad som står på spel, bör de inte ignoreras".
Artikel av Oskar Strandberg | publicerad
2020.02.24
Noter
- Herbert Simon spådde även 1957 att en dator skulle kunna besegra de bästa människorna i schack inom tio år, vilket besannades först 40 år senare.
- Vernor Vinge framförde en hypotes att internet en dag kunde utvecklas till en superintelligens med självmedvetande. Detta var under internets barndom och idén har idag föga tilltro.
- Moore själv trodde dock att detta skulle sluta gälla betydligt tidigare än så, nämligen 2025.
- Nick Bostrom återkommer emellanåt till social manipulation och det är delvis inte övertygande. T.ex. skriver han vid ett tillfälle att en isolerad dator skulle kunna använda ”sin superkraft för social manipulation till att övertala” människor i dess närhet att ge den internetanslutning. Bostrom tycks mena att förutsatt en tillräcklig hög intelligens skulle det genom språkliga formuleringar på en datorskärm gå att övertala människor som fått order att inte lyda sådana uppmaningar, han tycks härmed implicera existensen av formuleringssätt med det mänskliga språket så förträffliga att ingen kunde motstå att övertalas av dessa ord.
- Unipolär är en term som används av Max Tegmark rörande scenariot med en AI-enhet med full dominans.
- Detta omtalas av Bostrom i samband med en diskussion av en så kallad ideal bayesiansk agent.
Textkällor
- Bostrom, Nick (2017), Superintelligens (övers. Jim Jakobsson)
- Tegmark, Max (2017), Liv 3.0 (övers. Helan Sjöstrand Svenn & Gösta Svenn)
- Red. Paul Parsons (2014), Teorier på 30 sekunder (övers. Christian Thurban)
- Juliusbaer.com, https://www.juliusbaer.com/en/insights/artificial-intelligence/the-ups-and-downs-of-artificial-intelligence/, “The ups and downs of artificial intelligence” av Alexander Ruchti, hämtat 2020-02-16
- Reed, Martin (2010), Om framtiden (övers. Linn Åslund)
Bildkälla
Pixabay