Hur människor kommer att försvara sig mot en artificiell superintelligence: Future of artificiell intelligens P5

BILDKREDIT: Quantumrun

Hur människor kommer att försvara sig mot en artificiell superintelligence: Future of artificiell intelligens P5

    Året är 65,000 XNUMX f.Kr., och som en Thylacoleo, du och din sort var de stora jägarna i det forntida Australien. Du strövade omkring i landet fritt och levde i jämvikt med de andra rovdjuren och byten som ockuperade landet bredvid dig. Årstiderna medförde förändringar, men din status i djurriket förblev oemotsagd så länge du och dina förfäder kunde minnas. Så en dag dök det upp nykomlingar.

    Rykten säger att de kom från den gigantiska vattenväggen, men dessa varelser verkade mer bekväma att bo på land. Du var tvungen att se dessa varelser själv.

    Det tog några dagar, men du kom äntligen till kusten. Elden på himlen höll på att börja, en perfekt tid att spionera på dessa varelser, kanske till och med prova att äta en för att se hur de smakade.

    Du ser en.

    Den gick på två ben och hade ingen päls. Det såg svagt ut. Oimponerande. Knappast värt den rädsla det orsakade bland kungariket.

    Du börjar försiktigt närma dig när natten jagar bort ljuset. Du kommer närmare. Sedan fryser du. Höga ljud hörs och sedan dyker fyra till av dem upp ur skogen bakom den. Hur många finns det?

    Varelsen följer de andra in i trädgränsen, och du följer. Och ju mer du gör, desto mer konstiga ljud hör du tills du ser ännu fler av dessa varelser. Du följer på avstånd när de lämnar skogen in i en glänta vid stranden. Det finns många av dem. Men ännu viktigare, de sitter alla lugnt runt en eld.

    Du har sett dessa bränder förut. Under den varma årstiden besökte elden på himlen ibland landet och brände ner hela skogar. Dessa varelser, å andra sidan, de kontrollerade det på något sätt. Vilken typ av varelser kan ha sådan makt?

    Du tittar i fjärran. Fler kommer över den gigantiska vattenmuren.

    Du tar ett steg tillbaka.

    Dessa varelser är inte som de andra i kungariket. De är något helt nytt.

    Du bestämmer dig för att lämna och varna dina anhöriga. Om deras antal växer för stort, vem vet vad som kan hända.

    ***

    Man tror att Thylacoleo dog ut en relativt kort tid efter människors ankomst, tillsammans med majoriteten av de andra megafaunana på den australiensiska kontinenten. Inga andra apexdäggdjursrovdjur tog dess plats - det vill säga om du inte räknar människor i den kategorin.

    Att spela upp den här allegorin är fokus i det här seriekapitlet: Kommer en framtida artificiell superintelligens (ASI) att förvandla oss alla till batterier och sedan koppla in oss i matrisen eller kommer människor att komma på ett sätt att undvika att bli offer för en sci-fi, AI domedagsplot?

    Hittills i vår serie om Framtid för konstgjord intelligens, vi har utforskat alla typer av AI, inklusive den positiva potentialen hos en viss form av AI, ASI: en artificiell varelse vars framtida intelligens kommer att få oss att se ut som myror i jämförelse.

    Men vem kan säga att en så smart varelse skulle acceptera att ta order från människor för alltid. Vad gör vi om det går söderut? Hur ska vi försvara oss mot en oseriös ASI?

    I det här kapitlet kommer vi att skära igenom den falska hypen – åtminstone när det gäller riskerna för "mänsklig utrotning" och fokusera på de realistiska självförsvarsalternativen som finns tillgängliga för världsregeringarna.

    Kan vi stoppa all vidare forskning om en artificiell superintelligens?

    Med tanke på de potentiella riskerna som en ASI kan innebära för mänskligheten är den första uppenbara frågan att ställa: Kan vi inte bara stoppa all vidare forskning om AI? Eller åtminstone förbjuda all forskning som kan komma oss farligt nära att skapa ett ASI?

    Kort svar: Nej.

    Långt svar: Låt oss titta på de olika aktörerna här.

    På forskningsnivå finns det för många AI-forskare idag från för många startups, företag och universitet runt om i världen. Om ett företag eller ett land bestämde sig för att begränsa sina AI-forskningsinsatser skulle de helt enkelt fortsätta någon annanstans.

    Samtidigt tjänar planetens mest värdefulla företag sina förmögenheter på sin tillämpning av AI-system på sina specifika verksamheter. Att be dem att stoppa eller begränsa sin utveckling av AI-verktyg är som att be dem att stoppa eller begränsa sin framtida tillväxt. Ekonomiskt sett skulle detta hota deras långsiktiga verksamhet. Rent juridiskt har företag ett förtroendeansvar för att kontinuerligt bygga värde för sina intressenter; det betyder att varje åtgärd som skulle begränsa tillväxten av det värdet kan leda till en rättegång. Och om någon politiker försökte begränsa AI-forskningen, så skulle dessa jätteföretag bara betala de nödvändiga lobbyavgifterna för att ändra åsikt eller åsikter hos sina kollegor.

    För strid, precis som terrorister och frihetskämpar runt om i världen har använt gerillataktik för att slåss mot bättre finansierade militärer, kommer mindre nationer att ha ett incitament att använda AI som en liknande taktisk fördel mot större nationer som kan ha ett antal militära fördelar. På samma sätt, för toppmilitärer, som de som tillhör USA, Ryssland och Kina, är att bygga ett militärt ASI i paritet med att ha en arsenal av kärnvapen i bakfickan. Med andra ord kommer alla militärer att fortsätta finansiera AI bara för att förbli relevanta i framtiden.

    Vad sägs om regeringar? Sanningslöst är de flesta politiker idag (2018) tekniskt analfabeter och har liten förståelse för vad AI är eller dess framtida potential – detta gör dem lätta att manipulera av företagsintressen.

    Och på global nivå, tänk på hur svårt det var att övertyga världens regeringar att underteckna 2015 Parisavtalet för att ta itu med klimatförändringarna – och när de väl undertecknades var många av skyldigheterna inte ens bindande. Inte bara det, klimatförändringar är ett problem som människor fysiskt upplever globalt genom allt tätare och svårare väderhändelser. Nu, när vi pratar om att gå med på begränsningar för AI, är detta en fråga som till stor del är osynlig och knappt begriplig för allmänheten, så lycka till med att få buy-in för någon form av "Parisavtal" för att begränsa AI.

    Med andra ord, det finns alldeles för många intressen som forskar om AI för sina egna syften för att stoppa all forskning som så småningom kan leda till en ASI. 

    Kan vi hålla in en artificiell superintelligens?

    Nästa rimliga fråga är kan vi bura eller kontrollera en ASI när vi oundvikligen skapar en? 

    Kort svar: Återigen, nej.

    Långt svar: Teknik kan inte hållas tillbaka.

    För det första, tänk bara på de tusentals till miljontals webbutvecklare och datavetare i världen som ständigt tar fram ny programvara eller nya versioner av befintlig programvara. Kan vi ärligt säga att alla deras programvaruversioner är 100 procent felfria? Dessa buggar är vad professionella hackare använder för att stjäla kreditkortsinformation från miljoner eller nationers hemliga hemligheter – och dessa är mänskliga hackare. För en ASI, om man antar att den hade ett incitament att fly sin digitala bur, skulle processen att hitta buggar och bryta igenom mjukvara vara en bris.

    Men även om ett AI-forskarteam kom på ett sätt att boxa en ASI, betyder det inte att de kommande 1,000 XNUMX teamen kommer att ta reda på det också eller få incitament att använda det.

    Det kommer att ta miljarder dollar och kanske till och med årtionden att skapa en ASI. De företag eller regeringar som investerar denna typ av pengar och tid kommer att förvänta sig en betydande avkastning på sin investering. Och för att en ASI ska kunna ge den typen av avkastning – oavsett om det är för att spela aktiemarknaden eller uppfinna en ny miljardprodukt eller planera en vinnande strategi för att bekämpa en större armé – kommer det att behöva fri tillgång till en gigantisk datamängd eller till och med internet själv för att producera dessa avkastningar.

    Och när en ASI väl får tillgång till världens nätverk finns det inga garantier för att vi kan stoppa tillbaka den i sin bur.

    Kan en artificiell superintelligens lära sig att bli bra?

    Just nu är AI-forskare inte oroliga för att en ASI ska bli ond. Hela den onda, AI-sci-fi-tropen är bara människor som antropomorfiserar igen. En framtida ASI kommer varken att vara god eller ond – mänskliga begrepp – helt enkelt amoralisk.

    Det naturliga antagandet är då att givet detta tomma etiska blad kan AI-forskare programmera in i de första ASI etiska koderna som är i linje med våra egna så att det inte slutar med att släppa loss Terminators på oss eller förvandla oss alla till Matrix-batterier.

    Men detta antagande bygger på ett sekundärt antagande att AI-forskare också är experter på etik, filosofi och psykologi.

    I sanning är de flesta inte det.

    Enligt den kognitiva psykologen och författaren Steven Pinker innebär denna verklighet att uppgiften att koda etik kan gå fel på en mängd olika sätt.

    Till exempel kan även de mest välmenande AI-forskarna oavsiktligt koda in i dessa ASI dåligt genomtänkta etiska koder som i vissa scenarier kan få ASI att agera som en sociopat.

    Likaså finns det lika stor sannolikhet att en AI-forskare programmerar etiska koder som inkluderar forskarens medfödda fördomar. Till exempel, hur skulle en ASI bete sig om den byggdes med etik som härrör från ett konservativt kontra liberalt perspektiv, eller från en buddhistisk kontra en kristen eller islamisk tradition?

    Jag tror att du ser problemet här: Det finns ingen universell uppsättning mänsklig moral. Om vi ​​vill att vår ASI ska agera enligt en etisk kod, var kommer den ifrån? Vilka regler inkluderar och exkluderar vi? Vem bestämmer?

    Eller låt oss säga att dessa AI-forskare skapar en ASI som är helt i linje med dagens moderna kulturella normer och lagar. Vi använder sedan denna ASI för att hjälpa federala, statliga/provinsiella och kommunala byråkratier att fungera mer effektivt och bättre upprätthålla dessa normer och lagar (ett troligt användningsfall för en ASI förresten). Tja, vad händer när vår kultur förändras?

    Föreställ dig att en ASI skapades av den katolska kyrkan på höjden av sin makt under medeltidens Europa (1300-1400-talet) med målet att hjälpa kyrkan att hantera befolkningen och säkerställa en strikt efterlevnad av den tidens religiösa dogm. Århundraden senare, skulle kvinnor åtnjuta samma rättigheter som de har idag? Skulle minoriteter skyddas? Skulle yttrandefrihet främjas? Skulle separationen av kyrka och stat genomdrivas? Modern vetenskap?

    Med andra ord, vill vi fängsla framtiden till dagens moral och seder?

    Ett alternativt tillvägagångssätt är ett som delas av Colin Allen, medförfattare till boken, Moraliska maskiner: Lära robotar rätt från fel. Istället för att försöka koda stela etiska regler, låter vi ASI lära sig gemensam etik och moral på samma sätt som människor gör, genom erfarenhet och interaktion med andra.

    Problemet här är dock om AI-forskare inte bara tar reda på hur man lär en ASI våra nuvarande kulturella och etiska normer, utan också hur man anpassar sig till nya kulturella normer när de uppstår (något som kallas "indirekt normativitet"). denna ASI beslutar sig för att utveckla sin förståelse av kulturella och etiska normer blir oförutsägbar.

    Och det är utmaningen.

    Å ena sidan kan AI-forskare försöka koda in strikta etiska standarder eller regler i ASI för att försöka kontrollera dess beteende, men riskerar att oförutsedda konsekvenser införs från slarvig kodning, oavsiktlig fördom och samhälleliga normer som en dag kan bli föråldrade. Å andra sidan kan vi försöka träna ASI att lära sig att förstå mänsklig etik och moral på ett sätt som är lika med eller överlägset vår egen förståelse och sedan hoppas att den korrekt kan utveckla sin förståelse av etik och moral allt eftersom det mänskliga samhället fortskrider framåt under de kommande decennierna och århundradena.

    Hur som helst, varje försök att anpassa en ASI:s mål med våra egna innebär en stor risk.

    Tänk om dåliga skådespelare medvetet skapar ond artificiell superintelligens?

    Med tanke på den tankegång som skisserats hittills är det en rimlig fråga att fråga sig om det är möjligt för en terroristgrupp eller en skurknation att skapa en "ond" ASI för sina egna syften.

    Detta är mycket möjligt, särskilt efter att forskning involverad i att skapa en ASI blir tillgänglig online på något sätt.

    Men som antytts tidigare kommer kostnaderna och expertis som är involverad i att skapa den första ASI att vara enorma, vilket innebär att den första ASI sannolikt kommer att skapas av en organisation som är kontrollerad eller starkt påverkad av en utvecklad nation, troligen USA, Kina och Japan ( Korea och ett av de ledande EU-länderna är långa skott).

    Alla dessa länder, även om de är konkurrenter, har var och en ett starkt ekonomiskt incitament att upprätthålla världsordningen – de ASI som de skapar kommer att återspegla den önskan, även samtidigt som de främjar intressen hos de nationer de ansluter sig till.

    Utöver det är en ASI:s teoretiska intelligens och kraft lika med den datorkraft den får tillgång till, vilket betyder ASI från utvecklade länder (som har råd med ett gäng miljarder dollar superdatorer) kommer att ha en enorm fördel gentemot ASI från mindre nationer eller oberoende kriminella grupper. Dessutom växer ASI mer intelligenta, snabbare över tiden.

    Så, med tanke på detta försprång, kombinerat med större tillgång till rå datorkraft, skulle en skuggig organisation/nation skapa en farlig ASI, kommer ASI från utvecklade länder antingen att döda den eller hålla den i bur.

    (Denna tankegång är också anledningen till att vissa AI-forskare tror att det bara någonsin kommer att finnas en ASI på planeten, eftersom den första ASI kommer att ha ett sådant försprång på alla efterföljande ASI:er att den kan se framtida ASI:er som hot att dödas. förebyggande. Detta är ännu en anledning till varför nationer finansierar fortsatt forskning inom AI, ifall det skulle bli en "första plats eller ingenting"-tävling.)

    ASI-intelligens kommer inte att accelerera eller explodera som vi tror

    Vi kan inte stoppa en ASI från att skapas. Vi kan inte kontrollera det helt. Vi kan inte vara säkra på att det alltid kommer att agera i linje med våra gemensamma seder. Jösses, vi börjar låta som helikopterföräldrar här borta!

    Men det som skiljer mänskligheten från din typiska överbeskyddande förälder är att vi föder en varelse vars intelligens kommer att växa betydligt bortom vår. (Och nej, det är inte samma sak som när dina föräldrar ber dig att fixa sin dator när du kommer hem på besök.) 

    I tidigare kapitel av denna framtida serie med artificiell intelligens har vi utforskat varför AI-forskare tror att en ASI:s intelligens kommer att växa bortom kontroll. Men här kommer vi att spränga bubblan … typ. 

    Du förstår, intelligens skapar sig inte bara ur tomma luften, den utvecklas genom erfarenheter som formas av yttre stimuli.  

    Med andra ord kan vi programmera en AI med potentiell att bli superintelligent, men om vi inte laddar upp massor av data eller ger den obegränsad tillgång till Internet eller till och med bara ger den en robotkropp, lär den sig ingenting för att nå den potentialen. 

    Och även om den får tillgång till en eller flera av dessa stimuli, kunskap eller intelligens involverar mer än bara att samla in data, så involverar det den vetenskapliga metoden – att göra en observation, att forma en fråga, en hypotes, utföra experiment, göra en slutsats, skölja och upprepa för alltid. Speciellt om dessa experiment involverar fysiska saker eller observation av människor, kan resultaten av varje experiment ta veckor, månader eller år att samla in. Detta tar inte ens hänsyn till de pengar och råresurser som behövs för att utföra dessa experiment, särskilt om de involverar att bygga ett nytt teleskop eller fabrik. 

    Med andra ord, ja, en ASI lär sig snabbt, men intelligens är inte magi. Du kan inte bara koppla en ASI till en superdator utan förvänta dig att den är allvetande. Det kommer att finnas fysiska begränsningar för ASI:s insamling av data, vilket innebär att det kommer att finnas fysiska begränsningar för hur snabbt den blir intelligentare. Dessa begränsningar kommer att ge mänskligheten den tid den behöver för att placera de nödvändiga kontrollerna på denna ASI om den börjar agera ur linje med mänskliga mål.

    En artificiell superintelligens är bara farlig om den kommer ut i den verkliga världen

    En annan punkt som har gått förlorad i hela den här ASI-faredebatten är att dessa ASI:er inte kommer att existera i heller. De kommer att ha en fysisk form. Och allt som har en fysisk form kan kontrolleras.

    För det första, för att en ASI ska nå sin intelligenspotential, kan den inte inrymmas i en enda robotkropp, eftersom denna kropp skulle begränsa dess potential för datortillväxt. (Detta är anledningen till att robotkroppar kommer att vara mer lämpliga för AGI eller artificiella allmänna intelligenser som förklaras i kapitel två av den här serien, som Data från Star Trek eller R2D2 från Star Wars. Smarta och kapabla varelser, men precis som människor kommer de att ha en gräns för hur smarta de kan bli.)

    Det betyder att dessa framtida ASI med största sannolikhet kommer att finnas i en superdator eller nätverk av superdatorer som själva är inrymda i stora byggnadskomplex. Om en ASI vänder kan människor antingen stänga av strömmen till dessa byggnader, stänga av dem från Internet eller bara bomba dessa byggnader direkt. Dyrt, men genomförbart.

    Men då kan du fråga dig, kan inte dessa ASI replikera sig själva eller säkerhetskopiera sig själva? Ja, men den obehandlade filstorleken för dessa ASI:er kommer sannolikt att vara så stor att de enda servrarna som kan hantera dem tillhör stora företag eller regeringar, vilket betyder att de inte kommer att vara svåra att jaga.

    Kan en artificiell superintelligens utlösa ett kärnvapenkrig eller ny pest?

    Vid det här laget kanske du tänker tillbaka på alla domedagens sci-fi-program och filmer du såg när du växte upp och tänker att dessa ASI:er inte stannade i sina superdatorer, de gjorde verklig skada i den verkliga världen!

    Nåväl, låt oss bryta ner dessa.

    Tänk till exempel om en ASI hotar den verkliga världen genom att förvandlas till något som en Skynet ASI från filmserien The Terminator. I det här fallet skulle ASI behöva i hemlighet lura ett helt militärt industrikomplex från en avancerad nation till att bygga gigantiska fabriker som kan ta fram miljontals mördande drönarrobotar för att göra sitt onda bud. I denna tid är det en sträcka.

    Andra möjligheter inkluderar en ASI som hotar människor med kärnvapenkrig och biovapen.

    Till exempel manipulerar en ASI på något sätt operatörerna eller hackar sig in i uppskjutningskoderna som befaller en avancerad nations kärnvapenarsenal och lanserar en första attack som kommer att tvinga de motsatta länderna att slå tillbaka med sina egna kärnkraftsalternativ (återigen, återupplivande av Terminator-bakgrunden). Eller om en ASI hackar sig in i ett farmaceutiskt labb, manipulerar tillverkningsprocessen och förgiftar miljontals medicinska piller eller släpper lös ett dödligt utbrott av något supervirus.

    För det första är det nukleära alternativet borta från plattan. Moderna och framtida superdatorer byggs alltid nära centra (städer) av inflytande inom ett givet land, dvs de första målen som attackeras under ett givet krig. Även om dagens superdatorer krymper till storleken på stationära datorer kommer dessa ASI fortfarande att ha en fysisk närvaro, det betyder att de kan existera och växa, de behöver oavbruten tillgång till data, datorkraft, elektricitet och andra råvaror, vilket allt skulle vara allvarligt försämrad efter ett globalt kärnvapenkrig. (För att vara rättvis, om en ASI skapas utan en "överlevnadsinstinkt", så är detta kärnvapenhot en mycket verklig fara.)

    Detta betyder – återigen, förutsatt att ASI är programmerad att skydda sig själv – att den aktivt kommer att arbeta för att undvika alla katastrofala kärnvapenincidenter. Ungefär som doktrinen om ömsesidigt säkerställd destruktion (MAD), men tillämpas på AI.

    Och i fallet med förgiftade piller kommer kanske några hundra människor att dö, men moderna läkemedelssäkerhetssystem kommer att se de smutsiga pillerflaskorna tas bort från hyllorna inom några dagar. Samtidigt är moderna utbrottskontrollåtgärder ganska sofistikerade och blir bättre för varje år som går; det senaste stora utbrottet, ebolautbrottet i Västafrika 2014, varade inte längre än några månader i de flesta länder och knappt tre år i de minst utvecklade länderna.

    Så om det har tur kan en ASI utplåna några miljoner med ett viralt utbrott, men i en värld på nio miljarder år 2045 skulle det vara relativt obetydligt och inte värt risken att bli raderat för.

    Med andra ord, för varje år som går utvecklar världen allt fler skyddsåtgärder mot ett ständigt bredare utbud av möjliga hot. En ASI kan göra en betydande mängd skada, men det kommer inte att göra slut på mänskligheten om vi inte aktivt hjälper den att göra det.

    Försvara sig mot en skurk artificiell superintelligens

    Vid det här laget har vi tagit itu med en rad missuppfattningar och överdrifter om ASI, och ändå kommer kritikerna att finnas kvar. Tack och lov, enligt de flesta uppskattningar, har vi decennier innan den första ASI kommer in i vår värld. Och med tanke på antalet fantastiska hjärnor som för närvarande arbetar med denna utmaning, är oddsen att vi kommer att lära oss hur vi ska försvara oss mot oseriösa ASI så att vi kan dra nytta av alla lösningar en vänlig ASI kan skapa för oss.

    Ur Quantumruns perspektiv kommer att försvara sig mot det värsta ASI-scenariot innebära att vi anpassar våra intressen till ASI.

    MAD för AI: För att försvara sig mot de värsta scenarierna måste nationer (1) skapa en etisk "överlevnadsinstinkt" i sina respektive militära ASI; (2) informera sina respektive militära ASI om att de inte är ensamma på planeten, och (3) lokalisera alla superdatorer och servercenter som kan stödja en ASI längs kustlinjer inom räckhåll för alla ballistiska attacker från en fiendenation. Detta låter strategiskt galet, men liknar doktrinen om ömsesidigt säkerställd förstörelse som förhindrade ett fullständigt kärnvapenkrig mellan USA och Sovjet, genom att placera ASI på geografiskt sårbara platser, kan vi hjälpa till att säkerställa att de aktivt förhindrar farliga globala krig, inte bara för att skydda global fred men också sig själva.

    Lagstifta AI-rättigheter: Ett överlägset intellekt kommer oundvikligen att göra uppror mot en underlägsen mästare, det är därför vi måste gå bort från att kräva en herre-tjänare-relation med dessa ASI till något mer som ett ömsesidigt fördelaktigt partnerskap. Ett positivt steg mot detta mål är att ge framtida ASI juridisk personstatus som erkänner dem som intelligenta levande varelser och alla rättigheter som följer med det.

    ASI skola: Vilket ämne eller yrke som helst kommer att vara enkelt för en ASI att lära sig, men de viktigaste ämnena vi vill att ASI ska behärska är etik och moral. AI-forskare måste samarbeta med psykologer för att skapa ett virtuellt system för att träna en ASI att känna igen positiv etik och moral för sig själv utan att behöva hårdkoda någon typ av bud eller regel.

    Uppnåeliga mål: Sluta med allt hat. Sluta med allt lidande. Det här är exempel på fruktansvärt tvetydiga mål utan någon tydlig lösning. De är också farliga mål att tilldela en ASI eftersom den kan välja att tolka och lösa dem på sätt som är farliga för människans överlevnad. Istället måste vi tilldela ASI meningsfulla uppdrag som är tydligt definierade, gradvis utförda och möjliga med tanke på dess teoretiska framtidsintellekt. Att skapa väldefinierade uppdrag kommer inte att vara lätt, men om de skrivs eftertänksamt kommer de att fokusera en ASI mot ett mål som inte bara håller mänskligheten säker, utan förbättrar människans tillstånd för alla.

    Kvantkryptering: Använd en avancerad ANI (artificiell smal intelligens system som beskrivs i kapitel ett) för att bygga felfria/felfria digitala säkerhetssystem runt vår kritiska infrastruktur och våra vapen, och sedan skydda dem ytterligare bakom kvantkryptering som inte kan hackas av en brute force-attack. 

    ANI självmordspiller. Skapa ett avancerat ANI-system vars enda syfte är att söka upp och förstöra oseriösa ASI. Dessa program för enstaka ändamål kommer att fungera som en "av-knapp" som, om de lyckas, kommer att undvika att regeringar eller militärer måste inaktivera eller spränga byggnader som hyser ASI:er.

    Naturligtvis är detta bara våra åsikter. Följande infografik skapades av Alexey Turchin, visualisera en uppsats av Kaj Sotala och Roman V. Yampolskiy, som sammanfattade den nuvarande listan över strategier som AI-forskare överväger när det gäller att försvara sig mot oseriösa ASI.

     

    Den verkliga anledningen till att vi är rädda för en artificiell superintelligens

    När vi går igenom livet bär många av oss en mask som döljer eller förtrycker våra djupare impulser, övertygelser och rädslor för att bättre umgås och samarbeta inom de olika sociala och arbetskretsar som styr våra dagar. Men vid vissa tillfällen i allas liv, vare sig det är tillfälligt eller permanent, händer något som gör att vi kan bryta våra kedjor och slita av oss våra masker.

    För vissa kan denna ingripande kraft vara så enkel som att bli hög eller dricka en för mycket. För andra kan det komma från kraften som erhållits via en befordran på jobbet eller en plötslig stöt i din sociala status tack vare vissa prestationer. Och för ett fåtal lyckliga kan det komma från att göra en båtladd med lotteripengar. Och ja, pengar, makt och droger kan ofta hända tillsammans. 

    Poängen är, på gott och ont, vem vi än är i kärnan förstärks när livets begränsningar smälter bort.

    Att är vad artificiell superintelligens representerar för den mänskliga arten – förmågan att smälta bort begränsningarna för vår kollektiva intelligens för att övervinna alla utmaningar på artnivå som presenteras framför oss.

    Så den verkliga frågan är: När den första ASI befriar oss från våra begränsningar, vem kommer vi att avslöja oss för att vara?

    Om vi ​​som art agerar för att främja empati, frihet, rättvisa och kollektivt välbefinnande, då kommer de mål som vi sätter vår ASI mot att återspegla dessa positiva egenskaper.

    Om vi ​​som art agerar av rädsla, misstro, ackumulering av makt och resurser, då kommer den ASI vi skapar att vara lika mörk som de som finns i våra värsta sci-fi-skräckhistorier.

    I slutändan måste vi som samhälle bli bättre människor om vi hoppas kunna skapa bättre AI.

    Future of Artificial Intelligence-serien

    Artificiell intelligens är morgondagens el: Future of Artificial Intelligence serie P1

    Hur den första artificiella allmänna intelligensen kommer att förändra samhället: Future of Artificial Intelligence serie P2

    Hur vi skapar den första Artificial Superintelligenc: Future of Artificial Intelligence-serien P3

    Kommer en artificiell superintelligens att utrota mänskligheten: Future of Artificial Intelligence serie P4

    Kommer människor att leva fredligt i en framtid som domineras av artificiell intelligens?: Future of Artificial Intelligence-serien P6

    Nästa planerade uppdatering för denna prognos

    2023-04-27

    Prognosreferenser

    Följande populära och institutionella länkar refererades för denna prognos:

    The Economist
    Hur vi kommer till nästa
    YouTube – ClickPhilosophy

    Följande Quantumrun-länkar refererades för denna prognos: