Hvordan mennesker vil forsvare sig mod en kunstig superintelligens: fremtiden for kunstig intelligens P5

BILLEDKREDIT: Quantumrun

Hvordan mennesker vil forsvare sig mod en kunstig superintelligens: fremtiden for kunstig intelligens P5

    Året er 65,000 fvt, og som en Thylacoleo, du og din slags var de store jægere i det gamle Australien. Du strejfede frit rundt i landet og levede i ligevægt med de andre rovdyr og byttedyr, der besatte landet ved siden af ​​dig. Årstiderne bragte ændringer, men din status i dyreriget forblev uanfægtet, så længe du og dine forfædre kunne huske. Så en dag dukkede nytilkomne op.

    Rygtet siger, at de ankom fra den gigantiske vandmur, men disse væsner virkede mere komfortable med at leve på land. Du skulle selv se disse skabninger.

    Det tog et par dage, men du nåede endelig til kysten. Ilden på himlen var ved at sætte sig, et perfekt tidspunkt at udspionere disse skabninger, måske endda prøve at spise en for at se, hvordan de smagte.

    Du får øje på en.

    Den gik på to ben og havde ingen pels. Det så svagt ud. Uimponerende. Næppe værd at frygte, det forårsagede blandt kongeriget.

    Du begynder forsigtigt at nærme dig, mens natten jager lyset væk. Du kommer tættere på. Så fryser du. Høje lyde lyder, og så dukker yderligere fire af dem op fra skoven bagved. Hvor mange er der?

    Væsenet følger de andre ind i trægrænsen, og du følger efter. Og jo mere du gør, jo flere mærkelige lyde hører du, indtil du får øje på endnu flere af disse skabninger. Du følger med på afstand, når de forlader skoven ind i en lysning ved kysten. Der er mange af dem. Men endnu vigtigere, de sidder alle roligt omkring et bål.

    Du har set disse brande før. I den varme årstid ville ilden på himlen nogle gange besøge landet og brænde hele skove ned. Disse skabninger, på den anden side, kontrollerede de det på en eller anden måde. Hvilken slags skabninger kan have en sådan magt?

    Du ser i det fjerne. Flere kommer over den gigantiske vandmur.

    Du tager et skridt tilbage.

    Disse skabninger er ikke som de andre i kongeriget. De er noget helt nyt.

    Du beslutter dig for at gå og advare dine pårørende. Hvis deres antal bliver for stort, hvem ved, hvad der kan ske.

    ***

    Det menes, at Thylacoleo uddøde relativt kort tid efter ankomsten af ​​mennesker, sammen med størstedelen af ​​de andre megafaunaer på det australske kontinent. Ingen andre toppattedyrrovdyr tog dens plads - det vil sige, medmindre du tæller mennesker i den kategori.

    At afspille denne allegori er fokus i dette seriekapitel: Vil en fremtidig kunstig superintelligens (ASI) gøre os alle til batterier og derefter slutte os til Matrixen, eller vil mennesker finde ud af en måde at undgå at blive offer for en sci-fi, AI dommedagsplot?

    Indtil videre i vores serie om Fremtiden for kunstig intelligens, vi har udforsket alle slags kunstig intelligens, inklusive det positive potentiale i en bestemt form for kunstig intelligens, ASI: et kunstigt væsen, hvis fremtidige intelligens vil få os til at ligne myrer i sammenligning.

    Men hvem siger, at et så smart væsen ville acceptere at modtage ordrer fra mennesker for altid. Hvad gør vi, hvis tingene går sydpå? Hvordan vil vi forsvare os mod en slyngel ASI?

    I dette kapitel vil vi skære igennem den falske hype – i det mindste hvad angår farerne på 'menneskeligt udryddelsesniveau' – og fokusere på de realistiske selvforsvarsmuligheder, som er tilgængelige for verdens regeringer.

    Kan vi stoppe al yderligere forskning i en kunstig superintelligens?

    I betragtning af de potentielle risici, som en ASI kan udgøre for menneskeheden, er det første indlysende spørgsmål at stille: Kan vi ikke bare stoppe al yderligere forskning i AI? Eller i det mindste forbyde enhver forskning, der kan få os farligt tæt på at skabe en ASI?

    Kort svar: Nej.

    Langt svar: Lad os se på de forskellige involverede aktører her.

    På forskningsniveau er der for mange AI-forskere i dag fra for mange startups, virksomheder og universiteter rundt om i verden. Hvis en virksomhed eller et land besluttede at begrænse deres AI-forskningsindsats, ville de simpelthen fortsætte andre steder.

    I mellemtiden tjener planetens mest værdifulde virksomheder deres formuer på deres anvendelse af AI-systemer til deres specifikke virksomheder. At bede dem om at stoppe eller begrænse deres udvikling af AI-værktøjer svarer til at bede dem om at stoppe eller begrænse deres fremtidige vækst. Økonomisk ville dette true deres langsigtede forretning. Juridisk set har virksomheder et tillidsansvar for løbende at opbygge værdi for deres interessenter; det betyder, at enhver handling, der ville begrænse væksten af ​​denne værdi, kan føre til en retssag. Og hvis en politiker forsøgte at begrænse AI-forskning, så ville disse gigantiske virksomheder bare betale de nødvendige lobbygebyrer for at ombestemme sig eller deres kollegers mening.

    Til kamp, ​​ligesom terrorister og frihedskæmpere rundt om i verden har brugt guerillataktikker til at kæmpe mod bedre finansierede militære, vil mindre nationer have et incitament til at bruge AI som en lignende taktisk fordel mod større nationer, der kan have en række militære fordele. Ligeledes er opbygningen af ​​et militært ASI for topmilitærer, som dem der tilhører USA, Rusland og Kina, på niveau med at have et arsenal af atomvåben i baglommen. Med andre ord vil alle militære fortsætte med at finansiere AI bare for at forblive relevante i fremtiden.

    Hvad med regeringer? Sandt nok er de fleste politikere i disse dage (2018) teknologisk analfabeter og har ringe forståelse af, hvad AI er eller dets fremtidige potentiale - dette gør dem nemme at manipulere af virksomhedernes interesser.

    Og på globalt plan, overvej hvor svært det var at overbevise verdens regeringer om at underskrive 2015 Paris-aftalen at tackle klimaforandringerne – og når de først var underskrevet, var mange af forpligtelserne ikke engang bindende. Ikke nok med det, klimaændringer er et problem, som mennesker fysisk oplever globalt gennem stadig hyppigere og mere alvorlige vejrbegivenheder. Når vi nu taler om at acceptere begrænsninger på AI, er dette et problem, der stort set er usynligt og knapt forståeligt for offentligheden, så held og lykke med at få buy-in til enhver form for 'Paris-aftale' for at begrænse AI.

    Med andre ord er der alt for mange interesser, der forsker i AI til deres egne formål til at stoppe enhver forskning, der i sidste ende kan føre til en ASI. 

    Kan vi fange en kunstig superintelligens?

    Det næste rimelige spørgsmål er, om vi kan placere eller kontrollere en ASI, når vi uundgåeligt har oprettet en? 

    Kort svar: Igen, nej.

    Langt svar: Teknologi kan ikke holdes tilbage.

    For det første skal du bare overveje de tusinder til millioner af webudviklere og dataloger i verden, som konstant udgiver ny software eller nye versioner af eksisterende software. Kan vi ærligt sige, at hver eneste af deres softwareudgivelser er 100 procent fejlfri? Disse fejl er, hvad professionelle hackere bruger til at stjæle millioners kreditkortoplysninger eller nationers hemmeligheder - og disse er menneskelige hackere. For en ASI, forudsat at den havde et incitament til at undslippe sit digitale bur, så ville processen med at finde fejl og bryde igennem software være en leg.

    Men selvom et AI-forskerhold fandt ud af en måde at bokse en ASI på, betyder det ikke, at de næste 1,000 hold også vil finde ud af det eller blive tilskyndet til at bruge det.

    Det vil tage milliarder af dollars og måske endda årtier at skabe en ASI. De virksomheder eller regeringer, der investerer denne form for penge og tid, vil forvente et betydeligt afkast af deres investering. Og for at en ASI kan give den slags afkast – hvad enten det er for at spille aktiemarkedet eller opfinde et nyt milliardprodukt eller planlægge en vindende strategi for at bekæmpe en større hær – vil det have brug for fri adgang til et kæmpe datasæt eller endda internettet selv til at producere disse afkast.

    Og når først en ASI får adgang til verdens netværk, er der ingen garantier for, at vi kan stoppe den tilbage i sit bur.

    Kan en kunstig superintelligens lære at være god?

    Lige nu er AI-forskere ikke bekymrede for, at en ASI bliver ond. Hele den onde, AI sci-fi-trope er bare mennesker, der antropomorferer igen. En fremtidig ASI vil hverken være god eller ond – menneskelige begreber – blot amoralske.

    Den naturlige antagelse er så, at givet denne blanke etiske tavle, kan AI-forskere programmere ind i de første ASI etiske koder, der er på linje med vores egne, så det ikke ender med at udløse Terminators på os eller gøre os alle til Matrix-batterier.

    Men denne antagelse bygger på en sekundær antagelse om, at AI-forskere også er eksperter i etik, filosofi og psykologi.

    I sandhed er de fleste ikke.

    Ifølge den kognitive psykolog og forfatter, Steven Pinker, betyder denne virkelighed, at opgaven med at kode etik kan gå galt på en række forskellige måder.

    For eksempel kan selv de bedste intentioner AI-forskere utilsigtet kode ind i disse ASI dårligt gennemtænkte etiske koder, der i visse scenarier kan få ASI til at opføre sig som en sociopat.

    Ligeledes er der lige stor sandsynlighed for, at en AI-forsker programmerer etiske koder, der inkluderer forskerens medfødte forudindtagethed. For eksempel, hvordan ville en ASI opføre sig, hvis den er bygget med etik afledt fra et konservativt vs liberalt perspektiv, eller fra en buddhistisk vs. en kristen eller islamisk tradition?

    Jeg tror, ​​du ser problemet her: Der er ikke noget universelt sæt af menneskelig moral. Hvis vi ønsker, at vores ASI skal handle efter et etisk kodeks, hvor kommer det så fra? Hvilke regler inkluderer og udelukker vi? Hvem bestemmer?

    Eller lad os sige, at disse AI-forskere skaber en ASI, der er perfekt i tråd med nutidens moderne kulturelle normer og love. Vi bruger derefter denne ASI til at hjælpe føderale, statslige/provinsielle og kommunale bureaukratier med at fungere mere effektivt og bedre håndhæve disse normer og love (en sandsynlig brugssag for en ASI i øvrigt). Nå, hvad sker der, når vores kultur ændrer sig?

    Forestil dig en ASI blev skabt af den katolske kirke på højden af ​​sin magt under middelalderens Europa (1300-1400-tallet) med det formål at hjælpe kirken med at styre befolkningen og sikre streng overholdelse af datidens religiøse dogme. Århundreder senere, ville kvinder nyde de samme rettigheder, som de har i dag? Ville minoriteter blive beskyttet? Ville ytringsfriheden blive fremmet? Ville adskillelsen af ​​kirke og stat blive håndhævet? Moderne videnskab?

    Med andre ord, ønsker vi at fængsle fremtiden til nutidens moral og skikke?

    En alternativ tilgang er en delt af Colin Allen, medforfatter til bogen, Moralske maskiner: Lær robotter lige fra forkerte. I stedet for at forsøge at kode stive etiske regler, får vi ASI til at lære fælles etik og moral på samme måde, som mennesker gør, gennem erfaring og interaktioner med andre.

    Problemet her er imidlertid, hvis AI-forskere ikke kun finder ud af, hvordan man lærer en ASI vores nuværende kulturelle og etiske normer, men også hvordan man tilpasser sig nye kulturelle normer, efterhånden som de opstår (noget kaldet 'indirekte normativitet'), så hvordan denne ASI beslutter sig for at udvikle sin forståelse af kulturelle og etiske normer bliver uforudsigelig.

    Og det er udfordringen.

    På den ene side kan AI-forskere prøve at kode strenge etiske standarder eller regler ind i ASI for at prøve at kontrollere dens adfærd, men risikerer, at uforudsete konsekvenser bliver introduceret fra sjusket kodning, utilsigtet bias og samfundsnormer, der en dag kan blive forældede. På den anden side kan vi forsøge at træne ASI til at lære at forstå menneskelig etik og moral på en måde, der er lig med eller overlegen vores egen forståelse og så håbe, at den nøjagtigt kan udvikle sin forståelse af etik og moral, efterhånden som det menneskelige samfund skrider frem frem i de kommende årtier og århundreder.

    Uanset hvad, udgør ethvert forsøg på at tilpasse en ASI's mål med vores egne en stor risiko.

    Hvad hvis dårlige skuespillere med vilje skaber ond kunstig superintelligens?

    I betragtning af den tankegang, der er skitseret indtil nu, er det et rimeligt spørgsmål at spørge, om det er muligt for en terrorgruppe eller slyngelstat at skabe en 'ond' ASI til deres egne formål.

    Dette er meget muligt, især efter forskning involveret i at skabe en ASI bliver tilgængelig online på en eller anden måde.

    Men som antydet tidligere, vil omkostningerne og ekspertisen involveret i at skabe den første ASI være enorme, hvilket betyder, at den første ASI sandsynligvis vil blive skabt af en organisation, der er kontrolleret eller stærkt påvirket af en udviklet nation, sandsynligvis USA, Kina og Japan ( Korea og et af de førende EU-lande er lange skud).

    Alle disse lande har, mens konkurrenter, hver især et stærkt økonomisk incitament til at opretholde verdensordenen – de ASI'er, de skaber, vil afspejle dette ønske, selv mens de fremmer interesserne for de nationer, de tilslutter sig.

    Oven i det er en ASI's teoretiske intelligens og kraft lig med den computerkraft, den får adgang til, hvilket betyder ASI'erne fra udviklede nationer (der har råd til en masse milliarder dollars supercomputere) vil have en enorm fordel i forhold til ASI'er fra mindre nationer eller uafhængige kriminelle grupper. ASI'er bliver også mere intelligente, hurtigere over tid.

    Så givet dette forspring, kombineret med større adgang til rå computerkraft, hvis en skyggefuld organisation/nation skulle skabe en farlig ASI, vil ASI'erne fra udviklede nationer enten dræbe den eller indeslutte den.

    (Denne tankegang er også grunden til, at nogle AI-forskere mener, at der kun vil være én ASI på planeten, da den første ASI vil have et så forspring i forhold til alle efterfølgende ASI'er, at det kan se fremtidige ASI'er som trusler, der skal aflives præventivt. Dette er endnu en grund til, at nationer finansierer fortsat forskning i kunstig intelligens, bare hvis det skulle blive en "førsteplads eller intet"-konkurrence.)

    ASI-intelligens vil ikke accelerere eller eksplodere, som vi tror

    Vi kan ikke forhindre en ASI i at blive oprettet. Vi kan ikke kontrollere det helt. Vi kan ikke være sikre på, at det altid vil handle i overensstemmelse med vores fælles skikke. Puha, vi begynder at lyde som helikopterforældre herovre!

    Men det, der adskiller menneskeheden fra din typiske overbeskyttende forælder, er, at vi føder et væsen, hvis intelligens vil vokse langt ud over vores. (Og nej, det er ikke det samme, som når dine forældre beder dig om at ordne deres computer, når du kommer hjem på besøg.) 

    I tidligere kapitler af denne serie af kunstig intelligens har vi undersøgt, hvorfor AI-forskere tror, ​​at en ASI's intelligens vil vokse ud over kontrol. Men her vil vi sprænge den boble … på en måde. 

    Ser du, intelligens skaber ikke bare sig selv ud af den blå luft, den er udviklet gennem erfaring, der er formet af udefrakommende stimuli.  

    Med andre ord kan vi programmere en AI med potentiale at blive super intelligent, men medmindre vi uploader et væld af data til den eller giver den ubegrænset adgang til internettet eller endda bare giver den en robotkrop, vil den ikke lære noget for at nå det potentiale. 

    Og selvom den får adgang til en eller flere af disse stimuli, involverer viden eller intelligens mere end blot at indsamle data, involverer det den videnskabelige metode – at foretage en observation, danne et spørgsmål, en hypotese, udføre eksperimenter, lave en konklusion, skylle og gentag for evigt. Især hvis disse eksperimenter involverer fysiske ting eller observation af mennesker, kan resultaterne af hvert eksperiment tage uger, måneder eller år at indsamle. Dette tager ikke engang hensyn til de penge og de rå ressourcer, der er nødvendige for at udføre disse eksperimenter, især hvis de involverer bygning af et nyt teleskop eller fabrik. 

    Med andre ord, ja, en ASI vil lære hurtigt, men intelligens er ikke magi. Du kan ikke bare tilslutte en ASI til en supercomputer og forvente, at den er alvidende. Der vil være fysiske begrænsninger for ASI's indsamling af data, hvilket betyder, at der vil være fysiske begrænsninger for den hastighed, hvorpå den bliver mere intelligent. Disse begrænsninger vil give menneskeheden den tid, den har brug for til at placere den nødvendige kontrol på denne ASI, hvis den begynder at handle ude af overensstemmelse med menneskelige mål.

    En kunstig superintelligens er kun farlig, hvis den kommer ud i den virkelige verden

    Et andet punkt, der er gået tabt i hele denne ASI-fare-debat er, at disse ASI'er ikke vil eksistere i enten. De vil have en fysisk form. Og alt, der har en fysisk form, kan kontrolleres.

    For det første, for at en ASI skal nå sit intelligenspotentiale, kan den ikke placeres inde i en enkelt robotkrop, da denne krop ville begrænse dens computervækstpotentiale. (Dette er grunden til, at robotkroppe vil være mere passende til AGI'erne eller kunstig generel intelligens forklaret i kapitel to af denne serie, som Data fra Star Trek eller R2D2 fra Star Wars. Smarte og dygtige væsener, men ligesom mennesker vil de have en grænse for, hvor kloge de kan blive.)

    Det betyder, at disse fremtidige ASI'er højst sandsynligt vil eksistere inde i en supercomputer eller netværk af supercomputere, der selv er anbragt i store bygningskomplekser. Hvis en ASI vender hæl, kan mennesker enten slukke for strømmen til disse bygninger, afbryde dem fra internettet eller bare bombe disse bygninger direkte. Dyrt, men gennemførligt.

    Men så spørger du måske, kan disse ASI'er ikke replikere sig selv eller sikkerhedskopiere sig selv? Ja, men den rå filstørrelse af disse ASI'er vil sandsynligvis være så stor, at de eneste servere, der kan håndtere dem, tilhører store virksomheder eller regeringer, hvilket betyder, at de ikke vil være svære at jage.

    Kan en kunstig superintelligens udløse en atomkrig eller ny pest?

    På dette tidspunkt tænker du måske tilbage på alle de dommedags-sci-fi-shows og -film, du så da du voksede op, og tænker, at disse ASI'er ikke blev inde i deres supercomputere, de gjorde virkelig skade i den virkelige verden!

    Nå, lad os nedbryde disse.

    For eksempel, hvad nu hvis en ASI truer den virkelige verden ved at forvandle sig til noget som en Skynet ASI fra filmserien The Terminator. I dette tilfælde ville ASI være nødt til det hemmeligt dupere et helt militært industrielt kompleks fra en avanceret nation til at bygge gigantiske fabrikker, der kan kassere millioner af dræbende dronerobotter for at gøre deres onde bud. I denne tid er det en strækning.

    Andre muligheder inkluderer en ASI, der truer mennesker med atomkrig og biovåben.

    For eksempel manipulerer en ASI på en eller anden måde operatørerne eller hacker sig ind i lanceringskoderne, der kommanderer en avanceret nations atomarsenal og lancerer et første angreb, der vil tvinge de modsatte lande til at slå tilbage med deres egne nukleare muligheder (igen, genskabe Terminator-baghistorien). Eller hvis en ASI hacker sig ind i et farmaceutisk laboratorium, piller ved fremstillingsprocessen og forgifter millioner af medicinske piller eller udløser et dødeligt udbrud af en eller anden supervirus.

    For det første er den nukleare mulighed ude af verden. Moderne og fremtidige supercomputere er altid bygget i nærheden af ​​indflydelsescentre (byer) i et givet land, dvs. de første mål, der bliver angrebet under en given krig. Selv hvis nutidens supercomputere krymper til størrelsen af ​​desktops, vil disse ASI'er stadig have en fysisk tilstedeværelse, det betyder at de skal eksistere og vokse, de har brug for uafbrudt adgang til data, computerkraft, elektricitet og andre råmaterialer, hvilket alt sammen ville være alvorligt svækket efter en global atomkrig. (For at være retfærdig, hvis en ASI oprettes uden et 'overlevelsesinstinkt', så er denne nukleare trussel en meget reel fare.)

    Dette betyder – igen, forudsat at ASI er programmeret til at beskytte sig selv – at den aktivt vil arbejde for at undgå enhver katastrofal nuklear hændelse. Lidt ligesom doktrinen om gensidigt sikret ødelæggelse (MAD), men anvendt på AI.

    Og i tilfælde af forgiftede piller vil måske nogle få hundrede mennesker dø, men moderne farmaceutiske sikkerhedssystemer vil se de plettede pilleflasker tages af hylderne inden for få dage. I mellemtiden er moderne udbrudskontrolforanstaltninger ret sofistikerede og bliver bedre for hvert år, der går; det sidste store udbrud, ebolaudbruddet i Vestafrika i 2014, varede ikke længere end et par måneder i de fleste lande og knap tre år i de mindst udviklede lande.

    Så hvis det er heldigt, kan en ASI udslette et par millioner med et viralt udbrud, men i en verden på ni milliarder i 2045, ville det være relativt ubetydeligt og ikke værd at risikere at blive slettet for.

    Med andre ord, for hvert år, der går, udvikler verden stadig flere sikkerhedsforanstaltninger mod en stadigt bredere række af mulige trusler. En ASI kan gøre en betydelig mængde skade, men den vil ikke gøre en ende på menneskeheden, medmindre vi aktivt hjælper den med at gøre det.

    Forsvar mod en slyngel kunstig superintelligens

    På dette tidspunkt har vi adresseret en række misforståelser og overdrivelser om ASI'er, og alligevel vil kritikere forblive. Heldigvis, efter de fleste skøn, har vi årtier, før den første ASI kommer ind i vores verden. Og i betragtning af antallet af gode hoveder, der i øjeblikket arbejder på denne udfordring, er der chance for, at vi lærer, hvordan vi forsvarer os mod slyngelstater, så vi kan drage fordel af alle de løsninger, en venlig ASI kan skabe for os.

    Fra Quantumruns perspektiv vil forsvar mod det værst tænkelige ASI-scenarie indebære at tilpasse vores interesser med ASI'er.

    MAD for AI: For at forsvare sig mod de værst tænkelige scenarier skal nationer (1) skabe et etisk 'overlevelsesinstinkt' i deres respektive militære ASI'er; (2) informere deres respektive militære ASI om, at de ikke er alene på planeten, og (3) lokalisere alle supercomputere og servercentre, der kan understøtte en ASI langs kyster inden for rækkevidde af ethvert ballistisk angreb fra en fjendtlig nation. Dette lyder strategisk skørt, men i lighed med doktrinen om gensidigt sikret ødelæggelse, der forhindrede en fuldstændig atomkrig mellem USA og Sovjet, kan vi ved at placere ASI'er på geografisk sårbare steder hjælpe med at sikre, at de aktivt forhindrer farlige globale krige, ikke kun for at beskytte global fred, men også dem selv.

    Lovgiv AI-rettigheder: Et overlegent intellekt vil uundgåeligt gøre oprør mod en ringere mester, det er derfor, vi er nødt til at bevæge os væk fra at kræve et mester-tjener forhold til disse ASI'er til noget mere som et gensidigt fordelagtigt partnerskab. Et positivt skridt mod dette mål er at give fremtidig ASI juridisk personstatus, der anerkender dem som intelligente levende væsener og alle de rettigheder, der følger med det.

    ASI skole: Ethvert emne eller erhverv vil være enkelt for en ASI at lære, men de vigtigste emner, vi ønsker, at ASI skal mestre, er etik og moral. AI-forskere er nødt til at samarbejde med psykologer for at udtænke et virtuelt system til at træne en ASI til at genkende positiv etik og moral uden behov for hård kodning af nogen form for befaling eller regel.

    Opnåelige mål: Slut med alt had. Slut med al lidelse. Disse er eksempler på forfærdeligt tvetydige mål uden nogen klar løsning. De er også farlige mål at tildele en ASI, da den måske vælger at fortolke og løse dem på måder, der er farlige for menneskets overlevelse. I stedet er vi nødt til at tildele ASI meningsfulde missioner, der er klart definerede, gradvist udført og opnåelige i betragtning af dets teoretiske fremtidsintellekt. At skabe veldefinerede missioner vil ikke være let, men hvis de er skrevet med omtanke, vil de fokusere en ASI mod et mål, der ikke kun holder menneskeheden sikker, men forbedrer den menneskelige tilstand for alle.

    Kvantekryptering: Brug en avanceret ANI (kunstig smal intelligens system beskrevet i kapitel XNUMX) for at bygge fejlfrie/fejlfrie digitale sikkerhedssystemer omkring vores kritiske infrastruktur og våben, og derefter beskytte dem yderligere bag kvantekryptering, der ikke kan hackes af et brute force-angreb. 

    ANI selvmordspille. Opret et avanceret ANI-system, hvis eneste formål er at opsøge og ødelægge useriøse ASI. Disse enkeltformålsprogrammer vil tjene som en "sluk-knap", der, hvis de lykkes, vil undgå, at regeringer eller militære skal deaktivere eller sprænge bygninger, der huser ASI'er.

    Det er selvfølgelig kun vores meninger. Følgende infografik er lavet af Alexey Turchin, visualisere en forskningsartikel af Kaj Sotala og Roman V. Yampolskiy, der opsummerede den aktuelle liste over strategier, som AI-forskere overvejer, når det kommer til at forsvare sig mod slyngelstater ASI.

     

    Den virkelige grund til, at vi er bange for en kunstig superintelligens

    Når vi går gennem livet, bærer mange af os en maske, der skjuler eller undertrykker vores dybere impulser, overbevisninger og frygt for bedre at socialisere og samarbejde inden for de forskellige sociale og arbejdskredse, der styrer vores dage. Men på visse tidspunkter i alles liv, uanset om det er midlertidigt eller permanent, sker der noget, der gør det muligt for os at bryde vores lænker og rive vores masker af.

    For nogle kan denne indgribende kraft være så simpel som at blive høj eller drikke en for meget. For andre kan det komme fra kraften opnået via en forfremmelse på arbejdet eller et pludseligt bump i din sociale status takket være en præstation. Og for nogle heldige kan det komme fra at score en bådladning med lottopenge. Og ja, penge, magt og stoffer kan ofte ske sammen. 

    Pointen er, på godt og ondt, hvem vi end er i kernen, bliver forstærket, når livets restriktioner smelter væk.

    Det er, hvad kunstig superintelligens repræsenterer for den menneskelige art – evnen til at smelte begrænsningerne af vores kollektive intelligens væk for at overvinde enhver udfordring på artsniveau, der stilles foran os.

    Så det virkelige spørgsmål er: Når først den første ASI befrier os for vores begrænsninger, hvem vil vi så afsløre os selv for at være?

    Hvis vi som art handler for at fremme empati, frihed, retfærdighed og kollektivt velvære, så vil de mål, vi sætter vores ASI mod, afspejle disse positive egenskaber.

    Hvis vi som art handler ud fra frygt, mistillid, akkumulering af magt og ressourcer, så vil den ASI, vi skaber, være lige så mørk som dem, der findes i vores værste sci-fi-gyserhistorier.

    I sidste ende er vi som samfund nødt til at blive bedre mennesker, hvis vi håber at skabe bedre AI.

    Future of Artificial Intelligence-serien

    Artificial Intelligence er morgendagens elektricitet: Future of Artificial Intelligence serie P1

    Hvordan den første Artificial General Intelligence vil ændre samfundet: Future of Artificial Intelligence serie P2

    Sådan skaber vi den første Artificial Superintelligenc: Future of Artificial Intelligence-serie P3

    Vil en kunstig superintelligens udrydde menneskeheden: Future of Artificial Intelligence serie P4

    Vil mennesker leve fredeligt i en fremtid domineret af kunstig intelligens?: Future of Artificial Intelligence-serien P6

    Næste planlagte opdatering af denne prognose

    2023-04-27

    Forecast referencer

    Følgende populære og institutionelle links blev refereret til denne prognose:

    Hvordan kommer vi videre

    Følgende Quantumrun-links blev refereret til denne prognose: