Hvordan mennesker vil forsvare seg mot en kunstig superintelligens: fremtiden for kunstig intelligens P5

BILDEKREDITT: Quantumrun

Hvordan mennesker vil forsvare seg mot en kunstig superintelligens: fremtiden for kunstig intelligens P5

    Året er 65,000 XNUMX fvt, og som en Thylacoleo, du og dine var de store jegerne i det gamle Australia. Du streifet fritt rundt i landet og levde i likevekt med de andre rovdyrene og byttedyrene som okkuperte landet ved siden av deg. Årstidene brakte endringer, men statusen din i dyreriket forble uimotsagt så lenge du og dine forfedre kunne huske. Så en dag dukket det opp nykommere.

    Ryktene sier at de kom fra den gigantiske vannveggen, men disse skapningene virket mer komfortable med å leve på land. Du måtte se disse skapningene selv.

    Det tok noen dager, men du kom deg endelig til kysten. Ilden på himmelen var i ferd med å sette seg, et perfekt tidspunkt for å spionere på disse skapningene, kanskje til og med prøve å spise en for å se hvordan de smakte.

    Du ser en.

    Den gikk på to bein og hadde ingen pels. Det så svakt ut. Uimponerende. Neppe verdt frykten det forårsaket blant kongeriket.

    Du begynner å nærme deg forsiktig mens natten jager bort lyset. Du kommer nærmere. Så fryser du. Høye lyder ringer ut og så dukker det opp fire flere av dem ut av skogen bak den. Hvor mange er det?

    Skapningen følger de andre inn i tregrensen, og du følger etter. Og jo mer du gjør, jo flere merkelige lyder hører du til du ser enda flere av disse skapningene. Du følger på avstand når de går ut av skogen inn i en lysning ved kysten. Det er mange av dem. Men enda viktigere, de sitter alle rolig rundt bålet.

    Du har sett disse brannene før. I den varme årstiden ville ilden på himmelen noen ganger besøke landet og brenne ned hele skoger. Disse skapningene, derimot, de kontrollerte det på en eller annen måte. Hva slags skapninger kan ha en slik kraft?

    Du ser i det fjerne. Flere kommer over den gigantiske vannveggen.

    Du tar et skritt tilbake.

    Disse skapningene er ikke som de andre i kongeriket. De er noe helt nytt.

    Du bestemmer deg for å forlate og advare dine pårørende. Hvis antallet blir for stort, hvem vet hva som kan skje.

    ***

    Det antas at Thylacoleo ble utryddet relativt kort tid etter ankomsten av mennesker, sammen med flertallet av de andre megafaunaene på det australske kontinentet. Ingen andre topppattedyrrovdyr tok dens plass - det vil si med mindre du teller mennesker i den kategorien.

    Å spille av denne allegorien er fokuset i dette seriekapittelet: Vil en fremtidig kunstig superintelligens (ASI) gjøre oss alle til batterier og deretter koble oss til Matrix, eller vil mennesker finne ut en måte å unngå å bli offer for en sci-fi, AI dommedagsplott?

    Så langt i vår serie om Fremtiden for kunstig intelligens, har vi utforsket alle typer AI, inkludert det positive potensialet til en bestemt form for AI, ASI: et kunstig vesen hvis fremtidige intelligens vil få oss til å se ut som maur i sammenligning.

    Men hvem kan si at et så smart vesen ville akseptert å ta ordre fra mennesker for alltid. Hva skal vi gjøre hvis ting går sørover? Hvordan vil vi forsvare oss mot en useriøs ASI?

    I dette kapittelet vil vi skjære gjennom den falske hypen – i det minste når det gjelder farene på «menneskelig utryddelsesnivå» – og fokusere på de realistiske selvforsvarsalternativene som er tilgjengelige for verdens regjeringer.

    Kan vi stoppe all videre forskning på en kunstig superintelligens?

    Gitt den potensielle risikoen som en ASI kan utgjøre for menneskeheten, er det første åpenbare spørsmålet å stille: Kan vi ikke bare stoppe all videre forskning på AI? Eller i det minste forby enhver forskning som kan få oss farlig nær å lage en ASI?

    Kort svar: Nei.

    Langt svar: La oss se på de forskjellige aktørene som er involvert her.

    På forskningsnivå er det for mange AI-forskere i dag fra for mange startups, selskaper og universiteter rundt om i verden. Hvis ett selskap eller land bestemte seg for å begrense sin AI-forskningsinnsats, ville de ganske enkelt fortsette andre steder.

    I mellomtiden tjener planetens mest verdifulle selskaper formuen på bruken av AI-systemer til deres spesifikke virksomheter. Å be dem om å stoppe eller begrense utviklingen av AI-verktøy er beslektet med å be dem om å stoppe eller begrense deres fremtidige vekst. Økonomisk ville dette true deres langsiktige virksomhet. Juridisk har selskaper et tillitsansvar for å kontinuerlig bygge verdi for sine interessenter; det betyr at enhver handling som begrenser veksten av denne verdien kan føre til et søksmål. Og hvis noen politikere prøvde å begrense AI-forskningen, ville disse gigantiske selskapene bare betale de nødvendige lobbyavgiftene for å ombestemme seg eller kollegene sine.

    For kamp, ​​akkurat som terrorister og frihetskjempere over hele verden har brukt geriljataktikker for å kjempe mot bedre finansierte militære, vil mindre nasjoner ha et insentiv til å bruke AI som en lignende taktisk fordel mot større nasjoner som kan ha en rekke militære fordeler. På samme måte, for toppmilitærer, som de som tilhører USA, Russland og Kina, er å bygge et militært ASI på nivå med å ha et arsenal av atomvåpen i baklommen. Med andre ord, alle militærer vil fortsette å finansiere AI bare for å holde seg relevante i fremtiden.

    Hva med regjeringer? Sannelig er de fleste politikere i disse dager (2018) teknologisk analfabeter og har liten forståelse av hva AI er eller dets fremtidige potensial – dette gjør dem enkle å manipulere av bedriftens interesser.

    Og på globalt nivå, tenk på hvor vanskelig det var å overbevise verdens regjeringer om å signere 2015 Paris-avtalen for å takle klimaendringene – og når de var undertegnet, var mange av forpliktelsene ikke engang bindende. Ikke bare det, klimaendringer er et problem folk fysisk opplever globalt gjennom stadig hyppigere og alvorligere værhendelser. Nå, når vi snakker om å godta begrensninger på AI, er dette et problem som stort sett er usynlig og knapt forståelig for publikum, så lykke til med å få buy-in for enhver form for "Paris-avtale" for å begrense AI.

    Med andre ord, det er alt for mange interesser som forsker på AI for sine egne mål til å stoppe enhver forskning som til slutt kan føre til en ASI. 

    Kan vi kutte en kunstig superintelligens?

    Det neste rimelige spørsmålet er kan vi bur eller kontrollere en ASI når vi uunngåelig oppretter en? 

    Kort svar: Igjen, nei.

    Langt svar: Teknologi kan ikke holdes tilbake.

    For det første, bare tenk på de tusenvis til millioner av nettutviklere og datavitere i verden som stadig produserer ny programvare eller nye versjoner av eksisterende programvare. Kan vi ærlig si at hver av programvareutgivelsene deres er 100 prosent feilfrie? Disse feilene er det profesjonelle hackere bruker for å stjele kredittkortinformasjonen til millioner eller nasjoners hemmeligheter – og disse er menneskelige hackere. For en ASI, forutsatt at den hadde et insentiv til å rømme det digitale buret sitt, ville prosessen med å finne feil og bryte gjennom programvare være en lek.

    Men selv om et AI-forskerteam fant ut en måte å bokse en ASI på, betyr ikke det at de neste 1,000 teamene også vil finne ut av det eller bli insentivert til å bruke det.

    Det vil ta milliarder av dollar og kanskje til og med tiår å lage en ASI. Selskapene eller myndighetene som investerer denne typen penger og tid vil forvente en betydelig avkastning på investeringen. Og for at en ASI skal gi den slags avkastning – enten det er for å spille aksjemarkedet eller finne opp et nytt milliardprodukt eller planlegge en vinnende strategi for å kjempe mot en større hær – vil den trenge fri tilgang til et gigantisk datasett eller til og med Internett selv for å produsere disse avkastningene.

    Og når en ASI først får tilgang til verdens nettverk, er det ingen garantier for at vi kan stappe den tilbake i buret.

    Kan en kunstig superintelligens lære å bli god?

    Akkurat nå er AI-forskere ikke bekymret for at en ASI skal bli ond. Hele den onde, AI sci-fi-tropen er bare mennesker som antropomorferer igjen. En fremtidig ASI vil verken være god eller ond – menneskelige konsepter – bare amoralsk.

    Den naturlige antagelsen er da at gitt denne blanke etiske tavlen, kan AI-forskere programmere inn i de første ASI etiske kodene som er i tråd med våre egne, slik at det ikke ender opp med å slippe løs Terminators på oss eller gjøre oss alle til Matrix-batterier.

    Men denne antakelsen bygger på en sekundær antagelse om at AI-forskere også er eksperter på etikk, filosofi og psykologi.

    I sannhet er de fleste ikke det.

    Ifølge den kognitive psykologen og forfatteren, Steven Pinker, betyr denne virkeligheten at oppgaven med å kode etikk kan gå galt på en rekke forskjellige måter.

    For eksempel kan til og med de beste AI-forskerne utilsiktet kode inn i disse ASI dårlig gjennomtenkte etiske kodene som i visse scenarier kan få ASI til å opptre som en sosiopat.

    På samme måte er det like stor sannsynlighet for at en AI-forsker programmerer etiske koder som inkluderer forskerens medfødte skjevheter. For eksempel, hvordan ville en ASI oppføre seg hvis den er bygget med etikk avledet fra et konservativt vs liberalt perspektiv, eller fra en buddhistisk vs en kristen eller islamsk tradisjon?

    Jeg tror du ser problemet her: Det er ingen universell sett med menneskelig moral. Hvis vi vil at vår ASI skal handle etter en etisk kode, hvor kommer den fra? Hvilke regler inkluderer og ekskluderer vi? Hvem bestemmer?

    Eller la oss si at disse AI-forskerne lager en ASI som er perfekt i tråd med dagens moderne kulturelle normer og lover. Vi bruker deretter denne ASI for å hjelpe føderale, statlige/provinsielle og kommunale byråkratier med å fungere mer effektivt og bedre håndheve disse normene og lovene (en sannsynlig brukssak for en ASI forresten). Vel, hva skjer når kulturen vår endres?

    Tenk deg en ASI ble opprettet av den katolske kirke på høyden av sin makt under middelalderens Europa (1300-1400-tallet) med mål om å hjelpe kirken med å administrere befolkningen og sikre streng overholdelse av datidens religiøse dogme. Flere århundrer senere, ville kvinner hatt de samme rettighetene som de har i dag? Ville minoriteter bli beskyttet? Ville ytringsfriheten fremmes? Ville skillet mellom kirke og stat bli håndhevet? Moderne vitenskap?

    Med andre ord, ønsker vi å fengsle fremtiden til dagens moral og skikker?

    En alternativ tilnærming er en som deles av Colin Allen, medforfatter av boken, Moralske maskiner: Lære roboter rett fra galt. I stedet for å prøve å kode stive etiske regler, lar vi ASI lære felles etikk og moral på samme måte som mennesker gjør, gjennom erfaring og interaksjoner med andre.

    Problemet her er imidlertid hvis AI-forskere ikke bare finner ut hvordan de skal lære en ASI våre nåværende kulturelle og etiske normer, men også hvordan de skal tilpasse seg nye kulturelle normer etter hvert som de oppstår (noe som kalles "indirekte normativitet"), så hvordan denne ASI bestemmer seg for å utvikle sin forståelse av kulturelle og etiske normer blir uforutsigbar.

    Og det er utfordringen.

    På den ene siden kan AI-forskere prøve å kode strenge etiske standarder eller regler inn i ASI for å prøve å kontrollere dets oppførsel, men risikerer at uforutsette konsekvenser blir introdusert fra slurvete koding, utilsiktet skjevhet og samfunnsnormer som en dag kan bli utdaterte. På den annen side kan vi forsøke å trene ASI til å lære å forstå menneskelig etikk og moral på en måte som er lik eller overlegen vår egen forståelse, og deretter håpe at den nøyaktig kan utvikle sin forståelse av etikk og moral etter hvert som det menneskelige samfunn utvikler seg fremover i løpet av de kommende tiårene og århundrene.

    Uansett, ethvert forsøk på å tilpasse en ASIs mål med våre egne, utgjør en stor risiko.

    Hva om dårlige skuespillere med vilje skaper ond kunstig superintelligens?

    Gitt tankerekken som er skissert så langt, er det et rettferdig spørsmål å spørre om det er mulig for en terrorgruppe eller useriøs nasjon å skape en "ond" ASI for sine egne formål.

    Dette er veldig mulig, spesielt etter at forskning knyttet til å lage en ASI blir tilgjengelig på nettet på en eller annen måte.

    Men som antydet tidligere, vil kostnadene og ekspertisen som er involvert i å lage den første ASI være enorme, noe som betyr at den første ASI sannsynligvis vil bli opprettet av en organisasjon som er kontrollert eller sterkt påvirket av en utviklet nasjon, sannsynligvis USA, Kina og Japan ( Korea og et av de ledende EU-landene er lange skudd).

    Alle disse landene har, selv om de er konkurrenter, et sterkt økonomisk insentiv til å opprettholde verdensorden – ASI-ene de oppretter vil reflektere dette ønsket, selv mens de fremmer interessene til nasjonene de slutter seg til.

    På toppen av det er en ASIs teoretiske intelligens og kraft lik datakraften den får tilgang til, noe som betyr ASI-er fra utviklede land (som har råd til en haug med milliarder dollar superdatamaskiner) vil ha en enorm fordel fremfor ASI-er fra mindre nasjoner eller uavhengige kriminelle grupper. Dessuten blir ASI-er mer intelligente, raskere over tid.

    Så, gitt dette forspranget, kombinert med større tilgang til rå datakraft, skulle en skyggefull organisasjon/nasjon skape en farlig ASI, vil ASI-ene fra utviklede nasjoner enten drepe den eller holde den i bur.

    (Denne tankegangen er også grunnen til at noen AI-forskere tror at det bare vil være én ASI på planeten, siden den første ASI-en vil ha et slikt forsprang på alle etterfølgende ASI-er at den kan se fremtidige ASI-er som trusler om å bli drept av. forebyggende. Dette er enda en grunn til at nasjoner finansierer fortsatt forskning innen kunstig intelligens, i tilfelle det blir en "førsteplass eller ingenting"-konkurranse.)

    ASI-intelligens vil ikke akselerere eller eksplodere som vi tror

    Vi kan ikke stoppe en ASI fra å bli opprettet. Vi kan ikke kontrollere det helt. Vi kan ikke være sikre på at den alltid vil opptre i tråd med våre felles skikker. Jøss, vi begynner å høres ut som helikopterforeldre her borte!

    Men det som skiller menneskeheten fra din typiske overbeskyttende forelder er at vi føder et vesen hvis intelligens vil vokse langt utover vår. (Og nei, det er ikke det samme som når foreldrene dine ber deg om å fikse datamaskinen deres når du kommer hjem på besøk.) 

    I tidligere kapitler av denne fremtiden for kunstig intelligens-serien, utforsket vi hvorfor AI-forskere tror at en ASIs intelligens vil vokse utenfor kontroll. Men her vil vi sprenge den boblen … på en måte. 

    Du skjønner, intelligens skaper ikke bare seg selv ut av løse luften, den utvikles gjennom erfaring som er formet av stimuli utenfor.  

    Med andre ord kan vi programmere en AI med potensiell å bli super intelligent, men med mindre vi laster opp massevis av data eller gir den ubegrenset tilgang til Internett eller til og med bare gir den en robotkropp, vil den ikke lære noe for å nå det potensialet. 

    Og selv om den får tilgang til en eller flere av disse stimuli, kunnskap eller intelligens innebærer mer enn bare å samle inn data, involverer det den vitenskapelige metoden – å gjøre en observasjon, danne et spørsmål, en hypotese, utføre eksperimenter, lage en konklusjon, skylle og gjenta for alltid. Spesielt hvis disse eksperimentene involverer fysiske ting eller observasjon av mennesker, kan resultatene av hvert eksperiment ta uker, måneder eller år å samle inn. Dette tar ikke engang hensyn til pengene og råressursene som trengs for å utføre disse eksperimentene, spesielt hvis de involverer å bygge et nytt teleskop eller fabrikk. 

    Med andre ord, ja, en ASI vil lære raskt, men intelligens er ikke magi. Du kan ikke bare koble en ASI til en superdatamaskin og forvente at den skal være allvitende. Det vil være fysiske begrensninger for ASIs innhenting av data, noe som betyr at det vil være fysiske begrensninger for hastigheten som den blir mer intelligent. Disse begrensningene vil gi menneskeheten den tiden den trenger til å plassere de nødvendige kontrollene på denne ASI hvis den begynner å handle i strid med menneskelige mål.

    En kunstig superintelligens er bare farlig hvis den kommer ut i den virkelige verden

    Et annet poeng som har gått tapt i hele denne ASI-faredebatten er at disse ASI-ene ikke vil eksistere i den heller. De vil ha en fysisk form. Og alt som har en fysisk form kan kontrolleres.

    For det første, for at en ASI skal nå sitt intelligenspotensial, kan den ikke holdes inne i en enkelt robotkropp, siden denne kroppen ville begrense datavekstpotensialet. (Dette er grunnen til at robotkropper vil være mer passende for AGI-ene eller kunstig generell intelligens forklart i kapittel to av denne serien, som Data fra Star Trek eller R2D2 fra Star Wars. Smarte og dyktige vesener, men som mennesker vil de ha en grense for hvor smarte de kan bli.)

    Dette betyr at disse fremtidige ASI-ene mest sannsynlig vil eksistere inne i en superdatamaskin eller nettverk av superdatamaskiner som selv er plassert i store bygningskomplekser. Hvis en ASI snur, kan mennesker enten slå av strømmen til disse bygningene, kutte dem fra Internett, eller bare bombe disse bygningene direkte. Dyrt, men gjennomførbart.

    Men så kan du spørre, kan ikke disse ASI-ene replikere seg selv eller sikkerhetskopiere seg selv? Ja, men den rå filstørrelsen til disse ASI-ene vil sannsynligvis være så stor at de eneste serverne som kan håndtere dem tilhører store selskaper eller myndigheter, noe som betyr at de ikke vil være vanskelige å jakte på.

    Kan en kunstig superintelligens utløse en atomkrig eller ny pest?

    På dette tidspunktet tenker du kanskje tilbake på alle dommedags-sci-fi-programmene og -filmene du så da du vokste opp og tenker at disse ASI-ene ikke holdt seg inne i superdatamaskinene deres, de gjorde virkelig skade i den virkelige verden!

    Vel, la oss bryte ned disse.

    For eksempel, hva om en ASI truer den virkelige verden ved å forvandle seg til noe som en Skynet ASI fra filmserien The Terminator. I dette tilfellet må ASI gjøre det hemmelighet dupere et helt militært industrikompleks fra en avansert nasjon til å bygge gigantiske fabrikker som kan skaffe millioner av morderiske droneroboter for å gjøre sitt onde bud. I denne dag og alder, det er en strekning.

    Andre muligheter inkluderer en ASI som truer mennesker med atomkrig og biovåpen.

    For eksempel manipulerer en ASI på en eller annen måte operatørene eller hacker seg inn i lanseringskodene som kommanderer en avansert nasjons atomvåpenarsenal og starter et første angrep som vil tvinge de motsatte landene til å slå tilbake med sine egne kjernefysiske alternativer (igjen, gjenoppta Terminator-bakgrunnen). Eller hvis en ASI hacker seg inn i et farmasøytisk laboratorium, tukler med produksjonsprosessen og forgifter millioner av medisinske piller eller slipper løs et dødelig utbrudd av et eller annet supervirus.

    For det første er det kjernefysiske alternativet ute av stand. Moderne og fremtidige superdatamaskiner bygges alltid i nærheten av innflytelsessentre (byer) i et gitt land, dvs. de første målene som blir angrepet under en gitt krig. Selv om dagens superdatamaskiner krymper til størrelsen på stasjonære datamaskiner, vil disse ASI-ene fortsatt ha en fysisk tilstedeværelse, det betyr å eksistere og vokse, de trenger uavbrutt tilgang til data, datakraft, elektrisitet og andre råvarer, som alle ville være alvorlig. svekket etter en global atomkrig. (For å være rettferdig, hvis en ASI er opprettet uten et "overlevelsesinstinkt", så er denne atomtrusselen en veldig reell fare.)

    Dette betyr – igjen, forutsatt at ASI er programmert til å beskytte seg selv – at den aktivt vil jobbe for å unngå enhver katastrofal atomhendelse. Litt som MAD-doktrinen (mutually assured destruction), men brukt på AI.

    Og når det gjelder forgiftede piller, vil kanskje noen hundre mennesker dø, men moderne farmasøytiske sikkerhetssystemer vil se de tilsølte pilleflaskene tas av hyllene i løpet av få dager. I mellomtiden er moderne utbruddskontrolltiltak ganske sofistikerte og blir bedre for hvert år som går; det siste store utbruddet, ebolautbruddet i Vest-Afrika i 2014, varte ikke lenger enn noen få måneder i de fleste land og i underkant av tre år i de minst utviklede landene.

    Så, hvis det er heldig, kan en ASI utslette noen millioner med et viralt utbrudd, men i en verden på ni milliarder innen 2045, vil det være relativt ubetydelig og ikke verdt risikoen for å bli slettet for.

    Med andre ord, for hvert år som går, utvikler verden stadig flere sikkerhetstiltak mot et stadig større spekter av mulige trusler. En ASI kan gjøre en betydelig mengde skade, men den vil ikke ende menneskeheten med mindre vi aktivt hjelper den til å gjøre det.

    Forsvar mot en falsk kunstig superintelligens

    På dette tidspunktet har vi adressert en rekke misoppfatninger og overdrivelser om ASI-er, og likevel vil kritikere forbli. Heldigvis, etter de fleste estimater, har vi flere tiår før den første ASI kommer inn i vår verden. Og gitt antallet gode hjerner som for tiden jobber med denne utfordringen, er sjansen stor for at vi lærer hvordan vi kan forsvare oss mot useriøse ASI slik at vi kan dra nytte av alle løsningene en vennlig ASI kan skape for oss.

    Fra Quantumruns perspektiv vil forsvar mot det verste tilfellet ASI-scenario innebære å samordne våre interesser med ASI-er.

    MAD for AI: For å forsvare seg mot de verste scenariene, må nasjoner (1) skape et etisk 'overlevelsesinstinkt' i sine respektive militære ASI-er; (2) informere deres respektive militære ASI om at de ikke er alene på planeten, og (3) lokalisere alle superdatamaskiner og serversentre som kan støtte en ASI langs kystlinjer innenfor rekkevidde av ethvert ballistisk angrep fra en fiendtlig nasjon. Dette høres strategisk sprøtt ut, men i likhet med doktrinen om gjensidig sikret ødeleggelse som forhindret en fullstendig atomkrig mellom USA og sovjeterne, ved å plassere ASI-er på geografisk sårbare steder, kan vi bidra til å sikre at de aktivt forhindrer farlige globale kriger, ikke bare for å beskytte global fred, men også seg selv.

    Lover AI-rettigheter: Et overlegent intellekt vil uunngåelig gjøre opprør mot en underlegen mester, dette er grunnen til at vi må gå bort fra å kreve et mester-tjener forhold til disse ASI-ene til noe mer som et gjensidig fordelaktig partnerskap. Et positivt skritt mot dette målet er å gi fremtidig ASI juridisk personstatus som anerkjenner dem som intelligente levende vesener og alle rettighetene som følger med det.

    ASI skole: Ethvert emne eller yrke vil være enkelt for en ASI å lære, men de viktigste fagene vi vil at ASI skal mestre er etikk og moral. AI-forskere må samarbeide med psykologer for å utvikle et virtuelt system for å trene en ASI til å gjenkjenne positiv etikk og moral for seg selv uten behov for hard koding av noen form for bud eller regel.

    Oppnåelige mål: Slutt med alt hat. Slutt med all lidelse. Dette er eksempler på fryktelig tvetydige mål uten noen klar løsning. De er også farlige mål å tildele en ASI siden den kan velge å tolke og løse dem på måter som er farlige for menneskelig overlevelse. I stedet må vi tildele ASI meningsfulle oppdrag som er klart definerte, gradvis utført og oppnåelige gitt dets teoretiske fremtidsintellekt. Å lage veldefinerte oppdrag vil ikke være lett, men hvis de er skrevet med omtanke, vil de fokusere en ASI mot et mål som ikke bare holder menneskeheten trygg, men som forbedrer den menneskelige tilstanden for alle.

    Kvantekryptering: Bruk en avansert ANI (kunstig smal intelligens system beskrevet i kapittel én) for å bygge feilfrie digitale sikkerhetssystemer rundt vår kritiske infrastruktur og våpen, og deretter beskytte dem ytterligere bak kvantekryptering som ikke kan hackes av et brute force-angrep. 

    ANI selvmordspiller. Lag et avansert ANI-system hvis eneste formål er å oppsøke og ødelegge useriøse ASI. Disse enkeltformålsprogrammene vil fungere som en "av-knapp" som, hvis de lykkes, vil unngå at regjeringer eller militære må deaktivere eller sprenge bygninger som huser ASI-er.

    Dette er selvfølgelig bare våre meninger. Følgende infografikk ble laget av Alexey Turchin, visualisere en forskning papir av Kaj Sotala og Roman V. Yampolskiy, som oppsummerte den nåværende listen over strategier AI-forskere vurderer når det gjelder å forsvare seg mot useriøse ASI.

     

    Den virkelige grunnen til at vi er redde for en kunstig superintelligens

    Når vi går gjennom livet, bærer mange av oss en maske som skjuler eller undertrykker våre dypere impulser, tro og frykt for å bedre sosialisere og samarbeide innenfor de ulike sosiale og arbeidskretsene som styrer dagene våre. Men på visse punkter i alles liv, enten det er midlertidig eller permanent, skjer det noe som gjør at vi kan bryte lenkene våre og rive av oss maskene.

    For noen kan denne inngripende kraften være så enkel som å bli høy eller drikke en for mye. For andre kan det komme fra kraften oppnådd via en forfremmelse på jobben eller en plutselig støt i din sosiale status takket være en prestasjon. Og for noen heldige kan det komme fra å score en båtlast med lottopenger. Og ja, penger, makt og narkotika kan ofte skje sammen. 

    Poenget er, på godt og vondt, hvem vi enn er i kjernen blir forsterket når livets restriksjoner smelter bort.

    Det er det kunstig superintelligens representerer for den menneskelige arten – evnen til å smelte bort begrensningene til vår kollektive intelligens for å overvinne enhver utfordring på artsnivå som presenteres foran oss.

    Så det virkelige spørsmålet er: Når den første ASI frigjør oss fra våre begrensninger, hvem vil vi avsløre oss for å være?

    Hvis vi som art handler for å fremme empati, frihet, rettferdighet og kollektivt velvære, vil målene vi setter vår ASI mot reflektere disse positive egenskapene.

    Hvis vi som art handler av frykt, mistillit, akkumulering av makt og ressurser, vil ASI-en vi skaper være like mørk som de som finnes i våre verste sci-fi-skrekkhistorier.

    På slutten av dagen må vi som samfunn bli bedre mennesker hvis vi håper å skape bedre AI.

    Future of Artificial Intelligence-serien

    Artificial Intelligence er morgendagens elektrisitet: Future of Artificial Intelligence-serien P1

    Hvordan den første kunstige generelle intelligensen vil endre samfunnet: Future of Artificial Intelligence-serien P2

    Hvordan vi lager den første Artificial Superintelligenc: Future of Artificial Intelligence-serien P3

    Vil en kunstig superintelligens utrydde menneskeheten: Future of Artificial Intelligence-serien P4

    Vil mennesker leve fredelig i en fremtid dominert av kunstig intelligens?: Future of Artificial Intelligence-serien P6

    Neste planlagte oppdatering for denne prognosen

    2023-04-27

    Prognosereferanser

    Følgende populære og institusjonelle lenker ble referert til denne prognosen:

    Hvordan kommer vi til neste

    Følgende Quantumrun-lenker ble referert til denne prognosen: