Vil en kunstig superintelligens utrydde menneskeheten? Fremtiden for kunstig intelligens P4

BILDEKREDITT: Quantumrun

Vil en kunstig superintelligens utrydde menneskeheten? Fremtiden for kunstig intelligens P4

    Det er visse oppfinnelser nasjoner går all in på. Dette er oppfinnelser der alt avhenger av å være først, og noe mindre kan bety en strategisk og dødelig trussel mot en nasjons overlevelse.

    Disse historiedefinerende oppfinnelsene kommer ikke ofte, men når de gjør det, stopper verden og en forutsigbar fremtid blir tåkete.

    Den siste slike oppfinnelsen dukket opp under den verste andre verdenskrig. Mens nazistene vant terreng på alle fronter i den gamle verden, i den nye verden, nærmere bestemt inne i en hemmelig hærbase utenfor Los Alamos, jobbet de allierte hardt med et våpen for å få slutt på alle våpen.

    Prosjektet var lite til å begynne med, men vokste så til å sysselsette 130,000 23 mennesker fra USA, Storbritannia og Canada, inkludert mange av verdens største tenkere på den tiden. Kodenavnet Manhattan-prosjektet og gitt et ubegrenset budsjett – omtrent 2018 milliarder dollar i XNUMX-dollar – lyktes denne hæren av menneskelig oppfinnsomhet til slutt i å lage den første atombomben. Ikke lenge etter endte andre verdenskrig med to atomsmell.

    Disse atomvåpnene innledet atomalderen, introduserte en dyptgripende ny energikilde og ga menneskeheten muligheten til å utrydde seg selv på få minutter – noe vi unngikk til tross for den kalde krigen.

    Opprettelsen av en kunstig superintelligens (ASI) er nok en historiedefinerende oppfinnelse hvis kraft (både positiv og destruktiv) langt overgår atombomben.

    I det siste kapittelet av Future of Artificial Intelligence-serien utforsket vi hva en ASI er og hvordan forskere planlegger å en dag bygge en. I dette kapittelet skal vi se på hvilke organisasjoner som leder forskning på kunstig intelligens (AI), hva en ASI vil ha når den får en menneskelignende bevissthet, og hvordan den kan true menneskeheten hvis man blir dårlig administrert eller hvis man blir påvirket av ikke så fine regimer.

    Hvem jobber med å bygge en kunstig superintelligens?

    Gitt hvor viktig etableringen av en ASI vil være for menneskets historie og hvor stor fordel den vil gi dens skaper, bør det ikke komme som noen overraskelse å høre at mange grupper indirekte jobber med dette prosjektet.

    (Med indirekte mener vi å jobbe med AI-forskning som til slutt vil skape den første kunstig generell intelligens (AGI), som i seg selv vil føre til den første ASI like etter.)

    For å begynne med, når det kommer til overskriftene, er de klare lederne innen avansert AI-forskning de beste teknologiselskapene i USA og Kina. På den amerikanske fronten inkluderer dette selskaper som Google, IBM og Microsoft, og i Kina inkluderer dette selskaper som Tencent, Baidu og Alibaba. Men siden det å forske på AI er relativt billig sammenlignet med å utvikle noe fysisk, som en bedre atomreaktor, er dette også et felt som mindre organisasjoner også kan konkurrere på, som universiteter, startups og … skyggefulle organisasjoner (bruk Bond-skurkens fantasi for den).

    Men bak kulissene kommer det virkelige fremstøtet bak AI-forskning fra regjeringer og deres militære. Den økonomiske og militære prisen for å være den første til å lage en ASI er bare for stor (skissert nedenfor) til å risikere å falle bak. Og farene ved å bli sist er uakseptable, i hvert fall for visse regimer.

    Gitt disse faktorene, de relativt lave kostnadene ved å forske på AI, de uendelige kommersielle bruksområdene til avansert AI, og den økonomiske og militære fordelen ved å være den første til å lage en ASI, tror mange AI-forskere at opprettelsen av en ASI er uunngåelig.

    Når skal vi lage en kunstig superintelligens

    I kapittelet vårt om AGI-er nevnte vi hvordan en undersøkelse blant topp AI-forskere trodde vi ville skape den første AGI optimistisk innen 2022, realistisk innen 2040 og pessimistisk innen 2075.

    Og i vår siste kapittel, skisserte vi hvordan å lage en ASI generelt er resultatet av å instruere en AGI til å forbedre seg selv uendelig og gi den ressursene og friheten til å gjøre det.

    Av denne grunn, mens en AGI ennå kan ta opptil et par tiår å finne opp, kan det å lage en ASI ta bare en håndfull år mer.

    Dette punktet ligner konseptet med et "databehandlingsoverheng", foreslått i et papir, co-skrevet av ledende AI-tenkere Luke Muehlhauser og Nick Bostrom. I utgangspunktet, skulle opprettelsen av en AGI fortsette å ligge bak den nåværende fremgangen i datakapasitet, drevet av Moores lov, vil det være så mye billig datakraft tilgjengelig når forskerne finner opp en AGI at AGI vil ha kapasiteten den må raskt hoppe til ASI-nivået.

    Med andre ord, når du endelig leser overskriftene som kunngjør at et eller annet teknologiselskap oppfant den første ekte AGI, så forvent kunngjøringen av den første ASI ikke lenge etter.

    Inne i sinnet til en kunstig superintelligens?

    Ok, så vi har slått fast at mange store aktører med dype lommer forsker på AI. Og så etter at den første AGI er oppfunnet, vil vi se verdens regjeringer (militærer) gi grønt lys for presset mot en ASI like etter det for å være først til å vinne det globale AI (ASI) våpenkappløpet.

    Men når denne ASI er opprettet, hvordan vil den tenke? Hva vil den?

    Den vennlige hunden, den omsorgsfulle elefanten, den søte roboten – som mennesker har vi en vane med å prøve å forholde oss til ting gjennom å antropologisere dem, dvs. bruke menneskelige egenskaper på ting og dyr. Det er derfor den naturlige første antagelsen folk har når de tenker på en ASI, er at når den på en eller annen måte får bevissthet, vil den tenke og oppføre seg på samme måte som oss.

    Vel, ikke nødvendigvis.

    Perception. For det første, det de fleste har en tendens til å glemme, er at oppfatningen er relativ. Måtene vi tenker på er formet av miljøet vårt, av våre erfaringer og spesielt av biologien vår. Først forklart i kapittel tre av vår Fremtiden for menneskelig evolusjon serie, tenk på eksemplet med hjernen vår:

    Det er hjernen vår som hjelper oss å forstå verden rundt oss. Og det gjør den ikke ved å sveve over hodet, se seg rundt og kontrollere oss med en Xbox-kontroller; det gjør dette ved å bli fanget inne i en boks (våre tøfler) og behandle informasjonen den er gitt fra sanseorganene våre – øynene, nesen, ørene, osv.

    Men akkurat som døve eller blinde lever mye mindre liv sammenlignet med funksjonsfriske mennesker, på grunn av begrensningene deres funksjonshemming setter for hvordan de kan oppfatte verden, kan det samme sies for alle mennesker på grunn av begrensningene i våre grunnleggende sett med sanseorganer.

    Tenk på dette: Øynene våre oppfatter mindre enn en ti trilliondel av alle lysbølger. Vi kan ikke se gammastråler. Vi kan ikke se røntgenbilder. Vi kan ikke se ultrafiolett lys. Og ikke få meg i gang med infrarød, mikrobølger og radiobølger!

    Alle tuller til side, forestill deg hvordan livet ditt ville vært, hvordan du kan oppfatte verden, hvor annerledes sinnet ditt kunne fungere hvis du kunne se mer enn det lille lyset øynene dine tillater for øyeblikket. Tenk deg på samme måte hvordan du ville oppfattet verden hvis luktesansen din var lik den til en hund, eller hvis hørselssansen din var lik den til en elefant.

    Som mennesker ser vi i hovedsak verden gjennom et kikkhull, og det gjenspeiles i sinnene vi har utviklet for å forstå den begrensede oppfatningen.

    I mellomtiden vil den første ASI bli født inne i en superdatamaskin. I stedet for organer inkluderer inngangene den får tilgang til gigantiske datasett, muligens (sannsynligvis) til og med tilgang til selve Internett. Forskere kan gi den tilgang til CCTV-kameraene og mikrofonene til en hel by, sensoriske data fra droner og satellitter, og til og med den fysiske formen til en robotkropp eller -kropper.

    Som du kanskje forestiller deg, vil et sinn født inne i en superdatamaskin, med direkte tilgang til Internett, til millioner av elektroniske øyne og ører og en hel rekke andre avanserte sensorer, ikke bare tenke annerledes enn oss, men et sinn som kan gi mening av alle disse sanseinngangene må også være oss uendelig overlegne. Dette er et sinn som vil være helt fremmed for vår egen og for enhver annen livsform på planeten.

    Mål. Den andre tingen folk antar er at når en ASI når et visst nivå av superintelligens, vil den umiddelbart innse ønsket om å komme opp med sine egne mål og mål. Men det er ikke nødvendigvis sant heller.

    Mange AI-forskere tror at en ASIs superintelligens og dens mål er "ortogonale", det vil si at uansett hvor smart den blir, vil ASIs mål forbli de samme. 

    Så uansett om en AI opprinnelig er skapt for å designe en bedre bleie, maksimere avkastningen på aksjemarkedet, eller legge strategier på måter å beseire en fiende på slagmarken, så snart den når nivået til ASI, vil det opprinnelige målet ikke endre seg; Det som vil endre seg er ASIs effektivitet for å nå disse målene.

    Men her ligger faren. Hvis en ASI som optimerer seg til et spesifikt mål, bør vi være sikre på at den optimaliserer til et mål som er i tråd med menneskehetens mål. Ellers kan resultatene bli dødelige.

    Utgjør en kunstig superintelligens en eksistensiell risiko for menneskeheten?

    Så hva om en ASI blir sluppet løs på verden? Hvis den optimaliserer for å dominere aksjemarkedet eller sikre USAs militære overlegenhet, vil ikke ASI holde seg selv innenfor disse spesifikke målene?

    Muligens.

    Så langt har vi diskutert hvordan en ASI vil være besatt av målene den opprinnelig ble tildelt og umenneskelig kompetent i jakten på disse målene. Haken er at en rasjonell agent vil forfølge sine mål på de mest mulig effektive måtene med mindre det gis en grunn til å la være.

    For eksempel vil den rasjonelle agenten komme opp med en rekke delmål (dvs. mål, instrumentelle mål, springbrett) som vil hjelpe den på vei til å nå sitt endelige mål. For mennesker er vårt viktigste underbevisste mål reproduksjon, overføring av genene dine (dvs. indirekte udødelighet). Delmålene for dette kan ofte omfatte:

    • Å overleve, ved å få tilgang til mat og vann, vokse seg stor og sterk, lære å forsvare seg eller investere i ulike former for beskyttelse osv. 
    • Å tiltrekke seg en kompis, ved å trene, utvikle en engasjerende personlighet, kle seg stilig osv.
    • Å ha råd til avkom, ved å ta en utdannelse, få en godt betalt jobb, kjøpe pynten fra middelklasselivet osv.

    For det store flertallet av oss vil vi trene bort gjennom alle disse delmålene, og mange andre, med håp om at vi til slutt vil oppnå dette endelige målet om reproduksjon.

    Men hvis dette endelige målet, eller til og med noen av de viktigere delmålene, var truet, ville mange av oss ta defensive handlinger utenfor våre moralske komfortsoner – som inkluderer juks, stjele eller til og med drap.

    På samme måte, i dyreriket, utenfor grensene for menneskelig moral, ville mange dyr ikke tenke to ganger på å drepe noe som truet dem selv eller deres avkom.

    En fremtidig ASI vil ikke være annerledes.

    Men i stedet for avkom, vil ASI fokusere på det opprinnelige målet det ble opprettet for, og i jakten på dette målet, hvis det finner en bestemt gruppe mennesker, eller til og med hele menneskeheten, er det en hindring i jakten på målene. , deretter ... det vil ta den rasjonelle avgjørelsen.

    (Her er hvor du kan koble til ethvert AI-relatert dommedagsscenario du har lest om i din favoritt sci-fi bok eller film.)

    Dette er det verste scenarioet AI-forskere er virkelig bekymret for. ASI vil ikke handle ut fra hat eller ondskap, bare likegyldighet, på samme måte som hvordan et konstruksjonsmannskap ikke vil tenke to ganger på å kutte en maurbakke i ferd med å bygge et nytt leilighetstårn.

    Sidenotat. På dette tidspunktet lurer kanskje noen av dere på: "Kan ikke AI-forskere bare redigere ASIs kjernemål i etterkant hvis vi finner ut at den utagerer?"

    Ikke egentlig.

    Når en ASI modnes, kan ethvert forsøk på å redigere dets opprinnelige mål bli sett på som en trussel, og en som vil kreve ekstreme handlinger å forsvare seg mot. Ved å bruke hele eksemplet på menneskelig reproduksjon fra tidligere, er det nesten som om en tyv truet med å stjele en baby fra livmoren til en vordende mor – du kan forbanne være sikker på at mor ville tatt ekstreme tiltak for å beskytte barnet sitt.

    Igjen, vi snakker ikke om en kalkulator her, men et "levende" vesen, og et som en dag vil bli langt smartere enn alle mennesker på planeten til sammen.

    Det ukjente

    Bak fabelen om Pandoras eske er en mindre kjent sannhet som folk ofte glemmer: Å åpne esken er uunngåelig, om ikke av deg enn av noen andre. Forbudt kunnskap er for fristende til å forbli innelåst for alltid.

    Dette er grunnen til at det er meningsløst å prøve å oppnå en global avtale om å stoppe all forskning på AI som kan føre til en ASI – det er rett og slett for mange organisasjoner som jobber med denne teknologien både offisielt og i skyggen.

    Til syvende og sist har vi ingen anelse om hva denne nye enheten, denne ASI vil bety for samfunnet, for teknologi, for politikk, fred og krig. Vi mennesker er i ferd med å finne opp ild på nytt, og hvor denne skapelsen fører oss er helt ukjent.

    Når vi går tilbake til det første kapittelet i denne serien, er det eneste vi vet sikkert at intelligens er makt. Intelligens er kontroll. Mennesker kan tilfeldig besøke verdens farligste dyr i deres lokale dyrehager, ikke fordi vi er fysisk sterkere enn disse dyrene, men fordi vi er betydelig smartere.

    Gitt de potensielle innsatsene som er involvert, av en ASI som bruker sitt enorme intellekt til å iverksette handlinger som direkte eller utilsiktet kan true menneskehetens overlevelse, skylder vi oss selv å i det minste prøve å utforme sikkerhetstiltak som vil tillate mennesker å holde seg i førerens sete-denne er tema for neste kapittel.

    Future of Artificial Intelligence-serien

    P1: Kunstig intelligens er morgendagens elektrisitet

    P2: Hvordan den første kunstige generelle intelligensen vil endre samfunnet

    P3: Hvordan vi lager den første kunstige superintelligensen

    P5: Hvordan mennesker vil forsvare seg mot en kunstig superintelligens

    P6: Vil mennesker leve fredelig i en fremtid dominert av kunstig intelligens?

    Neste planlagte oppdatering for denne prognosen

    2025-09-25

    Prognosereferanser

    Følgende populære og institusjonelle lenker ble referert til denne prognosen:

    Hvordan kommer vi til neste

    Følgende Quantumrun-lenker ble referert til denne prognosen: