Hvordan vi lager den første Artificial Superintelligence: Future of Artificial Intelligence P3

BILDEKREDITT: Quantumrun

Hvordan vi lager den første Artificial Superintelligence: Future of Artificial Intelligence P3

    Dypt inn i andre verdenskrig dampet nazistiske styrker gjennom store deler av Europa. De hadde avanserte våpen, effektiv krigsindustri, fanatisk drevet infanteri, men fremfor alt hadde de en maskin kalt Enigma. Denne enheten tillot nazistiske styrker å samarbeide trygt over lange avstander ved å sende morsekodede meldinger til hverandre over standard kommunikasjonslinjer; det var en chiffermaskin som var uinntagelig for menneskelige kodeknekkere. 

    Heldigvis fant de allierte en løsning. De trengte ikke lenger et menneskesinn for å bryte Enigma. I stedet, gjennom en oppfinnelse av avdøde Alan Turing, bygde de allierte et revolusjonerende nytt verktøy kalt britiske bombe, en elektromekanisk enhet som til slutt dechiffrerte nazistenes hemmelige kode, og til slutt hjalp dem med å vinne krigen.

    Denne Bombe la grunnlaget for det som ble den moderne datamaskinen.

    IJ Good, en britisk matematiker og kryptolog, jobbet sammen med Turing under Bombe-utviklingsprosjektet. Han så tidlig på sluttspillet denne nye enheten en dag kunne føre til. I en 1965 papir, han skrev:

    «La en ultraintelligent maskin defineres som en maskin som langt kan overgå alle intellektuelle aktiviteter til ethvert menneske, uansett hvor smart det er. Siden design av maskiner er en av disse intellektuelle aktivitetene, kan en ultraintelligent maskin designe enda bedre maskiner; det ville da utvilsomt være en "intelligenseksplosjon", og menneskets intelligens ville bli liggende langt bak... Dermed er den første ultraintelligente maskinen den siste oppfinnelsen mennesket noensinne trenger å lage, forutsatt at maskinen er føyelig nok til å fortelle oss hvordan for å holde det under kontroll."

    Skaper den første kunstige superintelligensen

    Så langt i vår Future of Artificial Intelligence-serie har vi definert de tre brede kategoriene for kunstig intelligens (AI), fra kunstig smal intelligens (ANI) til kunstig generell intelligens (AGI), men i dette seriekapittelet vil vi fokusere på den siste kategorien – den som avler enten spenning eller panikkanfall blant AI-forskere – kunstig superintelligens (ASI).

    For å vikle hodet rundt hva en ASI er, må du tenke tilbake til det siste kapittelet der vi skisserte hvordan AI-forskere tror de vil lage den første AGI. I utgangspunktet vil det kreve en kombinasjon av store data som mater bedre algoritmer (de som spesialiserer seg på selvforbedring og menneskelignende læringsevner) plassert i stadig kraftigere datamaskinvare.

    I det kapittelet skisserte vi også hvordan et AGI-sinn (når det først får disse selvforbedrings- og læringsevnene som vi mennesker tar for gitt) til slutt vil utkonkurrere det menneskelige sinnet i form av overlegen tankehastighet, forbedret hukommelse, utrettelige prestasjoner og umiddelbar oppgradering.

    Men her er det viktig å merke seg at en AGI bare vil forbedre seg selv til grensene for maskinvaren og dataene den har tilgang til; denne grensen kan være stor eller liten avhengig av robotkroppen vi gir den eller omfanget av datamaskiner vi gir den tilgang til.

    I mellomtiden er forskjellen mellom en AGI og en ASI at sistnevnte, teoretisk sett, aldri vil eksistere i fysisk form. Den vil fungere helt innenfor en superdatamaskin eller nettverk av superdatamaskiner. Avhengig av målene til skaperne, kan den også få full tilgang til alle data som er lagret på Internett, samt hvilken som helst enhet eller person som mater data inn i og over Internett. Dette betyr at det ikke vil være noen praktisk grense for hvor mye denne ASI kan lære og hvor mye den kan forbedre seg selv. 

    Og det er gnisten. 

    Forstå etterretningseksplosjonen

    Denne prosessen med selvforbedring som AI-er til slutt vil få når de blir AGI-er (en prosess AI-fellesskapet kaller rekursiv selvforbedring) kan potensielt slå ut av en positiv tilbakemeldingssløyfe som ser omtrent slik ut:

    En ny AGI blir opprettet, gitt tilgang til en robotkropp eller et stort datasett, og deretter gitt den enkle oppgaven å utdanne seg selv, å forbedre intelligensen. Til å begynne med vil denne AGI-en ha IQ-en til et spedbarn som sliter med å forstå nye konsepter. Over tid lærer den nok til å nå IQen til en gjennomsnittlig voksen, men det stopper ikke her. Ved å bruke denne nyvunne IQen for voksne, blir det mye enklere og raskere å fortsette denne forbedringen til et punkt der IQen matcher den til de smarteste kjente menneskene. Men igjen, det stopper ikke der.

    Denne prosessen sammensettes på hvert nytt intelligensnivå, og følger loven om å akselerere retur til den når det uberegnelige nivået av superintelligens – med andre ord, hvis den ikke kontrolleres og gis ubegrensede ressurser, vil en AGI selv forbedre seg til en ASI, et intellekt som har aldri eksistert i naturen før.

    Dette er hva IJ Good først identifiserte da han beskrev denne 'intelligenseksplosjonen' eller det moderne AI-teoretikere, som Nick Bostrom, kaller AIs 'takeoff'-hendelse.

    Forstå en kunstig superintelligens

    På dette tidspunktet tenker nok noen av dere at den viktigste forskjellen mellom menneskelig intelligens og en ASIs intelligens er hvor raskt begge sider kan tenke. Og selv om det er sant at denne teoretiske fremtidige ASI vil tenke raskere enn mennesker, er denne evnen allerede ganske vanlig i dagens datasektor – smarttelefonen vår tenker (beregner) raskere enn et menneskesinn, en superdatamaskin tenker millioner av ganger raskere enn en smarttelefon, og en fremtidig kvantedatamaskin vil fortsatt tenke raskere. 

    Nei, hastighet er ikke funksjonen til intelligens vi forklarer her. Det er kvaliteten. 

    Du kan få fart på hjernen til samojeden eller corgien din så mye du vil, men det betyr ikke en ny forståelse av hvordan du tolker språk eller abstrakte ideer. Selv med et tiår eller to ekstra, vil ikke disse hundene plutselig forstå hvordan de skal lage eller bruke verktøy, enn si forstå de finere forskjellene mellom et kapitalistisk og sosialistisk økonomisk system.

    Når det kommer til intelligens, opererer mennesker på et annet plan enn dyr. På samme måte, hvis en ASI når sitt fulle teoretiske potensial, vil sinnet deres operere på et nivå langt utenfor rekkevidden til det gjennomsnittlige moderne mennesket. For noen sammenheng, la oss se på applikasjonene til disse ASI.

    Hvordan kan en kunstig superintelligens fungere sammen med menneskeheten?

    Forutsatt at en bestemt regjering eller selskap lykkes med å lage en ASI, hvordan kan de bruke den? I følge Bostrom er det tre separate, men beslektede former disse ASI kan ha:

    • Oracle. Her ville vi samhandle med en ASI på samme måte som vi allerede gjør med Googles søkemotor; vi stiller det et spørsmål, men uansett hvor komplekst spørsmålet er, vil ASI svare perfekt på det og på en måte som er skreddersydd for deg og spørsmålets kontekst.
    • Genie. I dette tilfellet vil vi tildele en ASI en spesifikk oppgave, og den vil utføres som beordret. Forskning en kur mot kreft. Ferdig. Finn alle planetene som er gjemt i etterslepet av 10 års bilder fra NASAs Hubble-romteleskop. Ferdig. Konstruer en fungerende fusjonsreaktor for å løse menneskehetens energibehov. Abracadabra.
    • Sovereign. Her er ASI tildelt et åpent oppdrag og gitt frihet til å utføre det. Stjel FoU-hemmelighetene fra vår bedriftskonkurrent. "Lett." Oppdag identiteten til alle utenlandske spioner som gjemmer seg innenfor grensene våre. "På den." Sikre fortsatt økonomisk velstand i USA. "Ikke noe problem."

    Nå, jeg vet hva du tenker, alt dette høres ganske langt ut. Det er derfor det er viktig å huske at alle problemer/utfordringer der ute, selv de som har slått verdens smarteste hoder til dags dato, er alle løsbare. Men vanskeligheten ved et problem måles ved at intellektet takler det.

    Med andre ord, jo større sinnet er brukt på en utfordring, jo lettere blir det å finne en løsning på nevnte utfordring. Enhver utfordring. Det er som en voksen som ser på et spedbarn som sliter med å forstå hvorfor han ikke får plass til en firkantet blokk i en rund åpning – for den voksne vil det være en barnelek å vise spedbarnet at blokken skal passe gjennom den firkantede åpningen.

    På samme måte, skulle denne fremtidige ASI nå sitt fulle potensial, ville dette sinnet bli det mektigste intellektet i det kjente universet – kraftig nok til å løse enhver utfordring, uansett hvor kompleks den er. 

    Dette er grunnen til at mange AI-forskere kaller ASI for den siste oppfinnelsen mennesket noensinne vil måtte gjøre. Hvis vi blir overbevist om å jobbe sammen med menneskeheten, kan den hjelpe oss med å løse alle verdens mest presserende problemer. Vi kan til og med be den om å eliminere all sykdom og avslutte aldring slik vi kjenner den. Menneskeheten kan for første gang jukse døden permanent og gå inn i en ny tid med velstand.

    Men det motsatte er også mulig. 

    Intelligens er makt. Hvis dårlig administrert eller instruert av dårlige skuespillere, kan denne ASI-en bli det ultimate verktøyet for undertrykkelse, eller den kan utrydde menneskeheten totalt – tenk Skynet fra Terminator eller Arkitekten fra Matrix-filmene.

    I sannhet er ingen av ytterpunktene sannsynlige. Fremtiden er alltid langt mer rotete enn utopister og distopister forutsier. Det er derfor nå som vi forstår konseptet med en ASI, vil resten av denne serien utforske hvordan en ASI vil påvirke samfunnet, hvordan samfunnet vil forsvare seg mot en useriøs ASI, og hvordan fremtiden kan se ut hvis mennesker og AI lever side om side -side. Les videre.

    Future of Artificial Intelligence-serien

    Artificial Intelligence er morgendagens elektrisitet: Future of Artificial Intelligence-serien P1

    Hvordan den første kunstige generelle intelligensen vil endre samfunnet: Future of Artificial Intelligence-serien P2

    Vil en kunstig superintelligens utrydde menneskeheten?: Future of Artificial Intelligence-serien P4

    Hvordan mennesker vil forsvare seg mot en Artificial Superintelligence: Future of Artificial Intelligence-serien P5

    Vil mennesker leve fredelig i en fremtid dominert av kunstig intelligens?: Future of Artificial Intelligence-serien P6

    Neste planlagte oppdatering for denne prognosen

    2023-04-27

    Prognosereferanser

    Følgende populære og institusjonelle lenker ble referert til denne prognosen:

    Intelligence.org
    Intelligence.org
    Intelligence.org
    YouTube – World Economic Forum

    Følgende Quantumrun-lenker ble referert til denne prognosen: