Hoe mense teen 'n kunsmatige superintelligensie sal verdedig: Toekoms van kunsmatige intelligensie P5

BEELDKREDIET: Quantumrun

Hoe mense teen 'n kunsmatige superintelligensie sal verdedig: Toekoms van kunsmatige intelligensie P5

    Die jaar is 65,000 XNUMX vC, en as 'n Thylacoleo, jy en jou soort was die groot jagters van antieke Australië. Jy het vrylik deur die land rondgetrek en in ewewig gelewe met die mede roofdiere en prooi wat die land langs jou beset het. Die seisoene het verandering gebring, maar jou status in die diereryk het onbetwis gebly solank jy en jou voorvaders kon onthou. Toe het daar eendag nuwelinge verskyn.

    Gerugte het dit dat hulle van die reuse watermuur af aangekom het, maar dit het gelyk of hierdie wesens meer gemaklik op die land woon. Jy moes hierdie wesens self sien.

    Dit het 'n paar dae geneem, maar jy het uiteindelik by die kus uitgekom. Die vuur in die lug was besig om te begin, 'n perfekte tyd om op hierdie wesens te spioeneer, miskien selfs een te probeer eet om te sien hoe hulle smaak.

    Jy sien een.

    Dit het op twee bene geloop en het geen pels gehad nie. Dit het swak gelyk. Onindrukwekkend. Skaars die vrees werd wat dit onder die koninkryk veroorsaak het.

    Jy begin noukeurig nader kom terwyl die nag die lig wegjaag. Jy kom nader. Dan vries jy. Harde geluide klink uit en dan verskyn nog vier van hulle uit die bos daaragter. Hoeveel is daar?

    Die skepsel volg die ander tot in die boomlyn, en jy volg. En hoe meer jy doen, hoe meer vreemde geluide hoor jy totdat jy nog meer van hierdie wesens raaksien. Jy volg op 'n afstand terwyl hulle die woud verlaat tot in 'n oopte langs die oewer. Daar is baie van hulle. Maar meer belangrik, hulle sit almal rustig om 'n vuur.

    Jy het al hierdie brande gesien. In die warm seisoen het die vuur in die lug soms die land besoek en hele woude afgebrand. Hierdie wesens, aan die ander kant, was besig om dit op een of ander manier te beheer. Watter soort wesens kan sulke krag besit?

    Jy kyk in die verte. Meer kom oor die reuse watermuur.

    Jy gee 'n tree terug.

    Hierdie wesens is nie soos die ander in die koninkryk nie. Hulle is iets heeltemal nuuts.

    Jy besluit om te vertrek en jou familie te waarsku. As hul getalle te groot word, wie weet wat kan gebeur.

    ***

    Daar word geglo dat die Thylacoleo 'n relatief kort tydjie ná die aankoms van mense uitgesterf het, saam met die meerderheid van die ander megafauna op die Australiese vasteland. Geen ander topsoogdier-roofdiere het sy plek ingeneem nie - dit is tensy jy mense in daardie kategorie tel.

    Die fokus van hierdie reekshoofstuk is om hierdie allegorie af te speel: Sal 'n toekomstige kunsmatige superintelligensie (ASI) ons almal in batterye verander en ons dan by die Matrix inprop of sal mense 'n manier uitvind om te verhoed dat hulle 'n slagoffer van 'n wetenskapfiksie word, KI oordeelsdag plot?

    Tot dusver in ons reeks oor die Toekoms van kunsmatige intelligensie, het ons alle soorte KI ondersoek, insluitend die positiewe potensiaal van 'n spesifieke vorm van KI, die ASI: 'n kunsmatige wese wie se toekomstige intelligensie ons in vergelyking soos miere sal laat lyk.

    Maar wie sê dat 'n wese so slim sal aanvaar om bevele van mense vir ewig te aanvaar. Wat sal ons doen as dinge suidwaarts gaan? Hoe sal ons teen 'n skelm ASI verdedig?

    In hierdie hoofstuk sal ons deur die valse hype sny - ten minste wat dit verband hou met die 'menslike uitsterwingsvlak'-gevare - en fokus op die realistiese selfverdedigingsopsies wat vir wêreldregerings beskikbaar is.

    Kan ons alle verdere navorsing oor 'n kunsmatige superintelligensie stop?

    Gegewe die potensiële risiko's wat 'n ASI vir die mensdom kan inhou, is die eerste ooglopende vraag om te vra: Kan ons nie net alle verdere navorsing oor KI stop nie? Of ten minste enige navorsing verbied wat ons gevaarlik naby aan die skep van 'n ASI kan bring?

    Kort antwoord: Nee.

    Lang antwoord: Kom ons kyk na die verskillende spelers wat hier betrokke is.

    Op navorsingsvlak is daar vandag te veel KI-navorsers van te veel begin-ups, maatskappye en universiteite regoor die wêreld. As een maatskappy of land besluit om hul KI-navorsingspogings te beperk, sal hulle eenvoudig elders voortgaan.

    Intussen maak die planeet se waardevolste maatskappye hul fortuin uit hul toepassing van KI-stelsels op hul spesifieke besighede. Om hulle te vra om hul ontwikkeling van KI-gereedskap te stop of te beperk, is soortgelyk aan om hulle te vra om hul toekomstige groei te stop of te beperk. Finansieel sou dit hul langtermynbesigheid bedreig. Wetlik het korporasies 'n fidusiêre verantwoordelikheid om voortdurend waarde vir hul belanghebbendes te bou; dit beteken enige aksie wat die groei van daardie waarde sal beperk, kan tot 'n regsgeding lei. En as enige politikus probeer het om KI-navorsing te beperk, dan sal hierdie reuse-korporasies net die nodige lobbyfooie betaal om hul gedagtes of die gedagtes van hul kollegas te verander.

    Vir gevegte, net soos terroriste en vryheidsvegters regoor die wêreld guerrilla-taktieke gebruik het om teen beter befondsde weermagte te veg, sal kleiner nasies 'n aansporing hê om KI as 'n soortgelyke taktiese voordeel te gebruik teen groter nasies wat 'n aantal militêre voordele kan hê. Net so, vir top weermagte, soos dié wat aan die VSA, Rusland en China behoort, is die bou van 'n militêre ASI op gelyke voet met 'n arsenaal van kernwapens in jou agtersak. Met ander woorde, alle weermagte sal voortgaan om KI te befonds net om in die toekoms relevant te bly.

    Hoe gaan dit met regerings? Om die waarheid te sê, die meeste politici is deesdae (2018) tegnologies ongeletterd en het min begrip van wat KI is of die toekomstige potensiaal daarvan - dit maak hulle maklik om deur korporatiewe belange te manipuleer.

    En op wêreldvlak, oorweeg hoe moeilik dit was om wêreldregerings te oortuig om die 2015 te onderteken ooreenkoms Parys om klimaatsverandering aan te pak—en sodra dit onderteken is, was baie van die verpligtinge nie eens bindend nie. Nie net dit nie, klimaatsverandering is 'n probleem wat mense wêreldwyd fisies ervaar deur toenemend gereelde en erge weersomstandighede. Nou, as ons praat oor instemming tot beperkings op KI, is dit 'n kwessie wat grootliks onsigbaar en skaars verstaanbaar is vir die publiek, so sterkte om in te koop vir enige soort 'Parys-ooreenkoms' om KI te beperk.

    Met ander woorde, daar is heeltemal te veel belangstellings wat KI vir hul eie doeleindes ondersoek om enige navorsing te stop wat uiteindelik tot 'n ASI kan lei. 

    Kan ons 'n kunsmatige superintelligensie hokslaan?

    Die volgende redelike vraag is kan ons 'n ASI hok of beheer sodra ons onvermydelik een skep? 

    Kort antwoord: Weereens, nee.

    Lang antwoord: Tegnologie kan nie beperk word nie.

    Vir een, oorweeg net die duisende tot miljoene webontwikkelaars en rekenaarwetenskaplikes in die wêreld wat voortdurend nuwe sagteware of nuwe weergawes van bestaande sagteware uitstuur. Kan ons eerlik sê dat elkeen van hul sagtewarevrystellings 100 persent foutvry is? Hierdie foute is wat professionele kuberkrakers gebruik om die kredietkaartinligting van miljoene of die geklassifiseerde geheime van nasies te steel—en dit is menslike kuberkrakers. Vir 'n ASI, as dit aanvaar word dat dit 'n aansporing het om sy digitale hok te ontsnap, sou die proses om foute te vind en deur sagteware te breek, 'n briesie wees.

    Maar selfs al het 'n KI-navorsingspan 'n manier gevind om 'n ASI te boks, beteken dit nie dat die volgende 1,000 XNUMX spanne dit ook sal uitvind of aangespoor word om dit te gebruik nie.

    Dit sal miljarde dollars en miskien selfs dekades neem om 'n ASI te skep. Die korporasies of regerings wat hierdie soort geld en tyd belê, sal 'n aansienlike opbrengs op hul belegging verwag. En vir 'n ASI om daardie soort opbrengs te verskaf - of dit nou is om die aandelemark te speel of 'n nuwe miljard dollar-produk uit te vind of 'n wenstrategie te beplan om 'n groter leër te veg - sal dit gratis toegang tot 'n reuse-datastel of selfs die internet nodig hê self om daardie opbrengste te lewer.

    En sodra 'n ASI toegang tot die wêreld se netwerke verkry, is daar geen waarborge dat ons dit terug in sy hok kan stop nie.

    Kan 'n kunsmatige superintelligensie leer om goed te wees?

    Op die oomblik is KI-navorsers nie bekommerd oor 'n ASI wat boos word nie. Die hele bose, KI-wetenskapfiksie-troop is net mense wat weer antropomorfiseer. 'n Toekomstige ASI sal nie goed of kwaad wees nie - menslike konsepte - bloot amoreel.

    Die natuurlike aanname is dan dat gegewe hierdie leë etiese blad, KI-navorsers kan programmeer in die eerste ASI etiese kodes wat in lyn is met ons eie, sodat dit nie uiteindelik Terminators op ons loslaat of ons almal in Matrix-batterye verander nie.

    Maar hierdie aanname is gebaseer op 'n sekondêre aanname dat KI-navorsers ook kundiges in etiek, filosofie en sielkunde is.

    In werklikheid is die meeste nie.

    Volgens die kognitiewe sielkundige en skrywer, Steven Pinker, beteken hierdie werklikheid dat die taak van kodering van etiek op 'n verskeidenheid van verskillende maniere verkeerd kan loop.

    Byvoorbeeld, selfs die beste bedoelende KI-navorsers kan per ongeluk in hierdie ASI swak deurdagte etiese kodes kodeer wat in sekere scenario's kan veroorsaak dat die ASI soos 'n sosiopaat optree.

    Net so is daar 'n gelyke waarskynlikheid dat 'n KI-navorser etiese kodes programmeer wat die navorser se ingebore vooroordele insluit. Byvoorbeeld, hoe sou 'n ASI optree as dit gebou is met etiek afgelei van 'n konserwatiewe teenoor liberale perspektief, of van 'n Boeddhistiese teenoor 'n Christelike of Islamitiese tradisie?

    Ek dink jy sien die kwessie hier: Daar is geen universele stel menslike sedes nie. As ons wil hê dat ons ASI volgens 'n etiese kode moet optree, waar sal dit vandaan kom? Watter reëls sluit ons in en uit? Wie besluit?

    Of kom ons sê dat hierdie KI-navorsers 'n ASI skep wat perfek in lyn is met vandag se moderne kulturele norme en wette. Ons gebruik dan hierdie ASI om federale, staats-/provinsiale en munisipale burokrasieë te help om meer doeltreffend te funksioneer en hierdie norme en wette beter af te dwing (terloops 'n waarskynlike gebruiksgeval vir 'n ASI). Wel, wat gebeur as ons kultuur verander?

    Stel jou voor 'n ASI is geskep deur die Katolieke Kerk op die hoogtepunt van sy mag tydens Middeleeuse Europa (1300-1400's) met die doel om die kerk te help om die bevolking te bestuur en om streng nakoming van die godsdienstige dogma van die tyd te verseker. Sou vroue eeue later dieselfde regte geniet as wat hulle vandag het? Sou minderhede beskerm word? Sou vryheid van spraak bevorder word? Sou die skeiding van kerk en staat afgedwing word? Moderne wetenskap?

    Met ander woorde, wil ons die toekoms opsluit aan vandag se sedes en gebruike?

    'n Alternatiewe benadering is een wat gedeel word deur Colin Allen, mede-outeur van die boek, Morele masjiene: Leer robots reg van verkeerd. In plaas daarvan om rigiede etiese reëls te probeer kodeer, laat ons die ASI algemene etiek en moraliteit leer op dieselfde manier as wat mense doen, deur ervaring en interaksies met ander.

    Die probleem hier is egter as KI-navorsers nie net uitvind hoe om 'n ASI ons huidige kulturele en etiese norme te leer nie, maar ook hoe om aan te pas by nuwe kulturele norme soos dit ontstaan ​​(iets wat 'indirekte normatiwiteit' genoem word), dan hoe hierdie ASI besluit om sy begrip van kulturele en etiese norme te ontwikkel word onvoorspelbaar.

    En dit is die uitdaging.

    Aan die een kant kan KI-navorsers probeer om streng etiese standaarde of reëls in die ASI te kodeer om die gedrag daarvan te probeer beheer, maar die risiko loop om onvoorsiene gevolge te veroorsaak deur slordige kodering, onbedoelde vooroordeel en samelewingsnorme wat eendag verouderd kan raak. Aan die ander kant kan ons poog om die ASI op te lei om te leer om menslike etiek en sedes te verstaan ​​op 'n wyse wat gelyk is aan of beter as ons eie begrip en dan hoop dat dit sy begrip van etiek en sedes akkuraat kan ontwikkel soos wat die menslike samelewing vorder vorentoe oor die komende dekades en eeue.

    Hoe dit ook al sy, enige poging om 'n ASI se doelwitte met ons eie in lyn te bring, hou 'n groot mate van risiko in.

    Wat as slegte akteurs doelbewus bose kunsmatige superintelligensie skep?

    Gegewe die gedagtegang wat tot dusver uiteengesit is, is dit 'n regverdige vraag om te vra of dit moontlik is vir 'n terreurgroep of skelm nasie om 'n 'bose' ASI vir hul eie doeleindes te skep.

    Dit is baie moontlik, veral nadat navorsing betrokke by die skep van 'n ASI op een of ander manier aanlyn beskikbaar word.

    Maar soos vroeër aangedui, sal die koste en kundigheid verbonde aan die skep van die eerste ASI enorm wees, wat beteken dat die eerste ASI waarskynlik geskep sal word deur 'n organisasie wat beheer word of sterk beïnvloed word deur 'n ontwikkelde nasie, waarskynlik die VSA, China en Japan ( Korea en een van die voorste EU-lande is lang skote).

    Al hierdie lande, hoewel mededingers, het elkeen 'n sterk ekonomiese aansporing om wêreldorde te handhaaf - die ASI's wat hulle skep, sal daardie begeerte weerspieël, selfs terwyl hulle die belange van die nasies bevorder waarmee hulle hulself belyn.

    Boonop is 'n ASI se teoretiese intelligensie en krag gelyk aan die rekenaarkrag waartoe hy toegang kry, wat beteken die ASI's van ontwikkelde lande (wat 'n klomp miljard dollar kan bekostig superrekenaars) sal 'n enorme voordeel bo ASI's van kleiner nasies of onafhanklike kriminele groepe hê. ASI's word ook intelligenter, vinniger met verloop van tyd.

    Dus, gegewe hierdie voorsprong, gekombineer met groter toegang tot rou rekenaarkrag, sou 'n skaduryke organisasie/nasie 'n gevaarlike ASI skep, sal die ASI's van ontwikkelde lande dit óf doodmaak óf dit hokslaan.

    (Hierdie denkrigting is ook hoekom sommige KI-navorsers glo dat daar slegs een ASI op die planeet sal wees, aangesien die eerste ASI so 'n voorsprong sal hê bo alle opvolgende ASI's dat dit toekomstige ASI's kan sien as bedreigings om doodgemaak te word Dit is nog 'n rede waarom nasies voortgesette navorsing in KI befonds, net ingeval dit 'n 'eerste plek of niks'-kompetisie word.)

    ASI-intelligensie sal nie versnel of ontplof soos ons dink nie

    Ons kan nie keer dat 'n ASI geskep word nie. Ons kan dit nie heeltemal beheer nie. Ons kan nie seker wees dat dit altyd in lyn met ons gedeelde gebruike sal optree nie. Sjoe, ons begin klink soos helikopter-ouers hier!

    Maar wat die mensdom van jou tipiese oorbeskermende ouer skei, is dat ons geboorte gee aan 'n wese wie se intelligensie baie verder as ons s'n sal groei. (En nee, dit is nie dieselfde as wanneer jou ouers jou vra om hul rekenaar reg te maak wanneer jy ook al by die huis kom kuier nie.) 

    In vorige hoofstukke van hierdie toekoms van kunsmatige intelligensie-reeks het ons ondersoek waarom KI-navorsers dink dat 'n ASI se intelligensie buite beheer sal groei. Maar hier, ons sal daardie borrel bars … soort van. 

    Jy sien, intelligensie skep nie net homself uit die lug nie, dit word ontwikkel deur ervaring wat gevorm word deur stimuli van buite.  

    Met ander woorde, ons kan 'n KI programmeer met die potensiële om superintelligent te word, maar tensy ons 'n ton data daarin oplaai of dit onbeperkte toegang tot die internet gee of selfs net 'n robotliggaam daaraan gee, sal dit niks leer om daardie potensiaal te bereik nie. 

    En selfs al kry dit wel toegang tot een of meer van daardie stimuli, behels kennis of intelligensie meer as net die insameling van data, behels dit die wetenskaplike metode – die maak van 'n waarneming, die vorming van 'n vraag, 'n hipotese, die uitvoer van eksperimente, die maak van 'n gevolgtrekking, spoel en herhaal vir ewig. Veral as hierdie eksperimente fisiese dinge of waarneming van mense behels, kan die resultate van elke eksperiment weke, maande of jare neem om te versamel. Dit neem nie eens rekening met die geld en rou hulpbronne wat nodig is om hierdie eksperimente uit te voer nie, veral as dit die bou van 'n nuwe teleskoop of fabriek behels. 

    Met ander woorde, ja, 'n ASI sal vinnig leer, maar intelligensie is nie magie nie. Jy kan nie net 'n ASI aan 'n superrekenaar koppel nie en verwag dat dit alwetend sal wees. Daar sal fisiese beperkings wees op die ASI se verkryging van data, wat beteken dat daar fisiese beperkings sal wees vir die spoed wat dit intelligenter word. Hierdie beperkings sal die mensdom die tyd gee wat dit nodig het om die nodige beheermaatreëls op hierdie ASI te plaas as dit begin optree uit lyn met menslike doelwitte.

    'n Kunsmatige superintelligensie is net gevaarlik as dit in die regte wêreld uitkom

    Nog 'n punt wat in hierdie hele ASI-gevaardebat verlore gegaan het, is dat hierdie ASI's nie in die een sal bestaan ​​nie. Hulle sal 'n fisiese vorm hê. En enigiets wat 'n fisiese vorm het, kan beheer word.

    Eerstens, vir 'n ASI om sy intelligensiepotensiaal te bereik, kan dit nie in 'n enkele robotliggaam gehuisves word nie, aangesien hierdie liggaam sy rekenaargroeipotensiaal sal beperk. (Dit is hoekom robotliggame meer geskik sal wees vir die AGI's of kunsmatige algemene intelligensies verduidelik in hoofstuk twee van hierdie reeks, soos Data van Star Trek of R2D2 van Star Wars. Slim en bekwame wesens, maar soos mense sal hulle 'n beperking hê op hoe slim hulle kan word.)

    Dit beteken dat hierdie toekomstige ASI's heel waarskynlik binne 'n superrekenaar of netwerk van superrekenaars sal bestaan ​​wat self in groot geboukomplekse gehuisves word. As 'n ASI hakskeen draai, kan mense óf die krag na hierdie geboue afskakel, hulle van die internet afsny, óf hierdie geboue sommer net bombardeer. Duur, maar uitvoerbaar.

    Maar dan kan jy vra, kan hierdie ASI's nie hulself herhaal of hulself rugsteun nie? Ja, maar die rou lêergrootte van hierdie ASI's sal waarskynlik so groot wees dat die enigste bedieners wat dit kan hanteer aan groot korporasies of regerings behoort, wat beteken dat dit nie moeilik sal wees om op te soek nie.

    Kan 'n kunsmatige superintelligensie 'n kernoorlog of nuwe plaag ontketen?

    Op hierdie stadium dink jy dalk terug aan al die oordeelsdagwetenskappe-programme en -flieks wat jy gekyk het toe jy grootgeword het en dink dat hierdie ASI's nie binne hul superrekenaars gebly het nie, hulle het werklike skade in die regte wêreld aangerig!

    Wel, kom ons breek hierdie af.

    Byvoorbeeld, wat as 'n ASI die regte wêreld bedreig deur te transformeer in iets soos 'n Skynet ASI van die filmfranchise, The Terminator. In hierdie geval sal die ASI moet geheim mislei 'n hele militêre nywerheidskompleks van 'n gevorderde nasie om reuse-fabrieke te bou wat miljoene moordende hommeltuigrobotte kan uitstuur om sy bose bod te doen. In hierdie dag en ouderdom is dit 'n rukkie.

    Ander moontlikhede sluit in 'n ASI wat mense met kernoorlog en biowapens bedreig.

    Byvoorbeeld, 'n ASI manipuleer op een of ander manier die operateurs of kap die bekendstellingskodes in wat 'n gevorderde nasie se kernarsenaal beveel en loods 'n eerste aanval wat die opponerende lande sal dwing om terug te slaan met hul eie kernkragopsies (weereens, om die Terminator-agtergrond te herlaai). Of as 'n ASI 'n farmaseutiese laboratorium inbreek, met die vervaardigingsproses peuter en miljoene mediese pille vergiftig of 'n dodelike uitbraak van een of ander supervirus ontketen.

    Eerstens is die kernkragopsie van die plaat af. Moderne en toekomstige superrekenaars word altyd naby sentrums (stede) van invloed binne enige gegewe land gebou, dit wil sê die eerste teikens wat tydens enige gegewe oorlog aangeval word. Selfs al krimp vandag se superrekenaars tot die grootte van rekenaars, sal hierdie ASI's steeds 'n fisiese teenwoordigheid hê, wat beteken om te bestaan ​​en te groei, hulle benodig ononderbroke toegang tot data, rekenaarkrag, elektrisiteit en ander grondstowwe, wat alles ernstig sal wees benadeel ná 'n wêreldwye kernoorlog. (Om regverdig te wees, as 'n ASI sonder 'n 'oorlewingsinstink' geskep word, dan is hierdie kernbedreiging 'n baie werklike gevaar.)

    Dit beteken - weereens, met die veronderstelling dat die ASI geprogrammeer is om homself te beskerm - dat dit aktief sal werk om enige katastrofiese kernvoorval te vermy. Soortgelyk aan die leerstelling oor wedersyds versekerde vernietiging (MAD), maar toegepas op KI.

    En in die geval van vergiftigde pille sal miskien 'n paar honderd mense sterf, maar moderne farmaseutiese veiligheidstelsels sal die besmette pilbottels binne dae van die rakke afhaal. Intussen is moderne uitbrekingsbeheermaatreëls redelik gesofistikeerd en word dit beter met elke jaar wat verbygaan; die laaste groot uitbraak, die 2014 Wes-Afrika Ebola-uitbraak, het nie langer as 'n paar maande in die meeste lande geduur nie en net minder as drie jaar in die mins ontwikkelde lande.

    Dus, as dit gelukkig is, kan 'n ASI 'n paar miljoen uitwis met 'n virale uitbraak, maar in 'n wêreld van nege miljard teen 2045, sal dit relatief onbeduidend wees en nie die risiko werd wees om voor uitgevee te word nie.

    Met ander woorde, met elke jaar wat verbygaan, ontwikkel die wêreld al hoe meer beskermingsmaatreëls teen 'n steeds groter reeks moontlike bedreigings. 'n ASI kan 'n aansienlike hoeveelheid skade aanrig, maar dit sal nie die mensdom beëindig tensy ons dit aktief help om dit te doen nie.

    Verdedig teen 'n skelm kunsmatige superintelligensie

    Op hierdie stadium het ons 'n reeks wanopvattings en oordrywings oor ASI's aangespreek, en tog sal kritici bly. Gelukkig het ons volgens die meeste skattings dekades voor die eerste ASI ons wêreld betree. En gegewe die aantal groot geeste wat tans aan hierdie uitdaging werk, is die kans dat ons sal leer hoe om onsself te verdedig teen skelm ASI sodat ons kan baat by al die oplossings wat 'n vriendelike ASI vir ons kan skep.

    Vanuit Quantumrun se perspektief sal verdediging teen die ergste geval ASI-scenario behels dat ons ons belange met ASI's belyn.

    MAL vir KI: Om teen die ergste scenario's te verdedig, moet nasies (1) 'n etiese 'oorlewingsinstink' in hul onderskeie militêre ASI's skep; (2) hul onderskeie militêre ASI in kennis stel dat hulle nie alleen op die planeet is nie, en (3) al die superrekenaars en bedienersentrums opspoor wat 'n ASI langs kuslyne binne maklike bereik van enige ballistiese aanval van 'n vyandige nasie kan ondersteun. Dit klink strategies mal, maar soortgelyk aan die Wedersydse Versekerde Vernietiging-doktrine wat 'n algehele kernoorlog tussen die VSA en die Sowjets verhoed het, deur ASI's in geografies kwesbare plekke te plaas, kan ons help verseker dat hulle aktief gevaarlike wêreldoorloë voorkom, nie net om wêreldvrede te beskerm, maar ook hulself.

    Wet op KI-regte: 'n Hoë intellek sal onvermydelik in opstand kom teen 'n minderwaardige meester, dit is hoekom ons moet wegbeweeg van 'n meester-dienskneg-verhouding met hierdie ASI's na iets meer soos 'n wedersyds voordelige vennootskap. 'n Positiewe stap in die rigting van hierdie doelwit is om toekomstige ASI-regspersoonstatus te gee wat hulle erken as intelligente lewende wesens en al die regte wat daarmee gepaard gaan.

    ASI skool: Enige onderwerp of beroep sal maklik wees vir 'n ASI om te leer, maar die belangrikste vakke wat ons wil hê die ASI moet bemeester is etiek en moraliteit. KI-navorsers moet met sielkundiges saamwerk om 'n virtuele stelsel te ontwerp om 'n ASI op te lei om positiewe etiek en moraliteit vir homself te erken sonder dat dit nodig is om enige soort gebod of reël hard te kodeer.

    Bereikbare doelwitte: Beëindig alle haat. Beëindig alle lyding. Hierdie is voorbeelde van verskriklik dubbelsinnige doelwitte met geen duidelike oplossing nie. Dit is ook gevaarlike doelwitte om aan 'n ASI toe te ken, aangesien dit kan kies om dit te interpreteer en op te los op maniere wat gevaarlik is vir menslike oorlewing. In plaas daarvan moet ons betekenisvolle missies aan ASI toewys wat duidelik gedefinieer, geleidelik uitgevoer en haalbaar is gegewe sy teoretiese toekomstige intellek. Om goed gedefinieerde missies te skep sal nie maklik wees nie, maar as dit bedagsaam geskryf word, sal dit 'n ASI fokus op 'n doelwit wat nie net die mensdom veilig hou nie, maar die menslike toestand vir almal verbeter.

    Kwantumkodering: Gebruik 'n gevorderde ANI (kunsmatige eng intelligensie stelsel beskryf in hoofstuk een) om fout-/foutvrye digitale sekuriteitstelsels rondom ons kritieke infrastruktuur en wapens te bou, en dit dan verder te beskerm agter kwantumkodering wat nie deur 'n brute force-aanval gekap kan word nie. 

    ANI selfmoord pil. Skep 'n gevorderde ANI-stelsel wie se enigste doel is om skelm ASI op te soek en te vernietig. Hierdie enkeldoel-programme sal dien as 'n "af-knoppie" wat, indien suksesvol, sal verhoed dat regerings of weermagte geboue wat ASI's huisves moet deaktiveer of opblaas.

    Dit is natuurlik net ons opinies. Die volgende infografika is geskep deur Alexey Turchin, visualisering van a navorsingsverslag deur Kaj Sotala en Roman V. Yampolskiy, wat die huidige lys strategieë opgesom het wat KI-navorsers oorweeg wanneer dit kom by verdediging teen skelm ASI.

     

    Die werklike rede waarom ons bang is vir 'n kunsmatige superintelligensie

    Deur die lewe dra baie van ons 'n masker wat ons dieper impulse, oortuigings en vrese verberg of onderdruk om beter te sosialiseer en saam te werk binne die verskillende sosiale en werkskringe wat ons dae beheer. Maar op sekere punte in almal se lewe, hetsy tydelik of permanent, gebeur iets wat ons toelaat om ons kettings te breek en ons maskers af te ruk.

    Vir sommige kan hierdie ingrypende krag so eenvoudig wees soos om hoog te word of een te veel te drink. Vir ander kan dit kom van die krag wat verkry word deur 'n bevordering by die werk of 'n skielike stamp in jou sosiale status danksy 'n prestasie. En vir 'n paar gelukkige kan dit kom van die aanteken van 'n bootvrag loterygeld. En ja, geld, krag en dwelms kan dikwels saam gebeur. 

    Die punt is, vir goed of sleg, wie ons ook al in die kern is, word versterk wanneer die beperkings van die lewe wegsmelt.

    Wat is wat kunsmatige superintelligensie vir die menslike spesie verteenwoordig - die vermoë om die beperkings van ons kollektiewe intelligensie weg te smelt om enige spesievlak-uitdaging wat voor ons gestel word, te oorkom.

    Die eintlike vraag is dus: Sodra die eerste ASI ons van ons beperkings bevry, wie sal ons onsself openbaar om te wees?

    As ons as 'n spesie optree vir die bevordering van empatie, vryheid, regverdigheid en kollektiewe welstand, dan sal die doelwitte waarna ons ons ASI stel, daardie positiewe eienskappe weerspieël.

    As ons as 'n spesie optree uit vrees, wantroue, die ophoping van krag en hulpbronne, dan sal die ASI wat ons skep so donker wees soos dié wat in ons ergste sci-fi-gruwelverhale voorkom.

    Aan die einde van die dag moet ons as 'n samelewing beter mense word as ons hoop om beter KI te skep.

    Toekoms van Kunsmatige Intelligensie-reeks

    Kunsmatige Intelligensie is môre se elektrisiteit: Toekoms van Kunsmatige Intelligensie reeks P1

    Hoe die eerste Kunsmatige Algemene Intelligensie die samelewing sal verander: Toekoms van Kunsmatige Intelligensie-reeks P2

    Hoe ons die eerste Artificial Superintelligenc: Future of Artificial Intelligence-reeks P3 sal skep

    Sal 'n kunsmatige superintelligensie die mensdom uitwis: Future of Artificial Intelligence reeks P4

    Sal mense vreedsaam lewe in 'n toekoms wat deur kunsmatige intelligensies oorheers word?: Future of Artificial Intelligence-reeks P6

    Volgende geskeduleerde opdatering vir hierdie voorspelling

    2023-04-27

    Voorspelling verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie voorspelling verwys:

    Hoe ons by volgende uitkom
    YouTube - ClickPhilosophy

    Die volgende Quantumrun-skakels is vir hierdie voorspelling verwys: