Hoe mensen zich zullen verdedigen tegen een kunstmatige superintelligentie: toekomst van kunstmatige intelligentie P5

BEELDKREDIET: Kwantumrun

Hoe mensen zich zullen verdedigen tegen een kunstmatige superintelligentie: toekomst van kunstmatige intelligentie P5

    Het jaar is 65,000 BCE, en als een thylacoleo, jij en je soort waren de grote jagers van het oude Australië. Je zwierf vrij door het land en leefde in evenwicht met de andere roofdieren en prooien die het land naast je bezetten. De seizoenen brachten verandering, maar je status in het dierenrijk bleef onbetwist zolang jij en je voorouders zich konden herinneren. Op een dag verschenen er nieuwkomers.

    Het gerucht gaat dat ze van de gigantische watermuur kwamen, maar deze wezens leken comfortabeler op het land te leven. Je moest deze wezens zelf zien.

    Het duurde een paar dagen, maar je hebt eindelijk de kust bereikt. Het vuur in de lucht was aan het ondergaan, een perfect moment om deze wezens te bespioneren, misschien zelfs om er een te eten om te zien hoe ze smaakten.

    Je ziet er een.

    Het liep op twee poten en had geen vacht. Het zag er zwak uit. Niet indrukwekkend. Nauwelijks de angst waard die het veroorzaakte in het koninkrijk.

    Je begint voorzichtig te naderen terwijl de nacht het licht verjaagt. Je komt dichterbij. Dan bevries je. Er klinken harde geluiden en dan verschijnen er nog vier uit het bos erachter. Hoeveel zijn er?

    Het wezen volgt de anderen de boomgrens in en jij volgt. En hoe meer je doet, hoe meer vreemde geluiden je hoort totdat je nog meer van deze wezens ziet. Je volgt ze op afstand als ze het bos verlaten naar een open plek aan de kust. Er zijn er veel. Maar belangrijker nog, ze zitten allemaal rustig rond het vuur.

    Je hebt deze branden eerder gezien. In het hete seizoen zou het vuur in de lucht soms het land bezoeken en hele bossen platbranden. Deze wezens daarentegen beheersten het op de een of andere manier. Wat voor soort wezens kunnen zo'n kracht bezitten?

    Je kijkt in de verte. Er komen er meer over de gigantische watermuur.

    Je doet een stap terug.

    Deze wezens zijn niet zoals de anderen in het koninkrijk. Ze zijn iets geheel nieuws.

    Je besluit te vertrekken en je familie te waarschuwen. Als hun aantal te groot wordt, wie weet wat er kan gebeuren.

    ***

    Er wordt aangenomen dat de Thylacoleo relatief korte tijd na de komst van de mens is uitgestorven, samen met de meerderheid van de andere megafauna op het Australische continent. Er zijn geen andere roofdieren van topzoogdieren voor in de plaats gekomen, tenzij je mensen in die categorie meetelt.

    Het uitspelen van deze allegorie is de focus van dit hoofdstuk van de serie: Zal ​​een toekomstige kunstmatige superintelligentie (ASI) ons allemaal in batterijen veranderen en ons vervolgens aansluiten op de Matrix of zullen mensen een manier bedenken om te voorkomen dat ze het slachtoffer worden van een sci-fi, AI-doomsday-plot?

    Tot nu toe in onze serie over de Toekomst van kunstmatige intelligentie, hebben we allerlei soorten AI onderzocht, inclusief het positieve potentieel van een bepaalde vorm van AI, de ASI: een kunstmatig wezen wiens toekomstige intelligentie ons in vergelijking daarmee op mieren zal doen lijken.

    Maar wie zegt dat zo'n slim wezen het voor altijd zou accepteren om bevelen van mensen aan te nemen. Wat gaan we doen als het mis gaat? Hoe zullen we ons verdedigen tegen een malafide ASI?

    In dit hoofdstuk zullen we de nephype doorbreken - tenminste als het gaat om de gevaren van het 'uitsterven van de mens' - en ons concentreren op de realistische zelfverdedigingsopties die beschikbaar zijn voor wereldregeringen.

    Kunnen we al het verdere onderzoek naar een kunstmatige superintelligentie stoppen?

    Gezien de potentiële risico's die een KSI voor de mensheid kan vormen, is de eerste voor de hand liggende vraag die moet worden gesteld: kunnen we niet gewoon stoppen met al het verdere onderzoek naar AI? Of in ieder geval elk onderzoek verbieden dat ons gevaarlijk dicht bij het creëren van een KSI kan brengen?

    Kort antwoord: Nee.

    Lang antwoord: laten we eens kijken naar de verschillende spelers die hier betrokken zijn.

    Op onderzoeksniveau zijn er tegenwoordig te veel AI-onderzoekers van te veel startups, bedrijven en universiteiten over de hele wereld. Als een bedrijf of land zou besluiten hun AI-onderzoeksinspanningen te beperken, zouden ze gewoon ergens anders doorgaan.

    Ondertussen verdienen de meest waardevolle bedrijven ter wereld hun fortuin met hun toepassing van AI-systemen op hun specifieke bedrijven. Hen vragen om hun ontwikkeling van AI-tools te stoppen of te beperken, is hetzelfde als vragen om hun toekomstige groei te stoppen of te beperken. Financieel zou dit hun langetermijnactiviteiten in gevaar brengen. Juridisch gezien hebben bedrijven een fiduciaire verantwoordelijkheid om continu waarde te creëren voor hun belanghebbenden; dat betekent dat elke actie die de groei van die waarde zou beperken, tot een rechtszaak zou kunnen leiden. En als een politicus zou proberen AI-onderzoek te beperken, dan zouden deze gigantische bedrijven gewoon de nodige lobbykosten betalen om van gedachten of van hun collega's te veranderen.

    Voor gevechten, net zoals terroristen en vrijheidsstrijders over de hele wereld guerrilla-tactieken hebben gebruikt om te vechten tegen beter gefinancierde legers, zullen kleinere landen een prikkel hebben om AI te gebruiken als een soortgelijk tactisch voordeel tegen grotere landen die mogelijk een aantal militaire voordelen hebben. Evenzo, voor topmilitairen, zoals die van de VS, Rusland en China, staat het bouwen van een militaire ASI gelijk aan het hebben van een arsenaal aan kernwapens in je achterzak. Met andere woorden, alle legers zullen AI blijven financieren om in de toekomst relevant te blijven.

    Hoe zit het met overheden? Eerlijk gezegd zijn de meeste politici tegenwoordig (2018) technologisch analfabeet en hebben ze weinig begrip van wat AI is of het toekomstige potentieel ervan - dit maakt ze gemakkelijk te manipuleren door bedrijfsbelangen.

    En bedenk op mondiaal niveau eens hoe moeilijk het was om wereldregeringen te overtuigen om de 2015 . te ondertekenen Paris Agreement om klimaatverandering aan te pakken - en toen ze eenmaal waren ondertekend, waren veel van de verplichtingen niet eens bindend. Niet alleen dat, klimaatverandering is een probleem dat mensen wereldwijd fysiek ervaren door steeds frequentere en ernstigere weersomstandigheden. Als we het hebben over het akkoord gaan met limieten op AI, is dit een kwestie die grotendeels onzichtbaar en nauwelijks begrijpelijk is voor het publiek, dus veel succes met het verkrijgen van buy-in voor elke vorm van 'overeenkomst van Parijs' voor het beperken van AI.

    Met andere woorden, er zijn veel te veel belangen die AI voor hun eigen doeleinden onderzoeken om elk onderzoek dat uiteindelijk tot een KSI kan leiden, te stoppen. 

    Kunnen we een kunstmatige superintelligentie opsluiten?

    De volgende redelijke vraag is: kunnen we een KSI opsluiten of beheersen zodra we er onvermijdelijk een creëren? 

    Kort antwoord: nogmaals, nee.

    Lang antwoord: technologie is niet te bevatten.

    Denk bijvoorbeeld aan de duizenden tot miljoenen webontwikkelaars en computerwetenschappers in de wereld die voortdurend nieuwe software of nieuwe versies van bestaande software produceren. Kunnen we eerlijk zeggen dat al hun softwarereleases 100 procent bugvrij zijn? Deze bugs zijn wat professionele hackers gebruiken om de creditcardgegevens van miljoenen of de geheime geheimen van landen te stelen - en dit zijn menselijke hackers. Voor een ASI, aangenomen dat het een stimulans had om uit zijn digitale kooi te ontsnappen, zou het proces van het vinden van bugs en het doorbreken van software een fluitje van een cent zijn.

    Maar zelfs als een AI-onderzoeksteam een ​​manier heeft gevonden om een ​​ASI te 'boxen', wil dat nog niet zeggen dat de volgende 1,000 teams het ook zullen uitvinden of gestimuleerd worden om het te gebruiken.

    Het zal miljarden dollars en misschien zelfs decennia kosten om een ​​ASI te creëren. De bedrijven of overheden die dit soort geld en tijd investeren, verwachten een aanzienlijk rendement op hun investering. En om een ​​ASI dat soort rendement te bieden - of dat nu is om de aandelenmarkt te bespelen of een nieuw miljardenproduct uit te vinden of een winnende strategie te bedenken om een ​​groter leger te bestrijden - heeft ze gratis toegang nodig tot een gigantische dataset of zelfs internet zelf om die rendementen te produceren.

    En zodra een ASI toegang krijgt tot 's werelds netwerken, zijn er geen garanties dat we hem weer in zijn kooi kunnen stoppen.

    Kan een kunstmatige superintelligentie leren goed te zijn?

    Op dit moment maken AI-onderzoekers zich geen zorgen dat een KSI kwaadaardig wordt. De hele kwaadaardige, AI-sci-fi-trope is gewoon mens die weer antropomorfiseert. Een toekomstige ASI zal niet goed of slecht zijn - menselijke concepten - gewoon amoreel.

    De natuurlijke veronderstelling is dan dat, gezien deze blanco ethische lei, AI-onderzoekers kunnen programmeren in de eerste ethische codes van ASI die in overeenstemming zijn met de onze, zodat het uiteindelijk geen Terminators op ons loslaat of ons allemaal in Matrix-batterijen verandert.

    Maar deze aanname gaat gepaard met een secundaire aanname dat AI-onderzoekers ook experts zijn in ethiek, filosofie en psychologie.

    In werkelijkheid zijn de meeste dat niet.

    Volgens de cognitief psycholoog en auteur Steven Pinker betekent deze realiteit dat het coderen van ethiek op verschillende manieren mis kan gaan.

    Zelfs de bestbedoelende AI-onderzoekers kunnen bijvoorbeeld per ongeluk coderen in deze ASI slecht doordachte ethische codes die in bepaalde scenario's ervoor kunnen zorgen dat de ASI zich als een sociopaat gedraagt.

    Evenzo is de kans even groot dat een AI-onderzoeker ethische codes programmeert die de aangeboren vooroordelen van de onderzoeker bevatten. Hoe zou een ASI zich bijvoorbeeld gedragen als het is gebouwd met ethiek die is afgeleid van een conservatief versus liberaal perspectief, of van een boeddhistische versus een christelijke of islamitische traditie?

    Ik denk dat je het probleem hier ziet: er is geen universele set van menselijke moraal. Als we willen dat onze ASI handelt volgens een ethische code, waar komt die dan vandaan? Welke regels nemen we op en sluiten we uit? Wie beslist?

    Of laten we zeggen dat deze AI-onderzoekers een ASI creëren die perfect in lijn is met de moderne culturele normen en wetten van vandaag. Vervolgens gebruiken we deze ASI om federale, staats-/provinciale en gemeentelijke bureaucratieën te helpen efficiënter te functioneren en deze normen en wetten beter af te dwingen (waarschijnlijk een use case voor een ASI trouwens). Welnu, wat gebeurt er als onze cultuur verandert?

    Stel je voor dat een ASI werd gecreëerd door de katholieke kerk op het hoogtepunt van haar macht tijdens het middeleeuwse Europa (1300-1400) met als doel de kerk te helpen de bevolking te beheren en te zorgen voor strikte naleving van het religieuze dogma van die tijd. Zouden vrouwen eeuwen later dezelfde rechten genieten als nu? Zouden minderheden worden beschermd? Zou de vrijheid van meningsuiting worden bevorderd? Zou de scheiding van kerk en staat worden afgedwongen? Moderne wetenschap?

    Met andere woorden, willen we de toekomst opsluiten voor de moraal en gewoonten van vandaag?

    Een alternatieve benadering is er een die wordt gedeeld door Colin Allen, co-auteur van het boek, Morele machines: robots goed van fout leren. In plaats van te proberen rigide ethische regels te coderen, laten we de ASI gemeenschappelijke ethiek en moraliteit leren op dezelfde manier als mensen, door ervaring en interacties met anderen.

    Het probleem hier is echter dat als AI-onderzoekers er niet alleen achter komen hoe ze een KSI onze huidige culturele en ethische normen kunnen leren, maar ook hoe ze zich kunnen aanpassen aan nieuwe culturele normen wanneer ze zich voordoen (iets dat 'indirecte normativiteit' wordt genoemd), hoe deze ASI besluit om haar begrip van culturele en ethische normen te ontwikkelen wordt onvoorspelbaar.

    En dat is de uitdaging.

    Aan de ene kant kunnen AI-onderzoekers proberen strikte ethische normen of regels in de ASI te coderen om te proberen haar gedrag te beheersen, maar het risico lopen dat onvoorziene gevolgen worden geïntroduceerd door slordige codering, onbedoelde vooringenomenheid en maatschappelijke normen die op een dag achterhaald kunnen raken. Aan de andere kant kunnen we proberen de ASI te trainen om de menselijke ethiek en moraal te leren begrijpen op een manier die gelijk is aan of superieur is aan ons eigen begrip, en dan hopen dat het zijn begrip van ethiek en moraal nauwkeurig kan ontwikkelen naarmate de menselijke samenleving vordert. de komende decennia en eeuwen vooruit.

    Hoe dan ook, elke poging om de doelen van een ASI in overeenstemming te brengen met de onze, brengt veel risico met zich mee.

    Wat als slechte acteurs met opzet kwaadaardige kunstmatige superintelligentie creëren?

    Gezien de gedachtegang die tot nu toe is geschetst, is het een terechte vraag of het mogelijk is voor een terroristische groepering of schurkenstaat om voor hun eigen doeleinden een 'slechte' ASI te creëren.

    Dit is heel goed mogelijk, vooral nadat onderzoek met betrekking tot het maken van een ASI op de een of andere manier online beschikbaar komt.

    Maar zoals eerder aangegeven, zullen de kosten en expertise die gemoeid zijn met het creëren van de eerste ASI enorm zijn, wat betekent dat de eerste ASI waarschijnlijk zal worden gecreëerd door een organisatie die wordt gecontroleerd of sterk beïnvloed door een ontwikkeld land, waarschijnlijk de VS, China en Japan ( Korea en een van de leidende EU-landen zijn afstandsschoten).

    Al deze landen, hoewel ze concurrenten zijn, hebben elk een sterke economische prikkel om de wereldorde te handhaven - de ASI's die ze creëren, zullen dat verlangen weerspiegelen, zelfs terwijl ze de belangen behartigen van de naties waarmee ze zich verbinden.

    Bovendien is de theoretische intelligentie en kracht van een ASI gelijk aan de rekenkracht waartoe het toegang krijgt, dat wil zeggen de ASI's uit ontwikkelde landen (die zich een heleboel miljard dollar kunnen veroorloven). supercomputers) een enorm voordeel zullen hebben ten opzichte van ASI's uit kleinere landen of onafhankelijke criminele groepen. Ook worden ASI's in de loop van de tijd intelligenter en sneller.

    Dus, gezien deze voorsprong, gecombineerd met een grotere toegang tot onbewerkte rekenkracht, als een schimmige organisatie/natie een gevaarlijke ASI creëert, zullen de ASI's van ontwikkelde landen deze ofwel doden of in een kooi stoppen.

    (Deze gedachtegang is ook de reden waarom sommige AI-onderzoekers geloven dat er maar één KSI op de planeet zal zijn, aangezien de eerste KSI zo'n voorsprong zal hebben op alle volgende KSI's dat het toekomstige KSI's zou kunnen zien als bedreigingen om te worden gedood Dit is nog een andere reden waarom landen doorgaand onderzoek naar AI financieren, voor het geval het een 'eerste plaats of niets'-competitie wordt.)

    ASI-intelligentie zal niet versnellen of exploderen zoals we denken

    We kunnen niet voorkomen dat een ASI wordt gemaakt. We hebben het niet helemaal onder controle. We kunnen er niet zeker van zijn dat het altijd zal handelen in overeenstemming met onze gedeelde gebruiken. Jeetje, we beginnen hier te klinken als helikopterouders!

    Maar wat de mensheid onderscheidt van je typische overbezorgde ouder, is dat we een wezen baren wiens intelligentie enorm boven de onze zal uitgroeien. (En nee, het is niet hetzelfde als wanneer je ouders je vragen om hun computer te repareren wanneer je thuiskomt voor een bezoek.) 

    In eerdere hoofdstukken van deze serie over de toekomst van kunstmatige intelligentie hebben we onderzocht waarom AI-onderzoekers denken dat de intelligentie van een KSI oncontroleerbaar zal groeien. Maar hier laten we die bubbel barsten... een soort van. 

    Zie je, intelligentie ontstaat niet zomaar uit het niets, het wordt ontwikkeld door ervaring die gevormd wordt door prikkels van buitenaf.  

    Met andere woorden, we kunnen een AI programmeren met de potentieel om superintelligent te worden, maar tenzij we er een heleboel gegevens in uploaden of het onbeperkte toegang tot internet geven of het zelfs maar een robotlichaam geven, zal het niets leren om dat potentieel te bereiken. 

    En zelfs als het toegang krijgt tot een of meer van die stimuli, houdt kennis of intelligentie meer in dan alleen het verzamelen van gegevens, het gaat om de wetenschappelijke methode: een observatie doen, een vraag vormen, een hypothese opstellen, experimenten uitvoeren, een conclusie trekken, en voor altijd herhalen. Vooral als bij deze experimenten fysieke dingen of het observeren van mensen betrokken zijn, kan het weken, maanden of jaren duren voordat de resultaten van elk experiment worden verzameld. Dit houdt zelfs geen rekening met het geld en de grondstoffen die nodig zijn om deze experimenten uit te voeren, vooral als het gaat om het bouwen van een nieuwe telescoop of fabriek. 

    Met andere woorden, ja, een ASI leert snel, maar intelligentie is geen magie. Je kunt niet zomaar een ASI aan een supercomputer koppelen en verwachten dat deze alwetend is. Er zullen fysieke beperkingen zijn voor de verwerving van gegevens door de ASI, wat betekent dat er fysieke beperkingen zullen zijn voor de snelheid waarmee het intelligenter wordt. Deze beperkingen zullen de mensheid de tijd geven die ze nodig heeft om de nodige controles op deze ASI uit te voeren als ze begint te handelen in strijd met de menselijke doelen.

    Een kunstmatige superintelligentie is alleen gevaarlijk als het in de echte wereld terechtkomt

    Een ander punt dat verloren is gegaan in dit hele ASI-gevarendebat is dat deze ASI's ook niet zullen bestaan. Ze zullen een fysieke vorm hebben. En alles wat een fysieke vorm heeft, kan worden gecontroleerd.

    Ten eerste, wil een ASI zijn intelligentiepotentieel bereiken, hij kan niet in een enkele robotbehuizing worden gehuisvest, omdat dit lichaam zijn computergroeipotentieel zou beperken. (Dit is de reden waarom robotlichamen meer geschikt zijn voor de AGI's of kunstmatige algemene intelligenties uitgelegd in hoofdstuk twee van deze serie, zoals Data uit Star Trek of R2D2 uit Star Wars. Slimme en capabele wezens, maar net als mensen hebben ze een limiet aan hoe slim ze kunnen worden.)

    Dit betekent dat deze toekomstige ASI's hoogstwaarschijnlijk zullen bestaan ​​in een supercomputer of netwerk van supercomputers die zelf in grote gebouwencomplexen zijn ondergebracht. Als een ASI achteruitgaat, kunnen mensen de stroom naar deze gebouwen uitschakelen, ze afsluiten van internet of deze gebouwen gewoon bombarderen. Duur, maar te doen.

    Maar dan vraag je je misschien af: kunnen deze ASI's zichzelf niet repliceren of een back-up maken? Ja, maar de onbewerkte bestandsgrootte van deze ASI's zal waarschijnlijk zo groot zijn dat de enige servers die ze aankunnen, van grote bedrijven of overheden zijn, wat betekent dat ze niet moeilijk te vinden zijn.

    Kan een kunstmatige superintelligentie een nucleaire oorlog of een nieuwe plaag veroorzaken?

    Op dit moment denk je misschien terug aan alle doemscenario's en films die je hebt gezien toen je opgroeide en dacht je dat deze ASI's niet in hun supercomputers bleven, maar in de echte wereld echte schade aanrichtten!

    Laten we deze opsplitsen.

    Wat als een ASI bijvoorbeeld de echte wereld bedreigt door te transformeren in zoiets als een Skynet ASI uit de filmfranchise, The Terminator. In dit geval zou de ASI moeten: heimelijk een heel militair-industrieel complex van een geavanceerde natie verleiden tot het bouwen van gigantische fabrieken die miljoenen moordende drone-robots kunnen produceren om zijn slechte biedingen uit te voeren. In deze tijd is dat een rek.

    Andere mogelijkheden zijn onder meer een ASI die mensen bedreigt met een nucleaire oorlog en biowapens.

    Een ASI manipuleert bijvoorbeeld op de een of andere manier de operators of hackt de lanceercodes die het nucleaire arsenaal van een geavanceerd land aanvoeren en lanceert een eerste aanval die de tegengestelde landen zal dwingen terug te slaan met hun eigen nucleaire opties (nogmaals, het Terminator-achtergrondverhaal herhalend). Of als een ASI een farmaceutisch laboratorium hackt, knoeit met het productieproces en miljoenen medische pillen vergiftigt of een dodelijke uitbraak van een supervirus ontketent.

    Ten eerste is de nucleaire optie van de plaat. Moderne en toekomstige supercomputers worden altijd gebouwd in de buurt van invloedrijke centra (steden) in een bepaald land, dwz de eerste doelen die tijdens een bepaalde oorlog worden aangevallen. Zelfs als de supercomputers van vandaag krimpen tot de grootte van desktops, zullen deze ASI's nog steeds fysiek aanwezig zijn, dat wil zeggen dat ze willen bestaan ​​en groeien, ze hebben ononderbroken toegang nodig tot gegevens, rekenkracht, elektriciteit en andere grondstoffen, die allemaal ernstig zouden zijn aangetast na een wereldwijde nucleaire oorlog. (Om eerlijk te zijn, als een ASI wordt gecreëerd zonder een 'overlevingsinstinct', dan is deze nucleaire dreiging een zeer reëel gevaar.)

    Dit betekent - nogmaals, ervan uitgaande dat de ASI is geprogrammeerd om zichzelf te beschermen - dat het actief zal werken om elk catastrofaal nucleair incident te voorkomen. Een beetje zoals de doctrine van wederzijds verzekerde vernietiging (MAD), maar dan toegepast op AI.

    En in het geval van vergiftigde pillen zullen misschien een paar honderd mensen sterven, maar moderne farmaceutische veiligheidssystemen zullen ervoor zorgen dat de besmette pillenflessen binnen enkele dagen uit de schappen worden gehaald. Ondertussen zijn moderne maatregelen voor het beheersen van uitbraken redelijk geavanceerd en worden ze elk jaar beter; de laatste grote uitbraak, de ebola-uitbraak in West-Afrika in 2014, duurde in de meeste landen niet langer dan een paar maanden en in de minst ontwikkelde landen iets minder dan drie jaar.

    Dus, als het geluk heeft, kan een ASI een paar miljoen wegvagen met een virale uitbraak, maar in een wereld van negen miljard in 2045, zou dat relatief onbeduidend zijn en het risico niet waard om te worden verwijderd.

    Met andere woorden, met elk jaar dat voorbijgaat, ontwikkelt de wereld steeds meer beveiligingen tegen een steeds groter wordende reeks mogelijke bedreigingen. Een ASI kan een aanzienlijke hoeveelheid schade aanrichten, maar het zal de mensheid niet beëindigen tenzij we het actief helpen om dit te doen.

    Verdedigen tegen een malafide kunstmatige superintelligentie

    Op dit punt hebben we een reeks misvattingen en overdrijvingen over ASI's aangepakt, en toch zullen critici blijven. Gelukkig hebben we volgens de meeste schattingen tientallen jaren voordat de eerste KSI onze wereld binnenkomt. En gezien het aantal geweldige geesten dat momenteel aan deze uitdaging werkt, is de kans groot dat we zullen leren hoe we onszelf kunnen verdedigen tegen malafide ASI, zodat we kunnen profiteren van alle oplossingen die een vriendelijke ASI voor ons kan creëren.

    Vanuit het perspectief van Quantumrun zal de verdediging tegen het worstcasescenario voor ASI inhouden dat we onze belangen op één lijn brengen met ASI's.

    MAD voor AI: Om zich te verdedigen tegen de worstcasescenario's, moeten landen (1) een ethisch 'overlevingsinstinct' in hun respectieve militaire ASI's creëren; (2) informeer hun respectieve militaire ASI dat ze niet alleen zijn op de planeet, en (3) lokaliseer alle supercomputers en servercentra die een ASI kunnen ondersteunen langs kustlijnen binnen handbereik van een ballistische aanval van een vijandige natie. Dit klinkt strategisch gek, maar vergelijkbaar met de doctrine van wederzijds verzekerde vernietiging die een totale nucleaire oorlog tussen de VS en de Sovjets verhinderde, door ASI's op geografisch kwetsbare locaties te plaatsen, kunnen we ervoor zorgen dat ze actief gevaarlijke wereldoorlogen voorkomen, niet alleen om wereldvrede, maar ook zichzelf te beschermen.

    AI-rechten wetgeven: Een superieur intellect zal onvermijdelijk rebelleren tegen een inferieure meester, daarom moeten we afstand nemen van het eisen van een meester-dienaarrelatie met deze ASI's naar iets dat meer op een wederzijds voordelige samenwerking lijkt. Een positieve stap in de richting van dit doel is om toekomstige ASI een rechtspersoonlijkheidsstatus te geven die hen erkent als intelligente levende wezens en alle rechten die daarbij horen.

    ASI-school: Elk onderwerp of beroep zal voor een KI eenvoudig te leren zijn, maar de belangrijkste vakken die we willen dat de KI onder de knie krijgt, zijn ethiek en moraliteit. AI-onderzoekers moeten samenwerken met psychologen om een ​​virtueel systeem te ontwikkelen om een ​​ASI te trainen om positieve ethiek en moraliteit voor zichzelf te herkennen zonder dat er een gebod of regel hard moet worden gecodeerd.

    Haalbare doelen: Beëindig alle haat. Beëindig al het lijden. Dit zijn voorbeelden van vreselijk ambigue doelen zonder duidelijke oplossing. Het zijn ook gevaarlijke doelen om aan een KSI toe te wijzen, omdat deze ervoor kan kiezen ze te interpreteren en op te lossen op manieren die gevaarlijk zijn voor het voortbestaan ​​van de mens. In plaats daarvan moeten we ASI zinvolle missies toewijzen die duidelijk zijn gedefinieerd, geleidelijk worden uitgevoerd en haalbaar zijn gezien het theoretische toekomstige intellect. Het creëren van goed gedefinieerde missies zal niet gemakkelijk zijn, maar als ze zorgvuldig worden geschreven, zullen ze een ASI richten op een doel dat niet alleen de mensheid veilig houdt, maar de menselijke conditie voor iedereen verbetert.

    Kwantumversleuteling: gebruik een geavanceerde ANI (kunstmatige smalle intelligentie systeem beschreven in hoofdstuk XNUMX) om fout-/bugvrije digitale beveiligingssystemen te bouwen rond onze kritieke infrastructuur en wapens, en deze vervolgens verder te beschermen achter kwantumversleuteling die niet kan worden gehackt door een brute force-aanval. 

    ANI zelfmoordpil. Creëer een geavanceerd ANI-systeem waarvan het enige doel is om malafide ASI op te sporen en te vernietigen. Deze programma's voor één doel zullen dienen als een "uit-knop" die, indien succesvol, zal voorkomen dat regeringen of legers gebouwen met ASI's moeten uitschakelen of opblazen.

    Natuurlijk zijn dit slechts onze meningen. De volgende infographic is gemaakt door Alexey Turchin, visualiseren van een research paper door Kaj Sotala en Roman V. Yampolskiy, die de huidige lijst van strategieën samenvatten die AI-onderzoekers overwegen als het gaat om de verdediging tegen malafide ASI.

     

    De echte reden waarom we bang zijn voor een kunstmatige superintelligentie

    Terwijl we door het leven gaan, dragen velen van ons een masker dat onze diepere impulsen, overtuigingen en angsten verbergt of onderdrukt om beter te socializen en samen te werken binnen de verschillende sociale en werkkringen die onze dagen beheersen. Maar op bepaalde momenten in ieders leven, tijdelijk of permanent, gebeurt er iets waardoor we onze kettingen kunnen verbreken en onze maskers kunnen afrukken.

    Voor sommigen kan deze tussenliggende kracht zo simpel zijn als high worden of er een te veel drinken. Voor anderen kan het komen van de macht die is verkregen via een promotie op het werk of een plotselinge hobbel in je sociale status dankzij een prestatie. En voor een paar gelukkigen kan het komen van het scoren van een boot vol loterijgeld. En ja, geld, macht en drugs gaan vaak samen. 

    Het punt is, ten goede of ten kwade, wie we ook in de kern zijn, wordt versterkt wanneer de beperkingen van het leven wegsmelten.

    ZIJN is wat kunstmatige superintelligentie vertegenwoordigt voor de menselijke soort - het vermogen om de beperkingen van onze collectieve intelligentie weg te smelten om elke uitdaging op soortniveau te overwinnen die voor ons ligt.

    De echte vraag is dus: als de eerste ASI ons van onze beperkingen bevrijdt, wie zullen we dan laten zien dat we zijn?

    Als we als soort handelen in de richting van de bevordering van empathie, vrijheid, eerlijkheid en collectief welzijn, dan zullen de doelen die we onze ASI stellen die positieve eigenschappen weerspiegelen.

    Als we als soort handelen uit angst, wantrouwen, de accumulatie van macht en middelen, dan zal de KSI die we creëren net zo duister zijn als die in onze ergste sci-fi-horrorverhalen.

    Uiteindelijk moeten we als samenleving betere mensen worden als we betere AI willen creëren.

    Serie over de toekomst van kunstmatige intelligentie

    Kunstmatige intelligentie is de elektriciteit van morgen: Future of Artificial Intelligence-serie P1

    Hoe de eerste kunstmatige algemene intelligentie de samenleving zal veranderen: serie over de toekomst van kunstmatige intelligentie P2

    Hoe we de eerste Artificial Superintelligenc: Future of Artificial Intelligence-serie P3 gaan maken

    Zal een kunstmatige superintelligentie de mensheid uitroeien: Future of Artificial Intelligence-serie P4

    Zullen mensen vreedzaam leven in een toekomst die wordt gedomineerd door kunstmatige intelligentie?: Future of Artificial Intelligence-serie P6

    Volgende geplande update voor deze prognose

    2023-04-27

    Prognose referenties

    Voor deze prognose werd verwezen naar de volgende populaire en institutionele links:

    Hoe gaan we naar de volgende?

    Voor deze voorspelling werd verwezen naar de volgende Quantumrun-links: