Zal een kunstmatige superintelligentie de mensheid uitroeien? Toekomst van kunstmatige intelligentie P4

BEELDKREDIET: Kwantumrun

Zal een kunstmatige superintelligentie de mensheid uitroeien? Toekomst van kunstmatige intelligentie P4

    Er zijn bepaalde uitvindingen waar naties all-in op gaan. Dit zijn uitvindingen waarbij alles afhangt van de eerste zijn, en alles minder kan een strategische en dodelijke bedreiging vormen voor het voortbestaan ​​van een natie.

    Deze geschiedenisbepalende uitvindingen komen niet vaak voor, maar als ze dat doen, stopt de wereld en wordt een voorspelbare toekomst wazig.

    De laatste dergelijke uitvinding ontstond tijdens het ergste van de Tweede Wereldoorlog. Terwijl de nazi's terrein wonnen op alle fronten in de oude wereld, in de nieuwe wereld, met name in een geheime legerbasis buiten Los Alamos, waren de geallieerden hard aan het werk aan een wapen om alle wapens te beëindigen.

    Het project was aanvankelijk klein, maar groeide uit tot 130,000 mensen uit de VS, het VK en Canada, waaronder veel van 's werelds grootste denkers uit die tijd. Met de codenaam het Manhattan-project en een onbeperkt budget - ongeveer $ 23 miljard in dollars van 2018 - slaagde dit leger van menselijke vindingrijkheid er uiteindelijk in om de eerste atoombom te maken. Niet lang daarna eindigde de Tweede Wereldoorlog met twee atomaire knallen.

    Deze kernwapens luidden het atoomtijdperk in, introduceerden een totaal nieuwe energiebron en gaven de mensheid de mogelijkheid om zichzelf binnen enkele minuten uit te roeien – iets wat we ondanks de Koude Oorlog hebben vermeden.

    De creatie van een kunstmatige superintelligentie (ASI) is nog een andere historische uitvinding waarvan de kracht (zowel positief als destructief) de atoombom ver overtreft.

    In het laatste hoofdstuk van de serie Future of Artificial Intelligence hebben we onderzocht wat een ASI is en hoe onderzoekers van plan zijn er ooit een te bouwen. In dit hoofdstuk zullen we kijken naar welke organisaties het onderzoek naar kunstmatige intelligentie (AI) leiden, wat een KSI wil als het eenmaal een mensachtig bewustzijn heeft gekregen, en hoe het de mensheid kan bedreigen als het verkeerd wordt beheerd of als iemand onder invloed komt van niet zo leuke regimes.

    Wie werkt er aan een kunstmatige superintelligentie?

    Gezien hoe belangrijk de creatie van een KSI zal zijn voor de menselijke geschiedenis en hoe groot het voordeel is dat het de maker zal geven, zou het geen verrassing moeten zijn om te horen dat veel groepen indirect aan dit project werken.

    (Met indirect bedoelen we werken aan AI-onderzoek dat uiteindelijk de eerste zal creëren kunstmatige algemene intelligentie (AGI), dat zelf kort daarna zal leiden tot de eerste ASI.)

    Om te beginnen, als het om de krantenkoppen gaat, zijn de duidelijke leiders in geavanceerd AI-onderzoek de toptechnologiebedrijven in de VS en China. Aan het Amerikaanse front omvat dit bedrijven als Google, IBM en Microsoft, en in China omvat dit bedrijven als Tencent, Baidu en Alibaba. Maar aangezien het onderzoeken van AI relatief goedkoop is in vergelijking met het ontwikkelen van iets fysieks, zoals een betere kernreactor, is dit ook een veld waarin kleinere organisaties ook kunnen concurreren, zoals universiteiten, startups en … schimmige organisaties (gebruik je Bond-schurkenfantasie voor die).

    Maar achter de schermen komt de echte impuls achter AI-onderzoek van regeringen en hun legers. De economische en militaire prijs om als eerste een ASI te creëren is gewoon te groot (zie hieronder) om het risico te lopen achterop te raken. En de gevaren van de laatste zijn zijn onaanvaardbaar, althans voor bepaalde regimes.

    Gezien deze factoren, de relatief lage kosten van onderzoek naar AI, de oneindige commerciële toepassingen van geavanceerde AI en het economische en militaire voordeel om als eerste een KSI te creëren, geloven veel AI-onderzoekers dat de oprichting van een KSI onvermijdelijk is.

    Wanneer zullen we een kunstmatige superintelligentie creëren?

    In ons hoofdstuk over AGI's vermeldden we hoe een onderzoek onder top-AI-onderzoekers geloofde dat we de eerste AGI optimistisch tegen 2022, realistisch tegen 2040 en pessimistisch tegen 2075 zouden creëren.

    En in onze laatste hoofdstuk, schetsten we hoe het creëren van een KSI over het algemeen het resultaat is van het instrueren van een AGI om zichzelf oneindig te verbeteren en hem de middelen en vrijheid te geven om dit te doen.

    Om deze reden, terwijl het nog enkele decennia kan duren voordat een AGI is uitgevonden, kan het creëren van een ASI slechts een handvol jaren meer duren.

    Dit punt is vergelijkbaar met het concept van een 'computing overhang', gesuggereerd in een krant, mede geschreven door toonaangevende AI-denkers Luke Muehlhauser en Nick Bostrom. Kortom, als de creatie van een AGI achterblijft bij de huidige vooruitgang in rekencapaciteit, mogelijk gemaakt door de Wet van Moore, dan zal er tegen de tijd dat onderzoekers een AGI uitvinden zoveel goedkope rekenkracht beschikbaar zijn dat de AGI de capaciteit zal hebben het moet snel naar het niveau van ASI springen.

    Met andere woorden, als je eindelijk de krantenkoppen leest die aankondigen dat een of ander technologiebedrijf de eerste echte AGI heeft uitgevonden, verwacht dan niet lang daarna de aankondiging van de eerste ASI.

    In de geest van een kunstmatige superintelligentie?

    Oké, dus we hebben vastgesteld dat veel grote spelers met diepe zakken AI onderzoeken. En dan nadat de eerste AGI is uitgevonden, zullen we zien dat wereldregeringen (militairen) kort daarna groen licht geven voor de push naar een ASI om als eerste de wereldwijde AI (ASI) wapenwedloop te winnen.

    Maar als deze KSI eenmaal is gemaakt, hoe zal hij dan denken? Wat zal het willen?

    De vriendelijke hond, de zorgzame olifant, de schattige robot - als mensen hebben we de gewoonte om te proberen ons tot dingen te verhouden door ze te antropologiseren, dwz menselijke kenmerken toe te passen op dingen en dieren. Daarom is de natuurlijke eerste veronderstelling die mensen hebben als ze aan een KSI denken, dat als het eenmaal op de een of andere manier bij bewustzijn komt, het op dezelfde manier zal denken en zich zal gedragen als wij.

    Nou ja, niet noodzakelijk.

    Perceptie. Ten eerste vergeten de meesten dat perceptie relatief is. De manier waarop we denken wordt gevormd door onze omgeving, door onze ervaringen en vooral door onze biologie. Eerst uitgelegd in hoofdstuk drie onze Toekomst van de menselijke evolutie serie, overweeg het voorbeeld van ons brein:

    Het zijn onze hersenen die ons helpen de wereld om ons heen te begrijpen. En het doet dit niet door boven ons hoofd te zweven, rond te kijken en ons te besturen met een Xbox-controller; het doet dit door gevangen te zitten in een doos (onze noggins) en alle informatie te verwerken die het krijgt van onze zintuigen - onze ogen, neus, oren, enz.

    Maar net zoals doven en blinden veel kortere levens leiden in vergelijking met valide mensen, vanwege de beperkingen die hun handicap oplegt aan hoe ze de wereld kunnen waarnemen, kan hetzelfde worden gezegd voor alle mensen vanwege de beperkingen van onze basisvaardigheden. set van sensorische organen.

    Overweeg dit: onze ogen nemen minder dan een tien-biljoenste van alle lichtgolven waar. We kunnen geen gammastraling zien. We kunnen geen röntgenfoto's zien. We kunnen geen ultraviolet licht zien. En laat me niet beginnen over infrarood, microgolven en radiogolven!

    Alle grapjes terzijde, stel je voor hoe je leven eruit zou zien, hoe je de wereld zou kunnen waarnemen, hoe anders je geest zou kunnen werken als je meer zou kunnen zien dan het kleine stukje licht dat je ogen momenteel toelaten. Stel je op dezelfde manier voor hoe je de wereld zou waarnemen als je reukvermogen gelijk was aan dat van een hond of als je gehoor gelijk was aan dat van een olifant.

    Als mensen zien we de wereld in wezen door een kijkgaatje, en dat wordt weerspiegeld in de geest die we hebben ontwikkeld om die beperkte perceptie te begrijpen.

    Ondertussen wordt de eerste ASI geboren in een supercomputer. In plaats van organen, zal het toegang krijgen tot gigantische datasets, mogelijk (waarschijnlijk) zelfs toegang tot internet zelf. Onderzoekers zouden het toegang kunnen geven tot de CCTV-camera's en microfoons van een hele stad, de sensorische gegevens van drones en satellieten, en zelfs de fysieke vorm van een of meer robotlichamen.

    Zoals je je misschien kunt voorstellen, zal een geest geboren in een supercomputer, met directe toegang tot internet, tot miljoenen elektronische ogen en oren en een hele reeks andere geavanceerde sensoren, niet alleen anders denken dan wij, maar een geest die zinnig kan zijn. van al die zintuiglijke inputs zou ook oneindig superieur moeten zijn aan ons. Dit is een geest die volkomen vreemd zal zijn aan de onze en aan elke andere levensvorm op de planeet.

    Doelen. Het andere dat mensen aannemen, is dat zodra een KSI een bepaald niveau van superintelligentie bereikt, het onmiddellijk de wens zal realiseren om met zijn eigen doelen en doelstellingen te komen. Maar dat is ook niet noodzakelijk waar.

    Veel AI-onderzoekers zijn van mening dat de superintelligentie van een KSI en zijn doelen "orthogonaal" zijn, dat wil zeggen, ongeacht hoe slim het wordt, de doelen van de KSI zullen hetzelfde blijven. 

    Dus of een AI oorspronkelijk is gemaakt om een ​​betere luier te ontwerpen, het rendement op de aandelenmarkt te maximaliseren of strategieën te bedenken om een ​​vijand op het slagveld te verslaan, zodra het het niveau van ASI bereikt, verandert het oorspronkelijke doel niet; wat zal veranderen, is de effectiviteit van de KSI om die doelen te bereiken.

    Maar hierin schuilt het gevaar. Als een KSI zichzelf optimaliseert voor een specifiek doel, dan kunnen we er verdomd zeker van zijn dat het optimaliseert voor een doel dat in lijn is met de doelen van de mensheid. Anders kunnen de resultaten dodelijk worden.

    Vormt een kunstmatige superintelligentie een existentieel risico voor de mensheid?

    Dus wat als een KSI wordt losgelaten op de wereld? Als het optimaliseert om de aandelenmarkt te domineren of de militaire suprematie van de VS te verzekeren, zal de KSI zichzelf dan niet inhouden binnen die specifieke doelen?

    Mogelijk.

    Tot nu toe hebben we besproken hoe een KSI geobsedeerd zal zijn door het doel of de doelen die het oorspronkelijk was toegewezen en onmenselijk bekwaam zal zijn in het nastreven van die doelen. De vangst is dat een rationele agent zijn doelen op de meest efficiënte manier zal nastreven, tenzij hij een reden krijgt om dat niet te doen.

    De rationele agent zal bijvoorbeeld een reeks subdoelen bedenken (dwz doelstellingen, instrumentele doelen, stapstenen) die hem op weg helpen om zijn uiteindelijke doel te bereiken. Voor mensen is ons belangrijkste onderbewuste doel reproductie, het doorgeven van uw genen (dwz indirecte onsterfelijkheid). De subdoelen daarvoor kunnen vaak bestaan ​​uit:

    • Overleven, door toegang tot voedsel en water, groot en sterk worden, jezelf leren verdedigen of investeren in verschillende vormen van bescherming, enz. 
    • Een partner aantrekken, door te sporten, een innemende persoonlijkheid te ontwikkelen, zich stijlvol te kleden, enz.
    • Nageslacht betalen, door een opleiding te volgen, een goedbetaalde baan te vinden, de attributen van het leven in de middenklasse te kopen, enz.

    Voor de overgrote meerderheid van ons zwoegen we door al deze subdoelen, en vele andere, in de hoop dat we uiteindelijk dit ultieme doel van reproductie zullen bereiken.

    Maar als dit uiteindelijke doel, of zelfs een van de belangrijkere subdoelen, zou worden bedreigd, zouden velen van ons defensieve acties ondernemen buiten onze morele comfortzones - waaronder vals spelen, stelen of zelfs doden.

    Evenzo zouden veel dieren in het dierenrijk, buiten de grenzen van de menselijke moraal, niet twee keer nadenken over het doden van iets dat henzelf of hun nakomelingen bedreigde.

    Een toekomstige ASI zal niet anders zijn.

    Maar in plaats van nakomelingen zal de KSI zich concentreren op het oorspronkelijke doel waarvoor het is gemaakt, en bij het nastreven van dit doel, als het een bepaalde groep mensen, of zelfs de hele mensheid, vindt, is dit een obstakel bij het nastreven van zijn doelen , dan ... het zal de rationele beslissing nemen.

    (Hier kun je elk AI-gerelateerd doemscenario aansluiten waarover je hebt gelezen in je favoriete sciencefictionboek of -film.)

    Dit is het slechtste scenario waar AI-onderzoekers zich echt zorgen over maken. De ASI zal niet handelen uit haat of kwaadaardigheid, alleen uit onverschilligheid, net zoals een bouwploeg niet twee keer zal nadenken over het platwalsen van een mierenhoop tijdens het bouwen van een nieuwe woontoren.

    Kanttekening. Op dit moment vragen sommigen van jullie zich misschien af: "Kunnen AI-onderzoekers de kerndoelen van de KSI niet achteraf aanpassen als we ontdekken dat het niet werkt?"

    Niet echt.

    Als een KSI eenmaal volwassen is geworden, kan elke poging om zijn oorspronkelijke doel(en) te wijzigen, worden gezien als een bedreiging, en een die extreme acties vereist om zich ertegen te verdedigen. Als we het voorbeeld van de volledige menselijke voortplanting van eerder gebruiken, is het bijna alsof een dief dreigde een baby uit de baarmoeder van een aanstaande moeder te stelen - je kunt er verdomd zeker van zijn dat die moeder extreme maatregelen zou nemen om haar kind te beschermen.

    Nogmaals, we hebben het hier niet over een rekenmachine, maar over een 'levend' wezen, en een die op een dag veel slimmer zal worden dan alle mensen op aarde samen.

    Het onbekende

    Achter de fabel van Pandora's Box is een minder bekende waarheid die mensen vaak vergeten: het openen van de doos is onvermijdelijk, zo niet door jou dan door iemand anders. Verboden kennis is te verleidelijk om voor altijd opgesloten te blijven.

    Daarom is het zinloos om te proberen een wereldwijde overeenkomst te bereiken om al het onderzoek naar AI dat tot een KSI zou kunnen leiden stop te zetten - er zijn gewoon te veel organisaties die zowel officieel als in de schaduw aan deze technologie werken.

    Uiteindelijk hebben we geen idee wat deze nieuwe entiteit, deze ASI, zal betekenen voor de samenleving, voor technologie, voor politiek, vrede en oorlog. Wij mensen staan ​​op het punt om opnieuw vuur uit te vinden en waar deze creatie ons heen leidt is volkomen onbekend.

    Terugkerend naar het eerste hoofdstuk van deze serie, is het enige dat we zeker weten dat intelligentie macht is. Intelligentie is controle. Mensen kunnen terloops de gevaarlijkste dieren ter wereld bezoeken in hun plaatselijke dierentuinen, niet omdat we fysiek sterker zijn dan deze dieren, maar omdat we aanzienlijk slimmer zijn.

    Gezien de potentiële belangen die ermee gemoeid zijn, van een KSI die zijn enorme intellect gebruikt om acties te ondernemen die het voortbestaan ​​van de mensheid direct of onbedoeld kunnen bedreigen, zijn we het aan onszelf verplicht om op zijn minst te proberen veiligheidsmaatregelen te ontwerpen waarmee mensen in de auto van de bestuurder kunnen blijven. stoel—dit is het onderwerp van het volgende hoofdstuk.

    Serie over de toekomst van kunstmatige intelligentie

    P1: Kunstmatige intelligentie is de elektriciteit van morgen

    P2: Hoe de eerste kunstmatige algemene intelligentie de samenleving zal veranderen

    P3: Hoe we de eerste kunstmatige superintelligentie zullen creëren

    P5: Hoe mensen zich zullen verdedigen tegen een kunstmatige superintelligentie

    P6: Zullen mensen vreedzaam leven in een toekomst die wordt gedomineerd door kunstmatige intelligenties?

    Volgende geplande update voor deze prognose

    2025-09-25

    Prognose referenties

    Voor deze prognose werd verwezen naar de volgende populaire en institutionele links:

    Hoe gaan we naar de volgende?

    Voor deze voorspelling werd verwezen naar de volgende Quantumrun-links: