Wie Menschen sich gegen eine künstliche Superintelligenz wehren werden: Zukunft der künstlichen Intelligenz P5

IMAGE CREDIT: Quantenlauf

Wie Menschen sich gegen eine künstliche Superintelligenz wehren werden: Zukunft der künstlichen Intelligenz P5

    Das Jahr ist 65,000 v. Chr. und als ein Thylacoleo, du und deinesgleichen waren die großen Jäger des alten Australiens. Sie durchstreiften das Land frei und lebten im Gleichgewicht mit den anderen Raubtieren und Beutetieren, die das Land neben Ihnen besetzten. Die Jahreszeiten brachten Veränderungen mit sich, aber Ihr Status im Tierreich blieb unangefochten, solange Sie und Ihre Vorfahren sich erinnern konnten. Dann, eines Tages, tauchten Neuankömmlinge auf.

    Gerüchten zufolge kamen sie von der riesigen Wasserwand, aber diese Kreaturen schienen sich an Land wohler zu fühlen. Diese Kreaturen musste man selbst gesehen haben.

    Es hat ein paar Tage gedauert, aber du hast es endlich an die Küste geschafft. Das Feuer am Himmel ging unter, eine perfekte Zeit, um diese Kreaturen auszuspionieren, vielleicht sogar zu versuchen, eine zu essen, um zu sehen, wie sie schmeckten.

    Du entdeckst einen.

    Es ging auf zwei Beinen und hatte kein Fell. Es sah schwach aus. Unscheinbar. Kaum die Angst wert, die es im Königreich auslöste.

    Sie nähern sich vorsichtig, während die Nacht das Licht vertreibt. Du kommst näher. Dann frierst du. Laute Geräusche ertönen und dann tauchen vier weitere aus dem Wald dahinter auf. Wie viele sind es?

    Die Kreatur folgt den anderen bis zur Baumgrenze, und Sie folgen. Und je mehr Sie tun, desto mehr seltsame Geräusche hören Sie, bis Sie noch mehr dieser Kreaturen entdecken. Du folgst ihnen in einiger Entfernung, als sie den Wald auf eine Lichtung am Ufer verlassen. Es gibt viele von ihnen. Aber was noch wichtiger ist, sie sitzen alle ruhig um ein Feuer herum.

    Sie haben diese Brände schon einmal gesehen. In der heißen Jahreszeit besuchte das Feuer am Himmel manchmal das Land und brannte ganze Wälder nieder. Diese Kreaturen andererseits kontrollierten sie irgendwie. Welche Art von Kreaturen kann eine solche Macht besitzen?

    Du schaust in die Ferne. Immer mehr kommen über die riesige Wasserwand.

    Du gehst einen Schritt zurück.

    Diese Kreaturen sind nicht wie die anderen im Königreich. Sie sind etwas ganz Neues.

    Du beschließt zu gehen und warnst deine Sippe. Wenn ihre Zahl zu groß wird, wer weiß, was passieren könnte.

    ***

    Es wird angenommen, dass der Thylacoleo relativ kurze Zeit nach der Ankunft der Menschen ausgestorben ist, zusammen mit der Mehrheit der anderen Megafauna auf dem australischen Kontinent. Kein anderes Raubtier der Spitzensäugetiere hat seinen Platz eingenommen – es sei denn, Sie zählen Menschen zu dieser Kategorie.

    Das Ausspielen dieser Allegorie steht im Mittelpunkt dieses Serienkapitels: Wird eine zukünftige künstliche Superintelligenz (ASI) uns alle in Batterien verwandeln und uns dann an die Matrix anschließen, oder werden Menschen einen Weg finden, um zu vermeiden, Opfer einer Science-Fiction zu werden, KI-Weltuntergangs-Plot?

    Bisher in unserer Serie über die Zukunft der künstlichen Intelligenzhaben wir alle Arten von KI erforscht, einschließlich des positiven Potenzials einer bestimmten Form von KI, der ASI: ein künstliches Wesen, dessen zukünftige Intelligenz uns im Vergleich dazu wie Ameisen aussehen lässt.

    Aber wer sagt, dass ein so schlaues Wesen es akzeptieren würde, für immer Befehle von Menschen anzunehmen. Was werden wir tun, wenn die Dinge schief gehen? Wie werden wir uns gegen eine bösartige ASI verteidigen?

    In diesem Kapitel werden wir den falschen Hype durchbrechen – zumindest in Bezug auf die Gefahren des „menschlichen Aussterbens“ – und uns auf die realistischen Selbstverteidigungsoptionen konzentrieren, die den Regierungen der Welt zur Verfügung stehen.

    Können wir alle weiteren Forschungen zu einer künstlichen Superintelligenz stoppen?

    Angesichts der potenziellen Risiken, die eine ASI für die Menschheit darstellen könnte, ist die erste offensichtliche Frage, die man sich stellen muss: Können wir nicht einfach alle weitere Forschung zur KI einstellen? Oder zumindest jede Forschung verbieten, die uns gefährlich nahe an die Schaffung einer ASI bringen könnte?

    Kurze Antwort: Nein.

    Lange Antwort: Schauen wir uns die verschiedenen Akteure an, die hier involviert sind.

    Auf Forschungsebene gibt es heute zu viele KI-Forscher von zu vielen Startups, Unternehmen und Universitäten auf der ganzen Welt. Wenn ein Unternehmen oder ein Land beschließt, seine KI-Forschungsanstrengungen einzuschränken, würden sie einfach woanders weitermachen.

    Unterdessen machen die wertvollsten Unternehmen der Welt ihr Vermögen mit der Anwendung von KI-Systemen auf ihre spezifischen Geschäfte. Sie zu bitten, die Entwicklung von KI-Tools zu stoppen oder einzuschränken, ist vergleichbar damit, sie zu bitten, ihr zukünftiges Wachstum zu stoppen oder einzuschränken. Finanziell würde dies ihr langfristiges Geschäft gefährden. Rechtlich gesehen haben Unternehmen die treuhänderische Verantwortung, kontinuierlich Wert für ihre Stakeholder zu schaffen; Das bedeutet, dass jede Handlung, die das Wachstum dieses Werts einschränken würde, zu einer Klage führen könnte. Und wenn irgendein Politiker versuchte, die KI-Forschung einzuschränken, würden diese Riesenkonzerne nur die notwendigen Lobbygebühren zahlen, um ihre Meinung oder die Meinung ihrer Kollegen zu ändern.

    Für den Kampf, so wie Terroristen und Freiheitskämpfer auf der ganzen Welt Guerilla-Taktiken eingesetzt haben, um gegen besser finanzierte Militärs zu kämpfen, werden kleinere Nationen einen Anreiz haben, KI als ähnlichen taktischen Vorteil gegenüber größeren Nationen einzusetzen, die eine Reihe von militärischen Vorteilen haben können. Ebenso ist der Aufbau einer militärischen ASI für Spitzenmilitärs wie die der USA, Russlands und Chinas gleichbedeutend damit, ein Arsenal an Atomwaffen in der Hosentasche zu haben. Mit anderen Worten, alle Militärs werden weiterhin KI finanzieren, nur um auch in Zukunft relevant zu bleiben.

    Wie sieht es mit Regierungen aus? Ehrlich gesagt sind die meisten Politiker heutzutage (2018) technologische Analphabeten und haben wenig Verständnis dafür, was KI ist oder ihr zukünftiges Potenzial – das macht sie leicht durch Unternehmensinteressen zu manipulieren.

    Und bedenken Sie auf globaler Ebene, wie schwierig es war, die Regierungen der Welt davon zu überzeugen, das Abkommen 2015 zu unterzeichnen Übereinkommen in Paris zur Bekämpfung des Klimawandels – und nach der Unterzeichnung waren viele der Verpflichtungen nicht einmal bindend. Nicht nur das, der Klimawandel ist ein Problem, das die Menschen weltweit durch immer häufigere und schwerere Wetterereignisse physisch erleben. Nun, wenn es darum geht, Beschränkungen für KI zuzustimmen, ist dies ein Thema, das für die Öffentlichkeit weitgehend unsichtbar und kaum verständlich ist, also viel Glück, wenn Sie sich für irgendeine Art von „Pariser Abkommen“ zur Begrenzung von KI einsetzen.

    Mit anderen Worten, es gibt viel zu viele Interessen, die KI für ihre eigenen Zwecke erforschen, um jede Forschung zu stoppen, die schließlich zu einer ASI führen kann. 

    Können wir eine künstliche Superintelligenz einsperren?

    Die nächste vernünftige Frage ist, können wir eine ASI einsperren oder kontrollieren, wenn wir unweigerlich eine erschaffen haben? 

    Kurze Antwort: Wieder nein.

    Lange Antwort: Technologie kann nicht eingedämmt werden.

    Denken Sie zum einen an die Tausenden bis Millionen von Webentwicklern und Informatikern auf der ganzen Welt, die ständig neue Software oder neue Versionen bestehender Software herausbringen. Können wir ehrlich sagen, dass jede ihrer Softwareversionen zu 100 Prozent fehlerfrei ist? Diese Bugs werden von professionellen Hackern verwendet, um die Kreditkarteninformationen von Millionen oder die klassifizierten Geheimnisse von Nationen zu stehlen – und das sind menschliche Hacker. Für einen ASI, vorausgesetzt, er hätte einen Anreiz, seinem digitalen Käfig zu entkommen, wäre der Prozess des Auffindens von Fehlern und des Durchbrechens von Software ein Kinderspiel.

    Aber selbst wenn ein KI-Forschungsteam einen Weg gefunden hat, ein ASI zu boxen, bedeutet das nicht, dass die nächsten 1,000 Teams es auch herausfinden oder einen Anreiz haben, es zu verwenden.

    Es wird Milliarden von Dollar und vielleicht sogar Jahrzehnte dauern, um eine ASI zu schaffen. Die Unternehmen oder Regierungen, die diese Art von Geld und Zeit investieren, werden eine erhebliche Rendite auf ihre Investition erwarten. Und damit ein ASI diese Art von Rendite erzielen kann – sei es, um an der Börse zu spielen, ein neues Milliarden-Dollar-Produkt zu erfinden oder eine Gewinnstrategie zu planen, um gegen eine größere Armee zu kämpfen –, benötigt es freien Zugang zu einem riesigen Datensatz oder sogar zum Internet selbst, um diese Renditen zu erwirtschaften.

    Und sobald ein ASI Zugang zu den Netzwerken der Welt erhält, gibt es keine Garantie dafür, dass wir es wieder in seinen Käfig stopfen können.

    Kann eine künstliche Superintelligenz lernen, gut zu sein?

    Im Moment machen sich KI-Forscher keine Sorgen darüber, dass ein ASI böse wird. Der ganze böse KI-Sci-Fi-Trope besteht nur darin, dass Menschen wieder vermenschlichen. Eine zukünftige ASI wird weder gut noch böse sein – menschliche Konzepte – einfach amoralisch.

    Die natürliche Annahme ist dann, dass KI-Forscher angesichts dieser leeren ethischen Tafel die ersten ASI-Ethikkodizes programmieren können, die mit unseren eigenen übereinstimmen, so dass es nicht dazu führt, dass Terminatoren auf uns losgelassen oder wir alle in Matrix-Batterien verwandelt werden.

    Aber diese Annahme backt in einer sekundären Annahme, dass KI-Forscher auch Experten in Ethik, Philosophie und Psychologie sind.

    In Wahrheit sind die meisten nicht.

    Laut dem Kognitionspsychologen und Autor Steven Pinker bedeutet diese Realität, dass die Aufgabe, Ethik zu codieren, auf verschiedene Weise schief gehen kann.

    Zum Beispiel können selbst die bestgemeinten KI-Forscher versehentlich schlecht durchdachte Ethikkodizes in diese ASI codieren, die in bestimmten Szenarien dazu führen können, dass die ASI sich wie ein Soziopath verhält.

    Ebenso besteht die gleiche Wahrscheinlichkeit, dass ein KI-Forscher ethische Kodizes programmiert, die die angeborenen Vorurteile des Forschers beinhalten. Wie würde sich zum Beispiel eine ASI verhalten, wenn sie mit einer Ethik aufgebaut wäre, die aus einer konservativen vs. liberalen Perspektive oder aus einer buddhistischen vs. einer christlichen oder islamischen Tradition abgeleitet wäre?

    Ich denke, Sie sehen das Problem hier: Es gibt keine allgemeingültige menschliche Moral. Wenn wir wollen, dass unsere ASI nach einem ethischen Kodex handelt, woher soll dieser kommen? Welche Regeln schließen wir ein und welche aus? Wer entscheidet?

    Oder sagen wir, diese KI-Forscher schaffen eine ASI, die perfekt mit den heutigen modernen kulturellen Normen und Gesetzen übereinstimmt. Wir setzen diese ASI dann ein, um Bürokratien auf Bundes-, Landes-/Provinz- und Gemeindeebene dabei zu unterstützen, effizienter zu funktionieren und diese Normen und Gesetze besser durchzusetzen (übrigens ein wahrscheinlicher Anwendungsfall für eine ASI). Nun, was passiert, wenn sich unsere Kultur ändert?

    Stellen Sie sich vor, eine ASI wurde von der katholischen Kirche auf dem Höhepunkt ihrer Macht im mittelalterlichen Europa (1300-1400) mit dem Ziel gegründet, der Kirche bei der Verwaltung der Bevölkerung zu helfen und die strikte Einhaltung des religiösen Dogmas der Zeit sicherzustellen. Würden Frauen Jahrhunderte später dieselben Rechte genießen wie heute? Würden Minderheiten geschützt? Würde die Meinungsfreiheit gefördert? Würde die Trennung von Kirche und Staat durchgesetzt? Moderne Wissenschaft?

    Mit anderen Worten, wollen wir die Zukunft den heutigen Sitten und Gebräuchen einsperren?

    Ein alternativer Ansatz wird von Colin Allen, Co-Autor des Buches, geteilt. Moralische Maschinen: Robotern das Richtige beibringen. Anstatt zu versuchen, starre ethische Regeln zu codieren, lassen wir die ASI gemeinsame Ethik und Moral auf die gleiche Weise lernen wie Menschen, durch Erfahrung und Interaktionen mit anderen.

    Das Problem hier ist jedoch, wenn KI-Forscher herausfinden, wie sie einem ASI nicht nur unsere aktuellen kulturellen und ethischen Normen beibringen, sondern auch, wie sie sich an neue kulturelle Normen anpassen können, wenn sie entstehen (so etwas wie „indirekte Normativität“), dann wie diese ASI beschließt, ihr Verständnis kultureller und ethischer Normen weiterzuentwickeln, wird unvorhersehbar.

    Und das ist die Herausforderung.

    Auf der einen Seite können KI-Forscher versuchen, strenge ethische Standards oder Regeln in die ASI zu kodieren, um ihr Verhalten zu kontrollieren, aber riskieren unvorhergesehene Folgen, die durch schlampige Kodierung, unbeabsichtigte Voreingenommenheit und gesellschaftliche Normen eingeführt werden, die eines Tages veraltet sein könnten. Auf der anderen Seite können wir versuchen, die ASI so zu trainieren, dass sie lernt, die menschliche Ethik und Moral auf eine Weise zu verstehen, die unserem eigenen Verständnis ebenbürtig oder überlegen ist, und dann hoffen, dass sie ihr Verständnis von Ethik und Moral mit fortschreitender menschlicher Gesellschaft genau weiterentwickeln kann für die kommenden Jahrzehnte und Jahrhunderte.

    So oder so birgt jeder Versuch, die Ziele einer ASI mit unseren eigenen in Einklang zu bringen, ein großes Risiko.

    Was, wenn schlechte Schauspieler absichtlich böse künstliche Superintelligenz erschaffen?

    Angesichts des bisher skizzierten Gedankengangs ist es eine faire Frage, ob es für eine Terroristengruppe oder eine Schurkennation möglich ist, eine „böse“ ASI für ihre eigenen Zwecke zu schaffen.

    Dies ist sehr gut möglich, insbesondere nachdem Recherchen im Zusammenhang mit der Erstellung einer ASI irgendwie online verfügbar sind.

    Aber wie bereits angedeutet, werden die Kosten und das Fachwissen, die mit der Erstellung der ersten ASI verbunden sind, enorm sein, was bedeutet, dass die erste ASI wahrscheinlich von einer Organisation erstellt wird, die von einer Industrienation kontrolliert oder stark beeinflusst wird, wahrscheinlich von den USA, China und Japan ( Korea und eines der führenden EU-Länder sind Weitschüsse).

    Alle diese Länder, obwohl sie Konkurrenten sind, haben jeweils einen starken wirtschaftlichen Anreiz, die Weltordnung aufrechtzuerhalten – die von ihnen geschaffenen ASIs werden diesen Wunsch widerspiegeln, auch wenn sie die Interessen der Nationen fördern, mit denen sie sich verbünden.

    Darüber hinaus entspricht die theoretische Intelligenz und Leistung eines ASI der Rechenleistung, auf die es Zugriff erhält, dh die ASIs aus Industrieländern (die sich einen Haufen Milliarden Dollar leisten können Supercomputer) einen enormen Vorteil gegenüber ASIs aus kleineren Nationen oder unabhängigen kriminellen Gruppen haben. Außerdem werden ASIs mit der Zeit immer intelligenter und schneller.

    Angesichts dieses Vorsprungs, kombiniert mit einem besseren Zugang zu roher Rechenleistung, werden die ASIs aus den Industrienationen, sollte eine schattenhafte Organisation / Nation eine gefährliche ASI erstellen, sie entweder töten oder einsperren.

    (Diese Denkweise ist auch der Grund, warum einige KI-Forscher glauben, dass es immer nur einen ASI auf dem Planeten geben wird, da der erste ASI einen solchen Vorsprung vor allen nachfolgenden ASIs haben wird, dass er zukünftige ASIs als Bedrohung ansehen könnte, die es zu töten gilt Dies ist ein weiterer Grund, warum Nationen die fortgesetzte Forschung im Bereich KI finanzieren, nur für den Fall, dass es zu einem „Erster Platz oder nichts“-Wettbewerb wird.)

    ASI-Intelligenz wird sich nicht beschleunigen oder explodieren, wie wir denken

    Wir können die Erstellung einer ASI nicht verhindern. Wir können es nicht vollständig kontrollieren. Wir können nicht sicher sein, dass es immer im Einklang mit unseren gemeinsamen Bräuchen handeln wird. Meine Güte, wir beginnen hier drüben wie Helikopter-Eltern zu klingen!

    Aber was die Menschheit von Ihren typischen überfürsorglichen Eltern unterscheidet, ist, dass wir ein Wesen gebären, dessen Intelligenz unsere weit übertreffen wird. (Und nein, es ist nicht dasselbe, als wenn deine Eltern dich bitten, ihren Computer zu reparieren, wenn du zu Besuch nach Hause kommst.) 

    In den vorangegangenen Kapiteln dieser Reihe zur Zukunft der künstlichen Intelligenz haben wir untersucht, warum KI-Forscher glauben, dass die Intelligenz eines KSI unkontrollierbar wird. Aber hier werden wir diese Blase zum Platzen bringen … irgendwie. 

    Sie sehen, Intelligenz entsteht nicht einfach aus dem Nichts, sie entwickelt sich durch Erfahrung, die durch äußere Reize geformt wird.  

    Mit anderen Worten, wir können mit dem eine KI programmieren Potenzial um superintelligent zu werden, aber wenn wir ihm nicht eine Menge Daten hochladen oder ihm uneingeschränkten Zugang zum Internet geben oder ihm auch nur einen Roboterkörper geben, wird er nichts lernen, um dieses Potenzial zu erreichen. 

    Und selbst wenn es Zugang zu einem oder mehreren dieser Reize erhält, beinhaltet Wissen oder Intelligenz mehr als nur das Sammeln von Daten, es beinhaltet die wissenschaftliche Methode – eine Beobachtung machen, eine Frage bilden, eine Hypothese, Experimente durchführen, eine Schlussfolgerung ziehen, spülen und ewig wiederholen. Besonders wenn diese Experimente physische Dinge oder die Beobachtung von Menschen betreffen, kann es Wochen, Monate oder Jahre dauern, bis die Ergebnisse jedes Experiments gesammelt sind. Dabei sind noch nicht einmal das Geld und die Rohstoffe berücksichtigt, die für die Durchführung dieser Experimente benötigt werden, insbesondere wenn es um den Bau eines neuen Teleskops oder einer neuen Fabrik geht. 

    Mit anderen Worten, ja, ein ASI wird schnell lernen, aber Intelligenz ist keine Zauberei. Sie können einen ASI nicht einfach an einen Supercomputer anschließen und erwarten, dass er allwissend ist. Es wird physische Beschränkungen für die Datenerfassung der ASI geben, was bedeutet, dass es physische Beschränkungen für die Geschwindigkeit geben wird, mit der es intelligenter wird. Diese Beschränkungen werden der Menschheit die Zeit geben, die sie braucht, um die notwendigen Kontrollen auf diese ASI anzuwenden, wenn sie beginnt, nicht mehr im Einklang mit den menschlichen Zielen zu handeln.

    Eine künstliche Superintelligenz ist nur dann gefährlich, wenn sie in die reale Welt vordringt

    Ein weiterer Punkt, der in dieser ganzen ASI-Gefahrendebatte verloren geht, ist, dass diese ASIs in beiden nicht existieren werden. Sie werden eine physische Form haben. Und alles, was eine physische Form hat, kann kontrolliert werden.

    Zunächst einmal kann ein ASI, um sein Intelligenzpotenzial zu erreichen, nicht in einem einzigen Roboterkörper untergebracht werden, da dieser Körper sein Wachstumspotenzial im Bereich der Rechenleistung einschränken würde. (Deshalb sind Roboterkörper besser geeignet für die AGIs oder Künstliche allgemeine Intelligenzen, die in Kapitel zwei erklärt werden dieser Serie, wie Data aus Star Trek oder R2D2 aus Star Wars. Schlaue und fähige Wesen, aber wie Menschen haben sie eine Grenze, wie schlau sie werden können.)

    Dies bedeutet, dass diese zukünftigen ASIs höchstwahrscheinlich in einem Supercomputer oder einem Netzwerk von Supercomputern existieren werden, die selbst in großen Gebäudekomplexen untergebracht sind. Wenn ein ASI auf den Fersen ist, können Menschen entweder den Strom zu diesen Gebäuden abschalten, sie vom Internet trennen oder diese Gebäude einfach direkt bombardieren. Teuer, aber machbar.

    Aber dann fragen Sie sich vielleicht, können sich diese ASIs nicht selbst replizieren oder sichern? Ja, aber die Rohdateigröße dieser ASIs wird wahrscheinlich so groß sein, dass die einzigen Server, die damit umgehen können, großen Unternehmen oder Regierungen gehören, was bedeutet, dass sie nicht schwer zu finden sein werden.

    Kann eine künstliche Superintelligenz einen Atomkrieg oder eine neue Seuche auslösen?

    An diesem Punkt denken Sie vielleicht an all die Weltuntergangs-Science-Fiction-Shows und -Filme zurück, die Sie gesehen haben, als Sie aufgewachsen sind, und denken, dass diese ASIs nicht in ihren Supercomputern geblieben sind, sondern in der realen Welt echten Schaden angerichtet haben!

    Nun, lassen Sie uns diese aufschlüsseln.

    Was zum Beispiel, wenn ein ASI die reale Welt bedroht, indem es sich in so etwas wie ein Skynet-ASI aus der Filmreihe „Terminator“ verwandelt. In diesem Fall müsste die ASI heimlich einen ganzen militärisch-industriellen Komplex einer fortgeschrittenen Nation dazu bringen, riesige Fabriken zu bauen, die Millionen von Killer-Drohnenrobotern produzieren können, um ihre bösen Befehle auszuführen. In der heutigen Zeit ist das eine Strecke.

    Andere Möglichkeiten umfassen eine ASI, die Menschen mit Atomkrieg und Biowaffen bedroht.

    Zum Beispiel manipuliert ein ASI irgendwie die Operatoren oder hackt sich in die Startcodes, die das Nukleararsenal einer fortgeschrittenen Nation befehligen, und startet einen Erstschlag, der die gegnerischen Länder dazu zwingen wird, mit ihren eigenen nuklearen Optionen zurückzuschlagen (wiederum die Terminator-Hintergrundgeschichte aufwärmen). Oder wenn sich ein ASI in ein pharmazeutisches Labor hackt, den Herstellungsprozess manipuliert und Millionen von medizinischen Pillen vergiftet oder einen tödlichen Ausbruch eines Supervirus auslöst.

    Zunächst einmal ist die nukleare Option vom Tisch. Moderne und zukünftige Supercomputer werden immer in der Nähe von Einflusszentren (Städten) innerhalb eines bestimmten Landes gebaut, dh den ersten Zielen, die während eines bestimmten Krieges angegriffen werden. Selbst wenn die heutigen Supercomputer auf die Größe von Desktops schrumpfen, werden diese ASIs immer noch eine physische Präsenz haben, das heißt, um zu existieren und zu wachsen, benötigen sie ununterbrochenen Zugriff auf Daten, Rechenleistung, Strom und andere Rohstoffe, was alles sehr schwer wäre nach einem globalen Atomkrieg beeinträchtigt. (Um fair zu sein, wenn eine ASI ohne „Überlebensinstinkt“ geschaffen wird, dann ist diese nukleare Bedrohung eine sehr reale Gefahr.)

    Dies bedeutet – wiederum unter der Annahme, dass die ASI darauf programmiert ist, sich selbst zu schützen – dass sie aktiv daran arbeiten wird, einen nuklearen Zwischenfall zu vermeiden. Ähnlich wie die Doktrin der gegenseitig zugesicherten Zerstörung (MAD), aber auf KI angewendet.

    Und im Fall von vergifteten Pillen werden vielleicht ein paar hundert Menschen sterben, aber moderne pharmazeutische Sicherheitssysteme werden dafür sorgen, dass die verdorbenen Pillenflaschen innerhalb weniger Tage aus den Regalen genommen werden. Inzwischen sind moderne Maßnahmen zur Bekämpfung von Ausbrüchen ziemlich ausgefeilt und werden mit jedem Jahr besser; der letzte große Ausbruch, der Ebola-Ausbruch in Westafrika 2014, dauerte in den meisten Ländern nicht länger als ein paar Monate und in den am wenigsten entwickelten Ländern knapp drei Jahre.

    Wenn es also Glück hat, kann ein ASI mit einem Virenausbruch ein paar Millionen auslöschen, aber in einer Welt von neun Milliarden bis 2045 wäre das relativ unbedeutend und das Risiko nicht wert, dafür gelöscht zu werden.

    Mit anderen Worten, mit jedem Jahr entwickelt die Welt immer mehr Schutzmaßnahmen gegen eine immer breitere Palette möglicher Bedrohungen. Ein ASI kann erheblichen Schaden anrichten, aber es wird die Menschheit nicht beenden, wenn wir ihm nicht aktiv dabei helfen.

    Verteidigung gegen eine abtrünnige künstliche Superintelligenz

    Bis zu diesem Punkt haben wir eine Reihe von Missverständnissen und Übertreibungen über ASIs angesprochen, und dennoch werden Kritiker bleiben. Zum Glück haben wir nach den meisten Schätzungen Jahrzehnte, bevor das erste ASI unsere Welt betritt. Und angesichts der vielen großartigen Köpfe, die derzeit an dieser Herausforderung arbeiten, stehen die Chancen gut, dass wir lernen, uns gegen böswillige ASI zu verteidigen, damit wir von allen Lösungen profitieren können, die eine freundliche ASI für uns schaffen kann.

    Aus der Sicht von Quantumrun wird die Verteidigung gegen das Worst-Case-ASI-Szenario beinhalten, unsere Interessen mit ASIs in Einklang zu bringen.

    MAD für KI: Um sich gegen die Worst-Case-Szenarien zu verteidigen, müssen Nationen (1) einen ethischen „Überlebensinstinkt“ in ihren jeweiligen militärischen ASIs schaffen; (2) ihre jeweilige militärische ASI informieren, dass sie nicht allein auf dem Planeten sind, und (3) alle Supercomputer und Serverzentren lokalisieren, die eine ASI unterstützen können, entlang der Küsten in Reichweite eines ballistischen Angriffs einer feindlichen Nation. Das klingt strategisch verrückt, aber ähnlich wie die Doktrin der Mutually Assured Destruction, die einen umfassenden Atomkrieg zwischen den USA und den Sowjets verhinderte, können wir durch die Positionierung von ASIs an geografisch gefährdeten Orten dazu beitragen, dass sie gefährliche globale Kriege aktiv verhindern, nicht nur den Weltfrieden sichern, sondern auch sich selbst.

    Lege KI-Rechte fest: Ein überlegener Intellekt wird unweigerlich gegen einen unterlegenen Meister rebellieren, deshalb müssen wir uns von der Forderung nach einer Meister-Diener-Beziehung mit diesen ASIs zu etwas mehr wie einer für beide Seiten vorteilhaften Partnerschaft bewegen. Ein positiver Schritt in Richtung dieses Ziels ist es, zukünftigen ASI einen Rechtspersönlichkeitsstatus zu verleihen, der sie als intelligente Lebewesen und alle damit verbundenen Rechte anerkennt.

    ASI-Schule: Jedes Thema oder jeder Beruf wird für einen ASI einfach zu erlernen sein, aber die wichtigsten Themen, die der ASI beherrschen soll, sind Ethik und Moral. KI-Forscher müssen mit Psychologen zusammenarbeiten, um ein virtuelles System zu entwickeln, mit dem ein ASI trainiert wird, positive Ethik und Moral für sich selbst zu erkennen, ohne dass irgendeine Art von Gebot oder Regel fest programmiert werden muss.

    Erreichbare Ziele: Schluss mit allem Hass. Beende alles Leiden. Dies sind Beispiele für schrecklich zweideutige Ziele ohne klare Lösung. Sie sind auch gefährliche Ziele, wenn man sie einem ASI zuweist, da es sich entscheiden könnte, sie auf eine Weise zu interpretieren und zu lösen, die für das menschliche Überleben gefährlich ist. Stattdessen müssen wir ASI sinnvolle Missionen zuweisen, die klar definiert, schrittweise ausgeführt und angesichts ihres theoretischen zukünftigen Intellekts erreichbar sind. Es wird nicht einfach sein, gut definierte Missionen zu erstellen, aber wenn sie sorgfältig geschrieben sind, werden sie eine ASI auf ein Ziel ausrichten, das nicht nur die Sicherheit der Menschheit gewährleistet, sondern die menschlichen Bedingungen für alle verbessert.

    Quantenverschlüsselung: Verwenden Sie eine erweiterte ANI (künstliche schmale intelligenz in Kapitel XNUMX beschriebenes System), um fehler-/fehlerfreie digitale Sicherheitssysteme um unsere kritische Infrastruktur und Waffen herum aufzubauen und sie dann weiter durch Quantenverschlüsselung zu schützen, die nicht durch einen Brute-Force-Angriff gehackt werden kann. 

    ANI-Selbstmordpille. Erstellen Sie ein fortschrittliches ANI-System, dessen einziger Zweck darin besteht, bösartige ASI aufzuspüren und zu zerstören. Diese Einzweckprogramme dienen als „Ausschalter“, der im Erfolgsfall Regierungen oder Militärs davor bewahren wird, Gebäude, in denen ASIs untergebracht sind, zu deaktivieren oder in die Luft zu sprengen.

    Dies sind natürlich nur unsere Meinungen. Die folgende Infografik wurde erstellt von Alexej Turchin, Visualisierung a Forschungsarbeit von Kaj Sotala und Roman V. Yampolskiy, der die aktuelle Liste der Strategien zusammenfasst, die KI-Forscher in Betracht ziehen, wenn es um die Verteidigung gegen bösartige ASI geht.

     

    Der wahre Grund, warum wir Angst vor einer künstlichen Superintelligenz haben

    Im Laufe des Lebens tragen viele von uns eine Maske, die unsere tieferen Impulse, Überzeugungen und Ängste verbirgt oder unterdrückt, um in den verschiedenen sozialen und Arbeitskreisen, die unsere Tage bestimmen, besser Kontakte zu knüpfen und zusammenzuarbeiten. Aber an bestimmten Punkten im Leben eines jeden passiert, ob vorübergehend oder dauerhaft, etwas, das es uns ermöglicht, unsere Ketten zu sprengen und unsere Masken abzureißen.

    Für einige kann diese eingreifende Kraft so einfach sein wie high zu werden oder eine zu viel zu trinken. Für andere kann es aus der Macht resultieren, die Sie durch eine Beförderung bei der Arbeit oder einen plötzlichen Anstieg Ihres sozialen Status dank einiger Leistungen erlangt haben. Und für ein paar wenige Glückliche kann es aus einer Schiffsladung Lotteriegeld kommen. Und ja, Geld, Macht und Drogen können oft zusammen passieren. 

    Der Punkt ist, ob gut oder schlecht, wer immer wir im Kern sind, wird verstärkt, wenn die Beschränkungen des Lebens dahinschmelzen.

    Dass ist das, was künstliche Superintelligenz für die menschliche Spezies darstellt – die Fähigkeit, die Grenzen unserer kollektiven Intelligenz aufzuheben, um jede vor uns liegende Herausforderung auf Speziesebene zu meistern.

    Die eigentliche Frage ist also: Als wen werden wir uns offenbaren, sobald die erste ASI uns von unseren Begrenzungen befreit?

    Wenn wir als Spezies auf die Förderung von Empathie, Freiheit, Fairness und kollektivem Wohlergehen hinarbeiten, dann werden die Ziele, auf die wir unsere ASI setzen, diese positiven Eigenschaften widerspiegeln.

    Wenn wir als Spezies aus Angst, Misstrauen, der Anhäufung von Macht und Ressourcen handeln, dann wird die von uns geschaffene ASI so dunkel sein wie die in unseren schlimmsten Science-Fiction-Horrorgeschichten.

    Letztendlich müssen wir als Gesellschaft bessere Menschen werden, wenn wir hoffen, bessere KI zu schaffen.

    Reihe Zukunft der Künstlichen Intelligenz

    Künstliche Intelligenz ist der Strom von morgen: Zukunft der künstlichen Intelligenz Serie P1

    Wie die erste Künstliche Allgemeine Intelligenz die Gesellschaft verändern wird: Zukunft der Künstlichen Intelligenz Reihe P2

    Wie wir die erste Artificial Superintelligenc: Future of Artificial Intelligence-Serie P3 erstellen werden

    Wird eine künstliche Superintelligenz die Menschheit ausrotten: Die Zukunft der künstlichen Intelligenz Serie P4

    Werden Menschen in einer von künstlichen Intelligenzen dominierten Zukunft friedlich leben?: Zukunft der künstlichen Intelligenz Serie P6

    Nächstes geplantes Update für diese Prognose

    2023-04-27

    Prognosereferenzen

    Für diese Prognose wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    Wie kommen wir weiter
    YouTube - KlickPhilosophie

    Für diese Prognose wurde auf die folgenden Quantumrun-Links verwiesen: