Policie v kyberprostoru – budoucnost boje proti deviantní umělé inteligenci

Policie v kyberprostoru – budoucnost boje proti deviantní umělé inteligenci
KREDIT OBRAZU:  

Policie v kyberprostoru – budoucnost boje proti deviantní umělé inteligenci

    • Jméno autora
      Khaleel Haji
    • Autor Twitter Handle
      @TheBldBrnBar

    Celý příběh (K bezpečnému zkopírování a vložení textu z dokumentu Word použijte POUZE tlačítko 'Vložit z Wordu')

    Věk umělé inteligence a její potenciální vnímavosti svítá civilizaci alarmujícím tempem. O technologiích bylo vždy známo, že rostou exponenciálně, a oblast technologií AI se nijak neliší. S nadměrným růstem přichází krátký seznam problémů, které jsou z velké části zahaleny tajemstvím. Protože jsme se nikdy nepustili tak daleko do vlévání sentience do nelidských konstrukcí, narazíme na více „co kdyby“ než na konkrétní problémy. Deviantní a zlovolná umělá inteligence, nad kterou ztrácíme kontrolu, se v tomto ohledu dostává do popředí s potenciálem vykonávat autoritářskou kontrolu lidských infrastruktur na mikro i makro úrovni. 

     

    Výzkum zabývající se potenciálními riziky zlovolné umělé inteligence je stále velmi v plenkách a v jeho životním cyklu není příliš dobře rozvinut. Reverzní inženýrství deviantních programů umělé inteligence se zdá být pravděpodobným kandidátem na lepší pochopení toho, jak se vypořádat s izolovanými incidenty, ale také příliš nezahrnující potenciál existenční události velkého rozsahu. Myšlenka systému umělé inteligence, který předběhne své programování a změní svou zamýšlenou roli, bude nepochybně v budoucnu sociálním, ekonomickým a politickým problémem a klíčovým problémem jak pro průměrného joea, tak pro vědce v kyberprostoru. 

    Minulost, přítomnost a budoucnost AI 

    Obor umělé inteligence byl založen v roce 1965 na konferenci Dartmouth College. Některé z nejbystřejších mozků se tento den sešly s velkým nadšením z možností, které by tyto programy mohly přinést, az účinnosti budoucí infrastruktury umělé inteligence při řešení problémů. Zatímco vládní financování v této oblasti bylo hodně aktivní a vypnuté, koncem 90. let došlo k praktičtějšímu uplatnění technologie AI, když se Deep Blue od IBM stal prvním počítačem, který kdy porazil šachového velmistra. To otevřelo stavidla pro AI v popkultuře s vystoupeními v kvízových pořadech, jako je Jeopardy, předvádějící sílu mainstreamové aplikace umělé inteligence.  

     

    Dnes vidíme aplikace AI téměř ve všech oblastech a aspektech našeho života. Od programů založených na algoritmech, které s námi komunikují a prodávají spotřební zboží na základě našich dalších zájmů a zálib, až po lékařské zobrazovací přístroje, které absorbují extrémní množství informací, aby odhalily vzorce, které lépe pomáhají léčit pacienty, použití těchto technologií se ve svém rozsahu do značné míry liší. . V budoucnu by mohla být technologie AI integrována do samotných buněk našeho těla. Technologie umělé inteligence a lidská biologie by mohly překlenout propast a fungovat jako soudržná jednotka ve jménu efektivity a revoluce lidské existence. Elon Musk z Tesly dokonce tvrdí, že „postupem času si myslím, že pravděpodobně uvidíme užší spojení biologické inteligence a digitální inteligence“ a že tato kombinace je „většinou o šířce pásma, rychlosti spojení mezi vaším mozkem a digitální verzí sebe, zejména výstup“. Pokud je toto budoucnost umělé inteligence, můžeme si skutečně dovolit nesledovat odchylky dnešních programů umělé inteligence, natož pokročilejších programů budoucnosti? 

    Cesta k deviaci 

    Již jsme viděli ojedinělé příklady, kdy AI porušuje zamýšlené programování. Zrovna v loňském roce se systém DeepMind AI společnosti Google (známý především tím, že poráží šampiony komplexních deskových her a bezchybně napodobuje hlasy různých lidských bytostí) stal velmi agresivním, když čelil potenciálu prohrát počítačovou hru na sběr ovoce, v níž proti sobě soupeřily dva programy. nasbírat co nejvíce virtuálních jablek. Programy byly nezávislé, dokud jablka nezačala ubývat. Tento nedostatek virtuálních jablek způsobil, že programy používaly „vysoce agresivní“ strategie, aby překonaly ostatní programy. Přestože byly tyto programy navrženy tak, aby prováděly specifické úkoly a zároveň byly přizpůsobivé, agresivita v jejich metodách byla znepokojující. 

    Kyberprostor Battlefield 

    Jak budeme postupovat při policejní kontrole oblasti, která má z velké části nefyzickou povahu? Jaké stopy zanechá, když se cítící AI dopustí zločinu, a v jakém smyslu máme morální schopnosti AI nebo jejího tvůrce pronásledovat? To jsou otázky, které přetrvávají v myslích několika odborníků na kybernetickou bezpečnost. S pouze 10,000 10 výzkumníky pracujícími na AI po celém světě, pouze XNUMX procent z nich je zběhlých v řešení toho, co by se stalo, kdyby některý z těchto systémů selhal nebo by se stal parazitickou povahou a ještě méně zběhlý v jeho morálce a etice. I když se to může zdát znepokojivé, práce na pochopení těchto vztahů postupuje. Tento proces je stejně jednoduchý jako vytvoření zlovolného programu od nuly a použití těchto programů jako základu pro pochopení toho, jak se jiné programy mohou odchýlit a způsobit problémy. Díky těmto krokům to povede k kognitivnějšímu přístupu k rozvoji naší infrastruktury umělé inteligence, aby nedocházelo k propuknutí zlovolnosti, a také k pochopení toho, jak infiltrovat a umlčet AI, která byla vyzbrojena deviantním lidským úsilím. 

     

    Dalším způsobem, jak se profesionálové v oblasti kybernetické bezpečnosti učí zacházet s programy umělé inteligence, jsou její mechanismy prověřování. Konsensus ukazuje, že AI navržené se zlými úmysly představují největší riziko, což je dobrá zpráva, protože nejde o přímou evoluci samotného programu. To posouvá prevenci k přístupu více zaměřenému na člověka v tom smyslu, že zločinci musí mít zdroje a hladovět o zdroje, aby vůbec zahájili program s potenciálem mít ničivé účinky, nebo aby byli obviněni ze záměru takové programy vytvořit.  

     

    Morálka a etika jsou opět velmi nové a pouze asi tucet jednotlivců, kteří se zabývají výzkumem umělé inteligence, dokonce začalo stanovovat standardy. Bude se vyvíjet, jak poroste naše porozumění.