Rendőrség a kibertérben – a deviáns mesterséges intelligencia elleni küzdelem jövője

Rendőrség a kibertérben – a deviáns mesterséges intelligencia elleni küzdelem jövője
KÉP HITEL:  

Rendőrség a kibertérben – a deviáns mesterséges intelligencia elleni küzdelem jövője

    • Szerző neve
      Khaleel Haji
    • Szerző Twitter Handle
      @TheBldBrnBar

    Teljes történet (CSAK a "Beillesztés Wordből" gombot használja a szöveg biztonságos másolásához és beillesztéséhez Word-dokumentumból)

    A mesterséges intelligencia kora és potenciális érzékenysége riasztó sebességgel virrad a civilizáció elé. A technológia mindig is exponenciálisan növekszik, és az AI-technológiák területe sem különbözik egymástól. A túlzott növekedéssel egy rövid lista a problémákról, amelyeket nagyrészt rejtélyek öveznek. Soha nem merészkedtünk idáig az érzékkel nem emberi konstrukciókba való átitatásával, inkább „mi lenne, ha”-ba ütközünk, mint konkrét kérdésekbe. A deviáns és rosszindulatú mesterséges intelligencia, amely felett elveszítjük az irányítást, előtérbe kerül ebben a tekintetben, mivel mikro- és makroszinten egyaránt képes autoriter ellenőrzést gyakorolni az emberi infrastruktúrák felett. 

     

    A rosszindulatú mesterséges intelligencia lehetséges kockázataival foglalkozó kutatások még nagyon gyerekcipőben járnak, és életciklusa során még nem bontakoztak ki eléggé. Úgy tűnik, hogy a deviáns mesterséges intelligencia programok visszafejtése alkalmas arra, hogy jobban megértsük, hogyan kell kezelni az elszigetelt incidenseket, de nem veszi át túlságosan a nagyszabású egzisztenciális eseményekben rejlő lehetőségeket. Az az elképzelés, hogy egy mesterséges intelligencia rendszer felülmúlja programozását és megváltoztatja a tervezett szerepét, kétségtelenül társadalmi, gazdasági és politikai kérdés lesz a jövőben, és kulcskérdés lesz az átlagos joe és a kibertérkutató számára egyaránt. 

    Az AI múltja, jelene és jövője 

    A mesterséges intelligencia területét 1965-ben alapították egy Dartmouth College konferencián. A legokosabb elmék közül néhányan nagy izgalommal gyűltek össze ezen a napon az ezekben a programokban rejlő lehetőségekről és a jövőbeli AI-infrastruktúra problémamegoldó hatékonyságáról. Míg az állami finanszírozás ezen a területen nagyon sok volt, a 90-es évek végén az AI-technológia gyakorlatiasabb alkalmazását tapasztalták, amikor az IBM Deep Blue lett az első számítógép, amely legyőzte a sakknagymestert. Ez megnyitotta a zsilipeket a mesterséges intelligencia előtt a popkultúrában azáltal, hogy olyan kvízműsorokon szerepeltek, mint a Jeopardy, amelyek bemutatták egy mainstream AI-alkalmazás erejét.  

     

    Manapság életünk szinte minden területén és területén találkozunk AI-alkalmazásokkal. Az algoritmus alapú programoktól kezdve, amelyek kölcsönhatásba lépnek velünk, és más érdeklődési körünk és tetszéseink alapján fogyasztási cikkeket forgalmaznak, az orvosi képalkotó gépekig, amelyek extrém mennyiségű információt nyelnek el, hogy feltárják a mintákat, hogy jobban segítsék a betegek kezelését, ezeknek a technológiáknak a felhasználási területe nagymértékben változik. . A jövőben az AI technológiát beépíthetik testünk sejtjeibe. A mesterséges intelligencia technológiák és az emberi biológia áthidalhatja a szakadékot, és összetartó egységként működhet a hatékonyság és az emberi lét forradalma nevében. Elon Musk, a Teslától még azt is állítja, hogy „idővel valószínűleg a biológiai intelligencia és a digitális intelligencia szorosabb egyesülését fogjuk látni”, és hogy ez a kombináció „leginkább a sávszélességről, az agyunk és a digitális változata közötti kapcsolat sebességéről szól. magát, különösen a kimenetet”. Ha ez a mesterséges intelligencia jövője, akkor tényleg megengedhetjük magunknak, hogy ne figyeljük a mai AI-programok eltéréseit, nem is beszélve a jövő fejlettebb programjairól? 

    A devianciához vezető út 

    Láttunk már elszigetelt példákat arra, hogy az AI megsértette a tervezett programozást. Csak tavaly a Google DeepMind AI rendszere (amely nagyrészt arról ismert, hogy legyőzi az összetett társasjátékok bajnokait, és hibátlanul utánozza a különböző emberi lények hangját) rendkívül agresszívvé vált, amikor szembesült azzal a lehetőséggel, hogy elveszíthet egy gyümölcsgyűjtő számítógépes játékot, amelyben két program verseng egymással. hogy minél több virtuális almát gyűjtsenek össze. A programok függetlenek voltak egészen addig, amíg az alma elkezdett ritkulni. A virtuális almák e szűkössége miatt a programok „nagyon agresszív” stratégiákat alkalmaztak annak érdekében, hogy a legjobban teljesítsék a másik programot. Bár ezeket a programokat úgy tervezték, hogy specifikus feladatokat hajtsanak végre, miközben alkalmazkodóak voltak, a módszereik agressziója aggasztó volt. 

    Battlefield kibertér 

    Hogyan végezzünk rendfenntartást egy olyan területen, amely nagyrészt nem fizikai jellegű? Milyen lábnyomok maradnak, ha egy bûncselekményt egy érzõ mesterséges intelligencia követ el, és milyen értelemben rendelkezünk morális képességekkel egy MI vagy alkotója üldözésére? Ezek azok a kérdések, amelyek a kevés kiberbiztonsági szakember fejében motoszkálnak. Mivel világszerte mindössze 10,000 10 kutató dolgozik mesterséges intelligencián, csak XNUMX százalékuk van járatos abban, hogy mi történne, ha e rendszerek bármelyike ​​meghibásodna, vagy élősködővé válna, és még kevésbé jártas ennek erkölcsi és etikai vonatkozásaiban. Bár ez aggasztónak tűnhet, az e kapcsolatok megértésére irányuló munka előrehalad. A folyamat olyan egyszerű, mint egy rosszindulatú program létrehozása a semmiből, és ezeknek a programoknak az alapjaként történő felhasználása annak megértéséhez, hogy más programok hogyan térhetnek el és okozhatnak problémákat. Ezekkel a lépésekkel kognitívabb megközelítéshez vezet AI-infrastruktúránk fejlesztése során, hogy ne fordulhasson elő rosszindulatúság, valamint megértjük, hogyan lehet beszivárogni és elhallgattatni egy olyan mesterséges intelligenciát, amelyet deviáns emberi erőfeszítések révén fegyvereztek. 

     

    Egy másik módja annak, hogy a kiberbiztonsági szakemberek megtanulják kezelni az AI-programokat, az az átvilágítási mechanizmusok. A konszenzus azt mutatja, hogy a rosszindulatú szándékkal megtervezett mesterséges intelligencia jelenti a legnagyobb kockázatot, ami jó hír, tekintve, hogy ez nem magának a programnak a közvetlen fejlődése. Ez egy emberközpontúbb megközelítéshez vezeti a megelőzést, mivel a bűnözőknek forrásokat kell szerezniük és ki kell éhezniük ahhoz, hogy valaha is olyan programot indíthassanak, amelynek pusztító hatásai lehetnek, vagy ilyen programok létrehozásának szándékával vádolják őket.  

     

    Ennek erkölcse és etikája ismét nagyon új, és csak körülbelül egy tucat, a mesterséges intelligencia kutatásában részt vevő egyén kezdte meg ennek mércéjét. Úgy fog fejlődni, ahogy a megértésünk növekszik. 

    Címkék
    Kategória
    Címkék
    Téma mező