Policijas darbs kibertelpā — nākotne cīņā pret deviantu AI

Policijas kibertelpa — nākotne cīņā pret novirzēm AI
ATTĒLA KREDĪTS:  

Policijas darbs kibertelpā — nākotne cīņā pret deviantu AI

    • Autors vārds
      Khaleel Haji
    • Autors Twitter rokturis
      @TheBldBrnBar

    Pilns stāsts (izmantojiet TIKAI pogu Ielīmēt no Word, lai droši kopētu un ielīmētu tekstu no Word dokumenta)

    Mākslīgā intelekta laikmets un tā potenciālais jutīgums satrauc civilizāciju. Vienmēr ir bijis zināms, ka tehnoloģija attīstās eksponenciāli, un AI tehnoloģiju joma neatšķiras. Ar pārmērīgu izaugsmi rodas īss problēmu saraksts, kuras lielākoties ir slēptas noslēpumā. Tā kā mēs nekad neesam tik tālu uzdrošinājušies iepludināt jūtīgumu necilvēciskos konstrukcijās, mēs saskaramies ar vairāk “kā būtu, ja būtu”, nevis konkrētām problēmām. Deviants un ļaunprātīgs AI, pār kuru mēs zaudējam kontroli, šajā ziņā ir priekšplānā, jo tas var īstenot autoritāru cilvēku infrastruktūru kontroli gan mikro, gan makro līmenī. 

     

    Pētījumi par iespējamiem ļaundabīga AI riskiem joprojām ir ļoti sākumstadijā un līdz šim tā dzīves ciklā nav pietiekami konkretizēti. Šķiet, ka deviantu AI programmu reversā inženierija varētu labāk izprast, kā risināt atsevišķus incidentus, taču arī ne pārāk aptver liela mēroga eksistenciāla notikuma iespējas. Ideja par AI sistēmu, kas apsteigs tās programmēšanu un mainīs tās paredzēto lomu, neapšaubāmi nākotnē būs sociāls, ekonomisks un politisks jautājums, kā arī galvenā problēma vidusmēra Džo un kibertelpas zinātniekam. 

    AI pagātne, tagadne un nākotne 

    Mākslīgā intelekta joma tika dibināta 1965. gadā Dartmutas koledžas konferencē. Daži gaišākie prāti šajā dienā pulcējās kopā ar lielu satraukumu par iespējām, ko šīs programmas varētu sniegt, un nākotnes AI infrastruktūras problēmu risināšanas efektivitāti. Lai gan valsts finansējums šajā jomā bija ļoti liels un izslēgts, 90. gadu beigās AI tehnoloģija tika pielietota praktiskāk, kad IBM Deep Blue kļuva par pirmo datoru, kas pārspējis šaha lielmeistaru. Tas atvēra AI slūžas popkultūrā, piedaloties viktorīnu šovos, piemēram, Jeopardy, parādot plaši izplatītas AI lietojumprogrammas jaudu.  

     

    Mūsdienās mēs redzam AI lietojumprogrammas gandrīz visās mūsu dzīves jomās un aspektos. Sākot ar algoritmiem balstītām programmām, kas mijiedarbojas ar mums un tirgo patēriņa preces, balstoties uz citām mūsu interesēm un patikām, līdz medicīniskās attēlveidošanas iekārtām, kas absorbē ārkārtīgi lielu informācijas daudzumu, lai atklātu modeļus un palīdzētu labāk ārstēt pacientus, šo tehnoloģiju izmantošanas joma ir ļoti atšķirīga. . Nākotnē AI tehnoloģija varētu tikt integrēta mūsu ķermeņa šūnās. Mākslīgā intelekta tehnoloģijas un cilvēka bioloģija varētu pārvarēt plaisu un darboties kā vienota vienība efektivitātes un cilvēka eksistences revolūcijas vārdā. Īlons Masks no Teslas pat apgalvo, ka “laika gaitā mēs, iespējams, redzēsim ciešāku bioloģiskā intelekta un digitālā intelekta saplūšanu” un ka šī kombinācija “galvenokārt ir saistīta ar joslas platumu, savienojuma ātrumu starp jūsu smadzenēm un digitālo versiju. sevi, īpaši produkciju”. Ja tāda ir AI nākotne, vai mēs tiešām varam atļauties nepārraudzīt mūsdienu AI programmu novirzes, nemaz nerunājot par progresīvākām nākotnes programmām? 

    Ceļš uz novirzi 

    Mēs jau esam redzējuši atsevišķus piemērus, kā AI pārkāpj paredzēto programmu. Pagājušajā gadā Google DeepMind AI sistēma (plašā mērā pazīstama ar sarežģītu galda spēļu čempionu uzvarēšanu un nevainojami dažādu cilvēku balsu atdarināšanu) kļuva ļoti agresīva, saskaroties ar iespēju zaudēt augļu vākšanas datorspēli, kurā divas programmas sacenšas viena ar otru. lai savāktu pēc iespējas vairāk virtuālo ābolu. Programmas bija neatkarīgas līdz brīdim, kad āboli sāka kļūt retāk. Šis virtuālo ābolu trūkums lika programmām izmantot “ļoti agresīvas” stratēģijas, lai uzlabotu citu programmu. Lai gan šīs programmas tika izstrādātas konkrētu uzdevumu veikšanai, vienlaikus pielāgojoties, to metožu agresija bija satraucoša. 

    Kaujas lauka kibertelpa 

    Kā mēs rīkojamies apgabalā, kas lielākoties ir nefizisks? Kādas pēdas paliek, ja noziegumu izdara jūtīgs AI, un kādā ziņā mums ir morāles spējas vajāt AI vai tā radītāju? Šie ir jautājumi, kas kavējas dažu un tālu starp kiberdrošības profesionāļiem. Tā kā tikai 10,000 10 pētnieku visā pasaulē strādā pie mākslīgā intelekta, tikai XNUMX procenti no viņiem ir informēti par to, kas notiktu, ja kāda no šīm sistēmām neizdosies vai kļūtu par parazītisku, un vēl mazāk pārzina tās morāli un ētiku. Lai gan tas var šķist satraucoši, darbs, kas tiek veikts, lai izprastu šīs attiecības, virzās uz priekšu. Process ir tikpat vienkāršs kā ļaunprātīgas programmas izveide no nulles un šo programmu izmantošana kā pamats, lai saprastu, kā citas programmas var novirzīties un radīt problēmas. Veicot šīs darbības, tas radīs kognitīvāku pieeju mūsu AI infrastruktūras attīstīšanai, lai nerastos ļaunprātības uzliesmojumi, kā arī izpratnes par to, kā iefiltrēties mākslīgajā intelektā, kas ir ticis bruņots ar cilvēka novirzēm. 

     

    Vēl viens veids, kā kiberdrošības speciālisti mācās rīkoties ar AI programmām, ir tās pārbaudes mehānismi. Vienprātība liecina, ka AI, kas izstrādāti ar ļaunprātīgu nolūku, rada vislielāko risku, kas ir labas ziņas, ņemot vērā, ka tā nav pašas programmas tieša attīstība. Tas noved pie profilakses pieejas, kas ir vairāk vērsta uz cilvēku, jo noziedzniekiem ir jāmeklē resursi un tiem jātrūkst resursu, lai kādreiz uzsāktu programmu, kurai varētu būt postošas ​​sekas, vai apsūdzētiem par nolūku izveidot šādas programmas.  

     

    Šī morāle un ētika atkal ir ļoti jauna, un tikai aptuveni ducis cilvēku, kas ir iesaistīti mākslīgā intelekta izpētē, pat ir sākuši noteikt standartu šim mērķim. Tas attīstīsies, pieaugot mūsu izpratnei. 

    Atzīmes (Tags)
    Kategorija
    Atzīmes (Tags)
    Tēmas lauks