Ինչպես են մարդիկ պաշտպանվելու արհեստական ​​գերհետախուզությունից. Արհեստական ​​ինտելեկտի ապագան P5

ՊԱՏԿԵՐԻ ՎԱՐԿ. Quantumrun

Ինչպես են մարդիկ պաշտպանվելու արհեստական ​​գերհետախուզությունից. Արհեստական ​​ինտելեկտի ապագան P5

    65,000 թվականն է մ.թ.ա., իսկ որպես ա Thylacoleo, դուք և ձեր տեսակը հին Ավստրալիայի մեծ որսորդներն էիք: Դուք ազատորեն շրջում էիք հողի վրա և հավասարակշռության մեջ էիք ապրում գիշատիչների և որսի հետ, որոնք գրավել էին երկիրը ձեր կողքին: Տարվա եղանակները փոփոխություններ բերեցին, բայց ձեր կարգավիճակը կենդանական թագավորությունում մնաց անառարկելի այնքան ժամանակ, որքան դուք և ձեր նախնիները կարող էիք հիշել: Հետո մի օր հայտնվեցին նորեկներ։

    Ասում են, որ նրանք եկել են հսկա ջրային պատից, բայց այս արարածները ավելի հարմարավետ էին թվում ցամաքում ապրելու համար: Դուք պետք է ինքներդ տեսնեիք այս արարածներին:

    Դա տևեց մի քանի օր, բայց դուք վերջապես հասաք ափ: Երկնքում կրակը բռնկվում էր, կատարյալ ժամանակ էր այս արարածներին լրտեսելու համար, գուցե նույնիսկ փորձեք ուտել մեկը՝ տեսնելու, թե ինչպես են նրանց համը:

    Դուք նկատում եք մեկը:

    Այն քայլում էր երկու ոտքի վրա և մորթի չուներ։ Այն թույլ տեսք ուներ: Ոչ տպավորիչ. Հազիվ թե արժեր այն վախը, որը նա առաջացնում էր թագավորության մեջ:

    Դուք սկսում եք ուշադիր մոտենալ, քանի որ գիշերը հեռացնում է լույսը: Դու մոտենում ես։ Հետո սառչում ես։ Բարձր ձայներ են հնչում, իսկ հետո ևս չորսը հայտնվում են անտառից դուրս: Քանի՞սն են։

    Էակը մյուսների հետևից գնում է ծառի գիծ, ​​իսկ դու հետևում ես: Եվ որքան շատ եք անում, այնքան ավելի տարօրինակ ձայներ եք լսում, մինչև չնկատեք այս արարածներից ավելի շատ: Դուք հետևում եք հեռավորության վրա, երբ նրանք դուրս են գալիս անտառից դեպի ափի բացատ: Դրանք շատ են։ Բայց ավելի կարևոր է, որ նրանք բոլորը հանգիստ նստած են կրակի շուրջ։

    Դուք նախկինում տեսել եք այս հրդեհները: Շոգ եղանակին երկնքում կրակը երբեմն այցելում էր ցամաքը և այրում ամբողջ անտառները։ Այս արարածները, մյուս կողմից, ինչ-որ կերպ վերահսկում էին այն։ Ինչպիսի՞ արարածներ կարող են ունենալ այդպիսի ուժ։

    Նայում ես հեռուն։ Ավելի շատ են գալիս հսկա ջրային պատի վրայով:

    Դուք մի քայլ հետ եք գնում։

    Այս արարածները նման չեն թագավորության մյուս արարածներին: Դրանք բոլորովին նոր բան են:

    Որոշում ես հեռանալ և զգուշացնել հարազատիդ։ Եթե ​​նրանց թիվը չափազանց մեծանա, ով գիտի, թե ինչ կարող է լինել:

    ***

    Ենթադրվում է, որ Thylacoleo-ն անհետացել է մարդկանց ժամանումից համեմատաբար կարճ ժամանակ անց, ինչպես նաև Ավստրալիայի մայրցամաքի մյուս մեգաֆաունայի մեծ մասը: Ոչ մի այլ գագաթնակետային կաթնասուն գիշատիչ չի զբաղեցրել դրա տեղը, եթե դուք մարդկանց չհամարեք այդ կատեգորիայի մեջ:

    Այս այլաբանությունը խաղալն այս սերիայի գլխի կիզակետն է. Արդյո՞ք ապագա արհեստական ​​գերհետախուզությունը (ASI) մեզ բոլորիս կվերածի մարտկոցների և այնուհետև կմիացնի մեզ Մատրիցայի մեջ, թե՞ մարդիկ կգտնեն միջոց՝ խուսափելու գիտաֆանտաստիկայի զոհ դառնալուց: AI դատաստանի օրվա սյուժե՞տ:

    Առայժմ մեր շարքի մասին Արհեստական ​​ինտելեկտի ապագան, մենք ուսումնասիրել ենք AI-ի բոլոր տեսակները, ներառյալ AI-ի որոշակի ձևի՝ ASI-ի դրական ներուժը. արհեստական ​​էակ, որի ապագա բանականությունը մեզ համեմատության մեջ կդարձնի մրջյունների տեսք:

    Բայց ո՞վ կարող է ասել, որ այդքան խելացի էակը հավերժ կընդունի մարդկանցից պատվերներ ընդունել: Ի՞նչ ենք անելու, եթե գործերը գնան հարավ: Ինչպե՞ս ենք մենք պաշտպանվելու սրիկա ASI-ից:

    Այս գլխում մենք կկտրենք կեղծ աղմուկը, գոնե «մարդկային անհետացման մակարդակի» վտանգների հետ կապված, և կկենտրոնանանք համաշխարհային կառավարությունների համար հասանելի ինքնապաշտպանության իրատեսական տարբերակների վրա:

    Կարո՞ղ ենք դադարեցնել արհեստական ​​գերհետախուզության հետագա բոլոր հետազոտությունները:

    Հաշվի առնելով պոտենցիալ վտանգները, որոնք ASI-ն կարող է առաջացնել մարդկության համար, առաջին ակնհայտ հարցն է. Չե՞նք կարող պարզապես դադարեցնել AI-ի վերաբերյալ հետագա բոլոր հետազոտությունները: Կամ գոնե արգելեք որևէ հետազոտություն, որը կարող է մեզ վտանգավոր կերպով մոտեցնել ASI ստեղծելուն:

    Կարճ պատասխան ՝ ոչ:

    Երկար պատասխան. Եկեք նայենք այստեղ ներգրավված տարբեր խաղացողներին:

    Հետազոտական ​​մակարդակում այսօր շատ են AI հետազոտողները՝ աշխարհի շատ ստարտափներից, ընկերություններից և համալսարաններից: Եթե ​​մի ընկերություն կամ երկիր որոշեր սահմանափակել արհեստական ​​ինտելեկտի հետազոտական ​​ջանքերը, նրանք պարզապես կշարունակեին այլուր:

    Միևնույն ժամանակ, մոլորակի ամենաթանկ ընկերությունները իրենց հարստությունն են վաստակում AI համակարգերի կիրառմամբ իրենց կոնկրետ բիզնեսներում: Նրանց խնդրելը դադարեցնել կամ սահմանափակել արհեստական ​​ինտելեկտի գործիքների զարգացումը, նման է նրան, որ խնդրեն դադարեցնել կամ սահմանափակել իրենց ապագա աճը: Ֆինանսական առումով դա կվտանգի նրանց երկարաժամկետ բիզնեսը։ Իրավաբանորեն, կորպորացիաները հավատարմագրային պատասխանատվություն են կրում շարունակաբար արժեքներ ստեղծելու իրենց շահագրգիռ կողմերի համար. դա նշանակում է, որ ցանկացած գործողություն, որը կսահմանափակի այդ արժեքի աճը, կարող է հանգեցնել դատական ​​գործընթացի: Եվ եթե որևէ քաղաքական գործիչ փորձեր սահմանափակել արհեստական ​​ինտելեկտի հետազոտությունները, ապա այս հսկա կորպորացիաները պարզապես կվճարեին անհրաժեշտ լոբբիստական ​​վճարները՝ փոխելու իրենց կամ իրենց գործընկերների կարծիքը:

    Պայքարի համար, ինչպես ամբողջ աշխարհում ահաբեկիչները և ազատամարտիկները օգտագործել են պարտիզանական մարտավարություն՝ ավելի լավ ֆինանսավորվող զինվորականների դեմ պայքարելու համար, փոքր երկրները խթան կունենան օգտագործելու արհեստական ​​ինտելեկտը որպես նմանատիպ մարտավարական առավելություն ավելի մեծ երկրների դեմ, որոնք կարող են ունենալ մի շարք ռազմական առավելություններ: Նմանապես, բարձրակարգ զինվորականների համար, ինչպիսիք են ԱՄՆ-ին, Ռուսաստանին և Չինաստանին պատկանող զինվորականները, ռազմական ASI-ի կառուցումը հավասարազոր է միջուկային զենքի զինանոց ունենալուն ձեր հետևի գրպանում: Այլ կերպ ասած, բոլոր զինվորականները կշարունակեն ֆինանսավորել արհեստական ​​ինտելեկտը միայն ապագայում համապատասխան մնալու համար:

    Ինչ վերաբերում է կառավարություններին: Ճիշտն ասած, այս օրերին (2018 թ.) քաղաքական գործիչների մեծ մասը տեխնոլոգիապես անգրագետ է և քիչ է հասկանում, թե ինչ է AI-ն կամ դրա ապագա ներուժը, ինչը հեշտացնում է նրանց շահարկել կորպորատիվ շահերը:

    Իսկ գլոբալ մակարդակում մտածեք, թե որքան դժվար էր համոզել աշխարհի կառավարություններին ստորագրել 2015թ Paris համաձայնագիրը կլիմայի փոփոխության դեմ պայքարելու համար, և երբ ստորագրվեցին, շատ պարտավորություններ նույնիսկ պարտադիր չէին: Ոչ միայն դա, այլև կլիմայի փոփոխությունն այն խնդիրն է, որը մարդիկ ֆիզիկապես զգում են ամբողջ աշխարհում՝ ավելի հաճախակի և խիստ եղանակային իրադարձությունների պատճառով: Հիմա, երբ խոսում ենք արհեստական ​​ինտելեկտի սահմանափակումների համաձայնության մասին, սա մեծ մասամբ անտեսանելի և հազիվ հասկանալի խնդիր է հանրության համար, ուստի հաջողություն կունենաք ցանկացած տեսակի «Փարիզյան համաձայնագիր»՝ արհեստական ​​ինտելեկտը սահմանափակելու համար:

    Այլ կերպ ասած, AI-ն ուսումնասիրող չափազանց շատ հետաքրքրություններ կան իրենց նպատակների համար, որպեսզի դադարեցնեն ցանկացած հետազոտություն, որն ի վերջո կարող է հանգեցնել ASI-ի: 

    Կարո՞ղ ենք արհեստական ​​գերհետախուզություն վանդակի մեջ դնել:

    Հաջորդ ողջամիտ հարցն այն է, որ մենք կարո՞ղ ենք փակել կամ վերահսկել ASI-ն, երբ անխուսափելիորեն ստեղծենք այն: 

    Կարճ պատասխան. Կրկին ոչ:

    Երկար պատասխան. Տեխնոլոգիան չի կարող զսպվել:

    Առաջին հերթին, պարզապես հաշվի առեք աշխարհի հազարավոր-միլիոնավոր վեբ մշակողների և համակարգչային գիտնականների մասին, ովքեր մշտապես ստեղծում են նոր ծրագրակազմ կամ գոյություն ունեցող ծրագրակազմի նոր տարբերակներ: Կարո՞ղ ենք անկեղծորեն ասել, որ նրանց ծրագրաշարի յուրաքանչյուր թողարկումը 100 տոկոսով զերծ է սխալներից: Այս սխալները պրոֆեսիոնալ հաքերներն են օգտագործում՝ միլիոնավոր մարդկանց վարկային քարտի տվյալները կամ ազգերի գաղտնի գաղտնիքները գողանալու համար, և սրանք մարդկային հաքերներ են: ASI-ի համար, ենթադրելով, որ նա ունի իր թվային վանդակից փախչելու խթան, ապա սխալներ գտնելու և ծրագրակազմը ճեղքելու գործընթացը հեշտ կլինի:

    Բայց նույնիսկ եթե արհեստական ​​ինտելեկտի հետազոտական ​​թիմը պարզել է ASI-ն արկղելու միջոց, դա չի նշանակում, որ հաջորդ 1,000 թիմերը նույնպես կհասկանան դա կամ կխրախուսվեն օգտագործել այն:

    ASI ստեղծելու համար միլիարդավոր դոլարներ և գուցե նույնիսկ տասնամյակներ կպահանջվեն: Կորպորացիաները կամ կառավարությունները, որոնք ներդնում են նման գումար և ժամանակ, ակնկալում են զգալի վերադարձ իրենց ներդրումներից: Եվ որպեսզի ASI-ն ապահովի նման եկամտաբերություն, լինի դա ֆոնդային շուկայի խաղը կամ նոր միլիարդ դոլարի ապրանք հորինելը կամ ավելի մեծ բանակի դեմ պայքարելու հաղթող ռազմավարություն պլանավորելը, նրան անհրաժեշտ կլինի անվճար մուտք դեպի հսկա տվյալների հավաքածու կամ նույնիսկ ինտերնետ: ինքն է արտադրել այդ եկամուտները:

    Եվ երբ ASI-ն մուտք է ստանում աշխարհի ցանցեր, երաշխիքներ չկան, որ մենք կարող ենք այն նորից խցկել իր վանդակում:

    Արհեստական ​​գերինտելեկտը կարո՞ղ է սովորել լավ լինել:

    Այս պահին AI հետազոտողները չեն անհանգստանում, որ ASI-ն կդառնա չար: Ամբողջ չար, արհեստական ​​ինտելեկտի գիտաֆանտաստիկ տրոփը պարզապես մարդիկ են, որոնք նորից մարդակերպվում են: Ապագա ASI-ն չի լինի ոչ բարի, ոչ չար, մարդկային հասկացություններ, պարզապես անբարոյական:

    Այսպիսով, բնական ենթադրությունն այն է, որ հաշվի առնելով այս դատարկ էթիկական թերթիկը, AI հետազոտողները կարող են ծրագրավորել ASI-ի առաջին էթիկական կոդերը, որոնք համահունչ են մեր կանոններին, որպեսզի այն չվերջանա մեզ վրա տերմինատորներ կամ մեզ բոլորիս վերածի Matrix մարտկոցների:

    Բայց այս ենթադրությունը թխում է երկրորդական ենթադրության մեջ, որ AI հետազոտողները նաև էթիկայի, փիլիսոփայության և հոգեբանության փորձագետներ են:

    Իրականում, շատերը չեն:

    Ըստ ճանաչողական հոգեբան և հեղինակ Սթիվեն Փինքերի՝ այս իրականությունը նշանակում է, որ էթիկայի կոդավորման խնդիրը կարող է տարբեր ձևերով սխալվել:

    Օրինակ, նույնիսկ ամենալավ մտադրություն ունեցող AI հետազոտողները կարող են ակամա ծածկագրել այս ASI-ի վատ մտածված էթիկական կոդերը, որոնք որոշակի սցենարներում կարող են ստիպել ASI-ին գործել որպես սոցիոպաթ:

    Նմանապես, հավասար հավանականություն կա, որ AI հետազոտողը ծրագրում է էթիկական կոդեր, որոնք ներառում են հետազոտողի բնածին կողմնակալությունները: Օրինակ, ինչպե՞ս կվարվեր ASI-ն, եթե կառուցված լինի էթիկայի հիման վրա, որը բխում է պահպանողական ընդդեմ ազատական ​​տեսանկյունից, կամ բուդդայական ընդդեմ քրիստոնեական կամ իսլամական ավանդույթի:

    Կարծում եմ, դուք տեսնում եք խնդիրը այստեղ. չկա մարդկային բարոյականության համընդհանուր հավաքածու: Եթե ​​մենք ցանկանում ենք, որ մեր ASI-ն գործի էթիկական կանոններով, որտեղի՞ց դա կգա: Ի՞նչ կանոններ ենք ներառում և բացառում: Ո՞վ է որոշում:

    Կամ ասենք, որ այս AI հետազոտողները ստեղծում են ASI, որը լիովին համապատասխանում է այսօրվա ժամանակակից մշակութային նորմերին և օրենքներին: Այնուհետև մենք օգտագործում ենք այս ASI-ն՝ օգնելու դաշնային, նահանգային/մարզային և մունիցիպալ բյուրոկրատիաներին ավելի արդյունավետ գործելու և ավելի լավ կիրառելու այս նորմերը և օրենքները (ի դեպ, ASI-ի օգտագործման հավանական դեպք): Լավ, ի՞նչ է լինում, երբ մեր մշակույթը փոխվում է։

    Պատկերացրեք, որ ASI-ն ստեղծվել է կաթոլիկ եկեղեցու կողմից իր հզորության գագաթնակետին միջնադարյան Եվրոպայի ժամանակ (1300-1400-ական թթ.)՝ նպատակ ունենալով օգնել եկեղեցուն կառավարել բնակչությանը և ապահովել ժամանակի կրոնական դոգման խստորեն հետևելը: Դարեր անց կանայք կվայելե՞ն նույն իրավունքները, ինչ այսօր։ Արդյո՞ք փոքրամասնությունները պաշտպանված կլինեն: Արդյո՞ք խոսքի ազատությունը կխթանվի: Կիրականացվի՞ եկեղեցու և պետության տարանջատումը։ Ժամանակակից գիտությո՞ւն։

    Այսինքն՝ ապագան ուզում ենք բանտարկել այսօրվա բարքերին ու սովորույթներին։

    Այլընտրանքային մոտեցումն այն է, որ կիսում է Քոլին Ալենը՝ գրքի համահեղինակը, Բարոյական Մեքենաներ. Ռոբոտներին ուսուցանելով ճիշտը սխալից. Էթիկական կոշտ կանոններ կոդավորելու փորձի փոխարեն, մենք ունենք ASI-ն սովորում է ընդհանուր էթիկան և բարոյականությունը նույն ձևով, ինչ անում են մարդիկ՝ փորձի և ուրիշների հետ փոխգործակցության միջոցով:

    Այնուամենայնիվ, խնդիրն այստեղ այն է, որ եթե AI հետազոտողները պարզեն ոչ միայն, թե ինչպես սովորեցնել ASI-ին մեր ներկայիս մշակութային և էթիկական նորմերը, այլ նաև ինչպես հարմարվել նոր մշակութային նորմերին, երբ դրանք առաջանում են (որը կոչվում է «անուղղակի նորմատիվություն»), ապա ինչպես: այս ASI-ն, որը որոշում է զարգացնել մշակութային և էթիկական նորմերի իր ըմբռնումը, դառնում է անկանխատեսելի:

    Եվ դա է մարտահրավերը:

    Մի կողմից, AI հետազոտողները կարող են փորձել ASI-ում կոդավորել խիստ էթիկական չափանիշներ կամ կանոններ՝ փորձելով վերահսկել նրա վարքը, սակայն վտանգի տակ են դնում անկանխատեսելի հետևանքներ անփույթ կոդավորումից, ակամա կողմնակալությունից և հասարակական նորմերից, որոնք մի օր կարող են հնացած դառնալ: Մյուս կողմից, մենք կարող ենք փորձել ուսուցանել ASI-ին, որպեսզի սովորի հասկանալ մարդկային էթիկան և բարոյականությունը այնպես, որ հավասար լինի կամ գերազանցի մեր սեփական ըմբռնմանը, և ապա հուսանք, որ այն կարող է ճշգրիտ զարգացնել էթիկայի և բարոյականության իր ըմբռնումը, երբ մարդկային հասարակությունը զարգանա: առաջ գալիք տասնամյակների և դարերի ընթացքում:

    Ամեն դեպքում, ASI-ի նպատակները մեր նպատակներին համապատասխանեցնելու ցանկացած փորձ մեծ ռիսկ է ներկայացնում:

    Իսկ եթե վատ դերասանները դիտավորյալ չար արհեստական ​​գերհետախուզություն ստեղծեն:

    Հաշվի առնելով մինչ այժմ ուրվագծված մտքի գնացքը, արդար հարց է հարցնել, թե արդյոք հնարավո՞ր է ահաբեկչական խմբավորման կամ ստահակ ազգի համար «չար» ASI ստեղծել իրենց նպատակների համար:

    Սա շատ հնարավոր է, հատկապես այն բանից հետո, երբ ASI-ի ստեղծման հետ կապված հետազոտությունը ինչ-որ կերպ հասանելի է դառնում առցանց:

    Բայց ինչպես նշվեց ավելի վաղ, առաջին ASI-ի ստեղծման հետ կապված ծախսերն ու փորձը հսկայական կլինեն, ինչը նշանակում է, որ առաջին ASI-ն հավանաբար կստեղծվի մի կազմակերպության կողմից, որը վերահսկվում է կամ մեծ ազդեցություն ունի զարգացած երկրի կողմից, հավանաբար ԱՄՆ-ի, Չինաստանի և Ճապոնիայի կողմից: Կորեան և ԵՄ առաջատար երկրներից մեկը հեռահար կրակոցներ են):

    Այս բոլոր երկրները, թեև մրցակիցներ են, յուրաքանչյուրն ունի համաշխարհային կարգը պահպանելու ուժեղ տնտեսական դրդապատճառներ. նրանց ստեղծած ASI-ները կարտացոլեն այդ ցանկությունը, նույնիսկ այն ժամանակ, երբ առաջ տանեն այն ազգերի շահերը, որոնց հետ նրանք համահունչ են:

    Բացի այդ, ASI-ի տեսական խելամտությունը և հզորությունը հավասար են այն հաշվողական հզորությանը, որին նա ստանում է մուտք, նկատի ունենալով զարգացած երկրների ASI-ները (որոնք կարող են իրենց թույլ տալ մի փունջ միլիարդ դոլար supercomputers) հսկայական առավելություն կունենա փոքր ազգերի կամ անկախ հանցավոր խմբերի ASI-ների նկատմամբ: Բացի այդ, ASI-ները ժամանակի ընթացքում ավելի խելացի են դառնում, ավելի արագ:

    Այսպիսով, հաշվի առնելով այս հիմնական սկիզբը, որը զուգորդվում է հումքային հաշվողական հզորության ավելի մեծ հասանելիության հետ, եթե ստվերային կազմակերպությունը/ազգը ստեղծի վտանգավոր ASI, զարգացած երկրների ASI-ները կամ կսպանեն այն, կամ կփակեն:

    (Մտածողության այս գիծը նաև այն պատճառով է, որ արհեստական ​​ինտելեկտի որոշ հետազոտողներ կարծում են, որ մոլորակի վրա կլինի միայն մեկ ASI, քանի որ առաջին ASI-ն այնպիսի առաջընթաց կունենա բոլոր հաջորդող ASI-ներից, որ ապագա ASI-ները կարող են դիտել որպես ոչնչացման սպառնալիք: կանխարգելիչ կերպով: Սա ևս մեկ պատճառ է, թե ինչու են երկրները ֆինանսավորում արհեստական ​​ինտելեկտի շարունակական հետազոտությունները, միայն այն դեպքում, եթե այն դառնա «առաջին կամ ոչինչ» մրցույթ:

    ASI հետախուզությունը չի արագանա կամ պայթի այնպես, ինչպես մենք կարծում ենք

    Մենք չենք կարող խանգարել ASI-ի ստեղծմանը: Մենք չենք կարող ամբողջությամբ վերահսկել այն: Մենք չենք կարող վստահ լինել, որ այն միշտ կգործի մեր ընդհանուր սովորույթներին համապատասխան: Ողջույն, մենք այստեղ սկսում ենք հնչել ուղղաթիռի ծնողների նման:

    Բայց այն, ինչ առանձնացնում է մարդկությանը ձեր բնորոշ չափից ավելի պաշտպանված ծնողից, այն է, որ մենք ծնում ենք մի էակ, որի բանականությունը շատ ավելի կմեծանա մերից: (Եվ ոչ, դա նույնը չէ, ինչ երբ ձեր ծնողները խնդրում են ձեզ շտկել իրենց համակարգիչը, երբ տուն եք գալիս այցելության): 

    Արհեստական ​​ինտելեկտի այս ապագա շարքի նախորդ գլուխներում մենք ուսումնասիրեցինք, թե ինչու են AI հետազոտողները կարծում, որ ASI-ի ինտելեկտը կզարգանա վերահսկողությունից դուրս: Բայց ահա, մենք կպայթենք այդ փուչիկը… մի տեսակ: 

    Տեսեք, բանականությունը պարզապես օդից չի ստեղծում, այն զարգանում է փորձի միջոցով, որը ձևավորվում է արտաքին խթանների միջոցով:  

    Այլ կերպ ասած, մենք կարող ենք ծրագրավորել AI-ի հետ հնարավոր դառնալ գերխելացի, բայց եթե մենք դրա մեջ մի տոննա տվյալներ չներբեռնենք կամ չտրամադրենք անսահմանափակ մուտք դեպի ինտերնետ կամ նույնիսկ պարզապես ռոբոտի մարմին չտանք, նա ոչինչ չի սովորի այդ ներուժին հասնելու համար: 

    Եվ նույնիսկ եթե այն հասանելի է դառնում այդ գրգռիչներից մեկին կամ մի քանիսին, գիտելիքը կամ բանականությունը ներառում է ավելին, քան պարզապես տվյալներ հավաքելը, այն ներառում է գիտական ​​մեթոդ՝ դիտարկում անել, հարց, վարկած կազմել, փորձեր կատարել, եզրակացություն անել, ողողել: և ընդմիշտ կրկնել: Հատկապես, եթե այս փորձերը ներառում են ֆիզիկական իրեր կամ մարդկանց դիտում, յուրաքանչյուր փորձի արդյունքների հավաքագրումը կարող է տևել շաբաթներ, ամիսներ կամ տարիներ: Սա նույնիսկ հաշվի չի առնում այս փորձարկումներն իրականացնելու համար անհրաժեշտ գումարն ու հումքային ռեսուրսները, հատկապես, եթե դրանք ենթադրում են նոր աստղադիտակի կամ գործարանի կառուցում: 

    Այլ կերպ ասած, այո, ASI-ն արագ կսովորի, բայց խելքը կախարդանք չէ: Դուք չեք կարող պարզապես ASI-ն միացնել գերհամակարգչին, այլ ակնկալել, որ այն ամեն ինչ գիտի: Կլինեն ֆիզիկական սահմանափակումներ ASI-ի կողմից տվյալների ձեռքբերման համար, ինչը նշանակում է, որ կլինեն ֆիզիկական սահմանափակումներ այն արագության համար, որ այն ավելի խելացի է դառնում: Այս սահմանափակումները մարդկությանը կտան այն ժամանակ, որն անհրաժեշտ է այս ASI-ի վրա անհրաժեշտ հսկողություն դնելու համար, եթե այն սկսի գործել մարդկային նպատակներից դուրս:

    Արհեստական ​​գերհետախուզությունը վտանգավոր է միայն այն դեպքում, եթե դուրս գա իրական աշխարհ

    Մեկ այլ կետ, որը կորել է ASI-ի վտանգի այս ամբողջ բանավեճում, այն է, որ այս ASI-ները նույնպես չեն լինի: Նրանք ֆիզիկական ձև կունենան։ Եվ ցանկացած բան, որն ունի ֆիզիկական ձև, կարելի է կառավարել:

    Նախ, որպեսզի ASI-ն հասնի իր հետախուզական ներուժին, այն չի կարող տեղավորվել մեկ ռոբոտի մարմնի ներսում, քանի որ այս մարմինը կսահմանափակի իր հաշվողական աճի ներուժը: (Ահա թե ինչու ռոբոտների մարմինները ավելի հարմար կլինեն AGI-ների համար կամ Արհեստական ​​ընդհանուր ինտելեկտը բացատրված է երկրորդ գլխում այս շարքի, ինչպես օրինակ Star Trek-ի տվյալները կամ R2D2-ը Star Wars-ից: Խելացի և ընդունակ էակներ, բայց ինչպես մարդիկ, նրանք կունենան սահման, թե որքան խելացի կարող են դառնալ:)

    Սա նշանակում է, որ այս ապագա ASI-ները, ամենայն հավանականությամբ, գոյություն կունենան սուպերհամակարգչի կամ գերհամակարգիչների ցանցի ներսում, որոնք իրենք տեղավորված են մեծ շենքերի համալիրներում: Եթե ​​ASI-ը շրջվում է, մարդիկ կարող են կամ անջատել այս շենքերի հոսանքը, կտրել դրանք ինտերնետից կամ ուղղակի ռմբակոծել այդ շենքերը: Թանկ, բայց իրագործելի։

    Բայց հետո դուք կարող եք հարցնել, արդյոք այս ASI-ները չեն կարող կրկնօրինակել իրենց կամ պաշտպանել իրենց: Այո, բայց այս ASI-ների չմշակված ֆայլերի չափը, հավանաբար, այնքան մեծ կլինի, որ միակ սերվերները, որոնք կարող են դրանք կարգավորել, պատկանում են խոշոր կորպորացիաներին կամ կառավարություններին, ինչը նշանակում է, որ նրանց գտնելը դժվար չի լինի:

    Արհեստական ​​գերհետախուզությունը կարո՞ղ է միջուկային պատերազմի կամ նոր ժանտախտի պատճառ դառնալ:

    Այս պահին դուք կարող եք ետ մտածել դատաստանի օրվա բոլոր գիտաֆանտաստիկ շոուների և ֆիլմերի մասին, որոնք դիտել եք մեծանալիս և մտածելով, որ այս ASI-ները չեն մնացել իրենց սուպերհամակարգիչների ներսում, նրանք իրական վնաս են հասցրել իրական աշխարհում:

    Դե, եկեք կոտրենք սրանք:

    Օրինակ, ինչ անել, եթե ASI-ն սպառնում է իրական աշխարհին՝ վերածվելով Skynet ASI-ի նման մի բանի՝ The Terminator ֆիլմի արտոնությունից: Այս դեպքում ASI-ին անհրաժեշտ կլինի գաղտնի Խաբել առաջադեմ ազգից մի ամբողջ ռազմաարդյունաբերական համալիր՝ կառուցելով հսկա գործարաններ, որոնք կարող են ստեղծել միլիոնավոր մարդասպան անօդաչու ռոբոտներ՝ իրենց չար խնդրանքը կատարելու համար: Այս ժամանակաշրջանում դա ձգվում է:

    Այլ հնարավորությունները ներառում են ASI-ն, որը սպառնում է մարդկանց միջուկային պատերազմով և կենսազենքով:

    Օրինակ, ASI-ն ինչ-որ կերպ մանիպուլյացիայի է ենթարկում օպերատորներին կամ կոտրում է առաջադեմ երկրի միջուկային զինանոցը կառավարող գործարկման ծածկագրերը և սկսում առաջին հարվածը, որը կստիպի հակառակորդ երկրներին հակահարված տալ իրենց միջուկային տարբերակներով (կրկին վերանայելով Տերմինատորի պատմությունը): Կամ եթե ASI-ն ներխուժում է դեղագործական լաբորատորիա, խաթարում է արտադրական գործընթացը և թունավորում միլիոնավոր բժշկական հաբեր կամ սանձազերծում ինչ-որ սուպեր վիրուսի մահացու բռնկում:

    Նախ, միջուկային տարբերակը դուրս է ափսեից: Ժամանակակից և ապագա սուպերհամակարգիչները միշտ կառուցվում են ցանկացած երկրի ազդեցության կենտրոնների (քաղաքների) մոտ, այսինքն՝ ցանկացած պատերազմի ժամանակ հարձակման ենթարկվող առաջին թիրախները: Նույնիսկ եթե այսօրվա սուպերհամակարգիչները փոքրանան մինչև աշխատասեղանի չափսերը, այս ASI-ները դեռևս կունենան ֆիզիկական ներկայություն, ինչը նշանակում է գոյություն ունենալ և աճել, նրանց անհրաժեշտ է տվյալների, հաշվողական հզորության, էլեկտրաէներգիայի և այլ հումքի անխափան հասանելիություն, որոնք բոլորը լուրջ կլինեն: տուժել է համաշխարհային միջուկային պատերազմից հետո: (Արդար լինելու համար, եթե ASI-ն ստեղծվում է առանց «գոյատեւման բնազդի», ապա այս միջուկային սպառնալիքը շատ իրական վտանգ է):

    Սա նշանակում է, ևս մեկ անգամ ենթադրելով, որ ASI-ն ծրագրված է իրեն պաշտպանելու համար, որ այն ակտիվորեն կաշխատի խուսափելու ցանկացած աղետալի միջուկային միջադեպից: Մի տեսակ նման է փոխադարձ երաշխավորված ոչնչացման (MAD) դոկտրինին, որը կիրառվում է AI-ի նկատմամբ:

    Իսկ թունավոր հաբերի դեպքում միգուցե մի քանի հարյուր մարդ կմահանա, բայց ժամանակակից դեղագործական անվտանգության համակարգերը մի քանի օրվա ընթացքում կտեսնեն, որ դեղահաբերի աղտոտված շշերը հանվում են դարակներից: Միևնույն ժամանակ, համաճարակի դեմ պայքարի ժամանակակից միջոցները բավականին բարդ են և տարեցտարի ավելի լավանում են. վերջին խոշոր բռնկումը՝ 2014 թվականի Արևմտյան Աֆրիկայում Էբոլայի բռնկումը, տևեց ոչ ավելի, քան մի քանի ամիս շատ երկրներում, իսկ ամենաքիչ զարգացած երկրներում՝ երեք տարուց քիչ:

    Այսպիսով, եթե հաջողակ լինի, ASI-ն կարող է ոչնչացնել մի քանի միլիոն վիրուսային բռնկումով, բայց մինչև 2045 թվականը ինը միլիարդանոց աշխարհում դա համեմատաբար աննշան կլինի և չարժե վտանգի ենթարկվել:

    Այլ կերպ ասած, տարեցտարի աշխարհն ավելի ու ավելի շատ պաշտպանական միջոցներ է մշակում հնարավոր սպառնալիքների անընդհատ ընդլայնվող շրջանակի դեմ: ASI-ն կարող է զգալի վնաս հասցնել, բայց այն չի վերջացնի մարդկությանը, եթե մենք ակտիվորեն չօգնենք նրան դա անել:

    Պաշտպանություն սրիկա արհեստական ​​գերհետախուզության դեմ

    Այս պահին մենք անդրադարձել ենք ASI-ների վերաբերյալ մի շարք սխալ պատկերացումների և չափազանցությունների, և, այնուամենայնիվ, քննադատները կմնան: Բարեբախտաբար, շատ գնահատականներով, մենք տասնամյակներ ունենք մինչև առաջին ASI-ի մուտքը մեր աշխարհ: Եվ հաշվի առնելով այս մարտահրավերի վրա ներկայումս աշխատող հիանալի մտքերի թիվը, հավանականությունը մեծ է, որ մենք կսովորենք, թե ինչպես պաշտպանվել մեզ անպիտան ASI-ից, որպեսզի կարողանանք օգուտ քաղել այն բոլոր լուծումներից, որոնք բարեկամական ASI-ն կարող է ստեղծել մեզ համար:

    Quantumrun-ի տեսանկյունից, ASI-ի վատագույն սցենարից պաշտպանվելը ենթադրում է մեր շահերի համապատասխանեցում ASI-ների հետ:

    MAD AI-ի համարՎատագույն սցենարներից պաշտպանվելու համար ազգերը պետք է (1) ստեղծեն էթիկական «գոյատեւման բնազդ» իրենց համապատասխան ռազմական ASI-ներում. (2) տեղեկացնել իրենց համապատասխան ռազմական ASI-ին, որ իրենք մենակ չեն մոլորակի վրա, և (3) գտնել բոլոր սուպերհամակարգիչները և սերվերային կենտրոնները, որոնք կարող են աջակցել ASI-ին առափնյա գծերի երկայնքով, թշնամի ազգի ցանկացած բալիստիկ հարձակման հեշտությամբ: Սա ռազմավարական առումով խելահեղ է թվում, բայց նման է փոխադարձ հավաստիացված ոչնչացման դոկտրինին, որը կանխեց համապարփակ միջուկային պատերազմը ԱՄՆ-ի և ԽՍՀՄ-ի միջև, տեղադրելով ASI-ները աշխարհագրորեն խոցելի վայրերում, մենք կարող ենք օգնել, որ նրանք ակտիվորեն կանխեն վտանգավոր գլոբալ պատերազմները, ոչ միայն պաշտպանել համաշխարհային խաղաղությունը, բայց նաև իրենց:

    Օրենսդրեք AI իրավունքներըԳերազանց ինտելեկտը անխուսափելիորեն կըմբոստանա ցածր տիրոջ դեմ, ահա թե ինչու մենք պետք է հեռանանք այս ASI-ների հետ տեր-ծառայ հարաբերություններ պահանջելուց դեպի փոխշահավետ գործընկերություն: Այս նպատակին ուղղված դրական քայլ է ապագա ASI-ի իրավաբանական անձի կարգավիճակ տալը, որը կճանաչի նրանց որպես խելացի կենդանի էակներ և դրանից բխող բոլոր իրավունքները:

    ASI դպրոցՑանկացած թեմա կամ մասնագիտություն պարզ կլինի ASI-ի համար սովորելու համար, բայց ամենակարևոր առարկաները, որոնք մենք ցանկանում ենք, որ ASI-ն տիրապետի, էթիկան և բարոյականությունն են: AI հետազոտողները պետք է համագործակցեն հոգեբանների հետ՝ մշակելու վիրտուալ համակարգ, որը սովորեցնում է ASI-ին ճանաչելու դրական էթիկան և բարոյականությունը՝ առանց որևէ կարգի պատվիրանների կամ կանոնների կոշտ կոդավորման:

    Իրագործելի նպատակներՎերջ տվեք բոլոր ատելությանը: Վերջ տվեք բոլոր տառապանքներին: Սրանք սարսափելի երկիմաստ նպատակների օրինակներ են, որոնք չունեն հստակ լուծում: Դրանք նաև վտանգավոր նպատակներ են, որոնք պետք է նշանակվեն ASI-ին, քանի որ այն կարող է ընտրել դրանք մեկնաբանել և լուծել մարդկային գոյատևման համար վտանգավոր եղանակներով: Փոխարենը, մենք պետք է նշանակենք ASI-ի բովանդակալից առաքելություններ, որոնք հստակորեն սահմանված են, աստիճանաբար իրականացվում և հասանելի՝ հաշվի առնելով նրա տեսական ապագա ինտելեկտը: Հստակ սահմանված առաքելություններ ստեղծելը հեշտ չի լինի, բայց եթե գրվեն մտածված, դրանք կկենտրոնացնեն ASI-ն դեպի մի նպատակ, որը ոչ միայն կապահովի մարդկությանը, այլև կբարելավի մարդկային վիճակը բոլորի համար:

    Քվանտային գաղտնագրումՕգտագործեք առաջադեմ ANI (արհեստական ​​նեղ ինտելեկտ համակարգը նկարագրված է գլխում առաջինում) ստեղծելու սխալ/անվտանգ թվային անվտանգության համակարգեր մեր կարևոր ենթակառուցվածքի և զենքերի շուրջ, այնուհետև դրանք պաշտպանել քվանտային գաղտնագրման հետևում, որը չի կարող թալանվել բիրտ ուժի հարձակման միջոցով: 

    ANI ինքնասպանության հաբ. Ստեղծեք առաջադեմ ANI համակարգ, որի միակ նպատակը խարդախ ASI-ի որոնումն ու ոչնչացումն է: Այս միանպատակ ծրագրերը կծառայեն որպես «անջատման կոճակ», որը հաջողության դեպքում կխուսափի կառավարություններից կամ զինվորականներից, որոնք ստիպված կլինեն անջատել կամ պայթեցնել շենքերը, որտեղ տեղակայված են ASI-ները:

    Իհարկե, սրանք միայն մեր կարծիքներն են։ Հետևյալ ինֆոգրաֆիկան ստեղծվել է Ալեքսեյ Տուրչին, պատկերացնելով ա հետազոտական ​​թուղթ Քաջ Սոտալայի և Ռոման Վ. Յամպոլսկու կողմից, որոնք ամփոփել են այն ռազմավարությունների ներկայիս ցանկը, որոնք քննարկում են արհեստական ​​ինտելեկտի հետազոտողները, երբ խոսքը վերաբերում է խարդախ ASI-ից պաշտպանվելու հարցում:

     

    Իրական պատճառը, որ մենք վախենում ենք արհեստական ​​գերհետախուզությունից

    Կյանքի միջով անցնելով՝ մեզանից շատերը կրում են դիմակ, որը թաքցնում կամ ճնշում է մեր խորը ազդակները, համոզմունքներն ու վախերը՝ ավելի լավ շփվելու և համագործակցելու տարբեր սոցիալական և աշխատանքային շրջանակներում, որոնք կառավարում են մեր օրերը: Բայց բոլորի կյանքի որոշակի պահերին, լինի դա ժամանակավոր, թե մշտական, տեղի է ունենում մի բան, որը թույլ է տալիս մեզ կոտրել մեր շղթաները և պոկել մեր դիմակները:

    Ոմանց համար այս միջամտող ուժը կարող է լինել նույնքան պարզ, որքան բարձրանալը կամ չափից շատ խմելը: Մյուսների համար դա կարող է առաջանալ աշխատավայրում առաջխաղացման կամ ձեր սոցիալական կարգավիճակի հանկարծակի անկման արդյունքում ձեռք բերված ուժից՝ ինչ-որ ձեռքբերումների շնորհիվ: Եվ մի քանի բախտավորների համար դա կարող է առաջանալ վիճակախաղի մի նավակ գումար վաստակելուց: Եվ այո, փողը, իշխանությունը և թմրանյութերը հաճախ կարող են միասին լինել: 

    Բանն այն է, որ լավ թե վատ, ով էլ որ մենք լինենք առանցքում, ուժեղանում է, երբ կյանքի սահմանափակումները վերանում են:

    Որ դա այն է, ինչ արհեստական ​​գերինտելեկտը ներկայացնում է մարդկային տեսակի համար՝ մեր հավաքական ինտելեկտի սահմանափակումները վերացնելու ունակությունը՝ հաղթահարելու մեր առջև ներկայացված տեսակի մակարդակի ցանկացած մարտահրավեր:

    Այսպիսով, իրական հարցն այն է. Երբ առաջին ASI-ն ազատի մեզ մեր սահմանափակումներից, մենք ովքե՞ր կհայտնվենք:

    Եթե ​​մենք որպես տեսակ գործենք կարեկցանքի, ազատության, արդարության և կոլեկտիվ բարեկեցության առաջխաղացման ուղղությամբ, ապա այն նպատակները, որոնք մենք դրել ենք մեր ASI-ի նկատմամբ, կարտացոլեն այդ դրական հատկանիշները:

    Եթե ​​մենք որպես տեսակ գործենք վախից, անվստահությունից, ուժի և ռեսուրսների կուտակումից, ապա մեր ստեղծած ASI-ն նույնքան մութ կլինի, որքան մեր ամենավատ գիտաֆանտաստիկ սարսափ պատմություններում:

    Ի վերջո, մենք՝ որպես հասարակություն, պետք է ավելի լավ մարդիկ դառնանք, եթե հույս ունենք ստեղծել ավելի լավ AI:

    Արհեստական ​​ինտելեկտի ապագան

    Արհեստական ​​ինտելեկտը վաղվա էլեկտրաէներգիան է՝ Արհեստական ​​ինտելեկտի ապագան P1 շարքը

    Ինչպես առաջին արհեստական ​​ընդհանուր բանականությունը կփոխի հասարակությունը. Արհեստական ​​ինտելեկտի ապագան շարք P2

    Ինչպես ենք մենք ստեղծելու առաջին արհեստական ​​գերինտելեկտուալը. Արհեստական ​​ինտելեկտի ապագան P3 շարքը

    Արդյո՞ք արհեստական ​​գերհետախուզությունը կկործանի մարդկությանը. Արհեստական ​​ինտելեկտի ապագան P4 սերիա

    Արդյո՞ք մարդիկ խաղաղ կապրեն արհեստական ​​ինտելեկտի գերիշխող ապագայում. Արհեստական ​​ինտելեկտի ապագա սերիա P6

    Այս կանխատեսման հաջորդ պլանավորված թարմացումը

    2023-04-27

    Կանխատեսման հղումներ

    Այս կանխատեսման համար հղում են արվել հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումներին.

    Ինչպես ենք մենք հասնում հաջորդին

    Այս կանխատեսման համար հղում են արվել հետևյալ Quantumrun հղումներին.