Адамдар жасанды супер интеллекттен қалай қорғанатын болады: жасанды интеллекттің болашағы P5

Кредит суреті: Квантумрун

Адамдар жасанды супер интеллекттен қалай қорғанатын болады: жасанды интеллекттің болашағы P5

    Жыл б.з.б. 65,000 XNUMX ж Thylacoleo, сіз және сіздің түріңіз ежелгі Австралияның ұлы аңшылары болдыңыз. Сіз жерді емін-еркін аралап, сізбен бірге жерді басып алған басқа жыртқыштар мен олжалармен тепе-теңдікте өмір сүрдіңіз. Жыл мезгілдері өзгерістер әкелді, бірақ сіз және сіздің ата-бабаларыңыз есіңізде болғанша, сіздің жануарлар әлеміндегі мәртебеңіз еш күмәнсіз қалды. Содан бір күні жаңадан келгендер пайда болды.

    Олар алып су қабырғасынан келді деген қауесет бар, бірақ бұл тіршілік иелері құрлықта өмір сүруге ыңғайлы болып көрінді. Сіз бұл тіршілік иелерін өзіңіз көруіңіз керек еді.

    Бірнеше күн өтті, бірақ сіз жағалауға жеттіңіз. Аспандағы от жағылып жатыр, бұл тіршілік иелеріне барлаудың тамаша уақыты, мүмкін олардың дәмін көру үшін біреуін жеп көріңіз.

    Сіз біреуін байқадыңыз.

    Ол екі аяқпен жүрді, жүні жоқ. Әлсіз көрінді. Әсерсіз. Патшалық арасында тудырған қорқынышқа лайық емес.

    Түн жарықты қуып бара жатқанда, сіз жақындауыңызды мұқият жасай бастайсыз. Сіз жақындайсыз. Сосын қатып қаласың. Қатты дыбыстар естіліп, артынан орманнан тағы төртеуі шығады. Нешеу бар?

    Жануар басқалардың соңынан ағаш сызығына түседі, ал сіз ілесесіз. Неғұрлым көп жасасаңыз, осы тіршілік иелерін байқамайынша, соншалықты оғаш дыбыстар естисіз. Олар орманнан жағадағы ашық жерге шыққанда, сіз алыстан ілесесіз. Олардың көпшілігі бар. Бірақ одан да маңыздысы, олардың барлығы оттың айналасында тыныш отыр.

    Сіз бұл өрттерді бұрын көргенсіз. Ыстық мезгілде аспандағы от кейде жерді аралап, бүкіл ормандарды өртеп жіберетін. Бұл жаратылыстар, екінші жағынан, олар оны қалай да басқарды. Қандай жаратылыс мұндай күшке ие болуы мүмкін?

    Сіз алысқа қарайсыз. Алып су қабырғасынан көбірек адамдар келеді.

    Сіз бір қадам артқа кетесіз.

    Бұл жаратылыстар патшалықтағы басқаларға ұқсамайды. Олар мүлдем жаңа нәрсе.

    Сіз кетуге және туыстарыңызға ескертуге шешім қабылдадыңыз. Егер олардың саны тым көп болса, не боларын кім біледі.

    ***

    Тилаколео Австралия континентіндегі басқа мегафауналардың көпшілігімен бірге адамдар келгеннен кейін салыстырмалы түрде қысқа мерзімде жойылды деп саналады. Оның орнын басқа ешбір сүтқоректі жыртқыштар алған жоқ - егер сіз осы санаттағы адамдарды санамасаңыз.

    Бұл аллегорияны ойнау осы серияның тарауының негізгі мақсаты: Болашақ жасанды супер интеллект (ASI) бәрімізді батареяға айналдырып, содан кейін бізді матрицаға қосады ма немесе адамдар фантастикалық фильмнің құрбаны болмаудың жолын таба ма? AI ақырзаман сюжеті?

    Әзірге біздің сериямызда Жасанды интеллект болашағы, біз AI-ның барлық түрлерін, соның ішінде АИ-нің белгілі бір түрінің, ASI-нің оң әлеуетін зерттедік: болашақ интеллект бізді құмырсқаға ұқсайтын жасанды тіршілік иесі.

    Бірақ мұндай ақылды жаратылыс адамдардан бұйрық алуды мәңгілікке қабылдайды деп кім айта алады. Іс оңтүстікке қарай кетсе не істейміз? Біз жалған ASI-дан қалай қорғанамыз?

    Бұл тарауда біз «адамдардың жойылу деңгейіне» қатысты қауіп-қатерге қатысты жалған айғай-шуларды қиып, әлемдік үкіметтерге қолжетімді өзін-өзі қорғаудың шынайы нұсқаларына назар аударамыз.

    Біз жасанды интеллектке қатысты барлық зерттеулерді тоқтата аламыз ба?

    ASI адамзатқа төндіруі мүмкін ықтимал қауіптерді ескере отырып, бірінші сұрақ қою керек: AI бойынша барлық одан әрі зерттеулерді тоқтата алмаймыз ба? Немесе, кем дегенде, бізді ASI құруға қауіпті түрде жақындатуы мүмкін кез келген зерттеулерге тыйым саласыз ба?

    Қысқа жауап: Жоқ.

    Ұзақ жауап: Мұнда қатысқан әртүрлі ойыншыларды қарастырайық.

    Зерттеу деңгейінде бүгінде әлем бойынша тым көп стартаптардан, компаниялардан және университеттерден AI зерттеушілері тым көп. Егер бір компания немесе ел AI зерттеулерін шектеуді шешсе, олар жай ғана басқа жерде жалғастырады.

    Сонымен қатар, планетаның ең құнды компаниялары өздерінің жеке бизнесіне AI жүйелерін қолдану арқылы табыс табуда. Олардан AI құралдарын дамытуды тоқтатуды немесе шектеуді сұрау олардың болашақ өсуін тоқтатуды немесе шектеуді сұрауға ұқсайды. Қаржылық тұрғыдан бұл олардың ұзақ мерзімді бизнесіне қауіп төндіреді. Заңды түрде корпорациялар өздерінің мүдделі тараптары үшін құндылықты тұрақты түрде құру үшін сенімді жауапкершілікке ие; бұл құнның өсуін шектейтін кез келген әрекет сотқа әкелуі мүмкін дегенді білдіреді. Егер кез келген саясаткер AI зерттеулерін шектеуге тырысса, онда бұл алып корпорациялар өздерінің немесе әріптестерінің ойын өзгерту үшін қажетті лоббилік алымдарды төлейді.

    Дүние жүзіндегі лаңкестер мен бостандық үшін күресушілер жақсы қаржыландырылатын әскерлерге қарсы күресу үшін партизандық тактиканы қолданғаны сияқты, ұрыс үшін кішігірім елдерде бірқатар әскери артықшылықтарға ие болуы мүмкін үлкенірек елдерге қарсы AI-ны ұқсас тактикалық артықшылық ретінде пайдалануға ынталандыру болады. Сол сияқты, АҚШ, Ресей және Қытайға тиесілі әскерилер үшін әскери ASI құру сіздің қалтаңызда ядролық қару арсеналының болуымен тең. Басқаша айтқанда, барлық әскерилер болашақта өзекті болу үшін AI-ны қаржыландыруды жалғастырады.

    Ал үкіметтер ше? Шынын айтқанда, қазіргі уақытта (2018 ж.) саясаткерлердің көпшілігі технологиялық тұрғыдан сауатсыз және AI не екенін немесе оның болашақ әлеуетін түсінбейді - бұл оларды корпоративтік мүдделермен басқаруды жеңілдетеді.

    Ал жаһандық деңгейде әлемдік үкіметтерді 2015 жылға қол қоюға сендіру қаншалықты қиын болғанын қарастырыңыз Париж келісім климаттың өзгеруімен күресу үшін - және қол қойылғаннан кейін көптеген міндеттемелер тіпті міндетті емес еді. Бұл ғана емес, климаттың өзгеруі - адамдар жиі және ауыр ауа райы оқиғалары арқылы жаһандық физикалық түрде бастан кешіретін мәселе. Енді, AI шектеулеріне келісу туралы айтатын болсақ, бұл негізінен көрінбейтін және жұртшылық үшін әрең түсінетін мәселе, сондықтан AI шектеуге арналған «Париж келісімінің» кез келген түрін сатып алуға сәттілік тілейміз.

    Басқаша айтқанда, АИ-ге әкелетін кез келген зерттеулерді тоқтату үшін өз мақсаттары үшін AI-ді зерттеуге қызығушылықтар өте көп. 

    Біз жасанды интеллектіні қамти аламыз ба?

    Келесі ақылға қонымды сұрақ - біз сөзсіз жасағаннан кейін ASI-ны торға түсіре аламыз ба немесе басқара аламыз ба? 

    Қысқа жауап: Тағы да, жоқ.

    Ұзақ жауап: Технологияны қамту мүмкін емес.

    Біріншіден, жаңа бағдарламалық жасақтаманы немесе бұрыннан бар бағдарламалық жасақтаманың жаңа нұсқаларын үнемі шығаратын әлемдегі мыңдаған миллиондаған веб-әзірлеушілер мен компьютер ғалымдарын қарастырыңыз. Біз олардың бағдарламалық қамтамасыз ету шығарылымдарының әрқайсысы 100 пайыз қатесіз деп айта аламыз ба? Бұл қателер кәсіби хакерлер миллиондаған адамның несие картасының ақпаратын немесе халықтардың құпия құпияларын ұрлау үшін пайдаланады және бұл адам хакерлері. ASI үшін оның цифрлық торынан құтылуға ынтасы бар болса, қателерді табу және бағдарламалық жасақтаманы бұзу процесі оңай болар еді.

    Бірақ егер AI зерттеу тобы ASI-ны қораптаудың жолын анықтаса да, бұл келесі 1,000 команда оны анықтайды немесе оны пайдалануға ынталандырады дегенді білдірмейді.

    ASI құру үшін миллиардтаған долларлар, мүмкін, ондаған жылдар қажет. Мұндай ақша мен уақытты инвестициялаған корпорациялар немесе үкіметтер инвестициясынан айтарлықтай қайтарымды күтеді. ASI үшін қор нарығында ойнау немесе жаңа миллиард долларлық өнімді ойлап табу немесе үлкенірек армиямен күресу үшін жеңіске жету стратегиясын жоспарлау болсын - бұл үлкен деректер жиынтығына немесе тіпті Интернетке тегін қол жеткізуді қамтамасыз ету үшін ASI үшін сол кірістерді өндіру үшін өзі.

    Ал ASI әлемдік желілерге қол жеткізгеннен кейін, оны өз торына қайта салуымызға кепілдік жоқ.

    Жасанды интеллект жақсы болуға үйрене ала ма?

    Дәл қазір AI зерттеушілері ASI зұлымдыққа айналады деп алаңдамайды. Бүкіл зұлымдық, AI ғылыми фантастикалық троп - бұл адамдар қайтадан антропоморфизациялау. Болашақ ASI жақсы да, жаман да емес - адам ұғымдары - жай моральдық болмайды.

    Табиғи болжам, осы бос этикалық тақтаны ескере отырып, AI зерттеушілері бізге Терминаторларды жіберіп алмас үшін немесе бәрімізді матрицалық батареяларға айналдырмас үшін өзімізге сәйкес келетін алғашқы ASI этикалық кодекстерін бағдарламалай алады.

    Бірақ бұл болжам AI зерттеушілері де этика, философия және психология саласындағы сарапшылар деген екінші болжамды тудырады.

    Шындығында, көпшілігі олай емес.

    Когнитивтік психолог және автор Стивен Пинкердің айтуынша, бұл шындық этиканы кодтау міндеті әртүрлі жолдармен қателесуі мүмкін дегенді білдіреді.

    Мысалы, тіпті жақсы ниетті AI зерттеушілері де осы ASI-ге нашар ойластырылған этикалық кодтарды байқаусызда кодтауы мүмкін, бұл белгілі бір сценарийлерде ASI-ны социопат сияқты әрекет етуге әкелуі мүмкін.

    Сол сияқты, AI зерттеушісінің зерттеушінің туа біткен бейімділіктерін қамтитын этикалық кодекстерді бағдарламалау ықтималдығы бірдей. Мысалы, консервативті және либералдық көзқарастан немесе буддиспен христиандық немесе исламдық дәстүрден алынған этикамен құрылған болса, ASI өзін қалай ұстайды?

    Менің ойымша, сіз бұл жерде мәселені көріп отырсыз: адами моральдың әмбебап жиынтығы жоқ. Егер біз ASI-нің этикалық кодекспен әрекет етуін қаласақ, ол қайдан шығады? Қандай ережелерді қосамыз және алып тастаймыз? Кім шешеді?

    Немесе бұл AI зерттеушілері бүгінгі заманауи мәдени нормалар мен заңдарға толық сәйкес келетін ASI жасайды делік. Содан кейін біз федералдық, штаттық/провинциялық және муниципалдық бюрократияларға тиімдірек жұмыс істеуге және осы нормалар мен заңдарды жақсырақ орындауға көмектесу үшін осы ASI пайдаланамыз (айтпақшы, ASI үшін пайдалану жағдайы). Мәдениетіміз өзгерсе не болады?

    Елестетіп көріңізші, ASI-ны католик шіркеуі ортағасырлық Еуропа кезінде (1300-1400 жж.) шіркеуге халықты басқаруға көмектесу және сол кездегі діни догманың қатаң сақталуын қамтамасыз ету мақсатында өзінің билігінің шыңында құрылған. Ғасырлар өткен соң, әйелдер бүгінгідей құқықтарға ие болар ма еді? Азшылықтар қорғалады ма? Сөз бостандығын алға жылжыту керек пе? Шіркеу мен мемлекетті бөлу күшіне енеді ме? Қазіргі ғылым?

    Былайша айтқанда, келешекті бүгінгі әдеп пен әдет-ғұрыпқа қамап қойғымыз келе ме?

    Баламалы тәсіл - бұл кітаптың авторларының бірі Колин Аллен бөліскен әдіс. Моральдық машиналар: роботтарды дұрыстан бұрысқа үйрету. Қатаң этикалық ережелерді кодтауға тырысудың орнына, бізде ASI жалпы этика мен моралды адамдар сияқты тәжірибе және басқалармен өзара әрекеттесу арқылы үйренеді.

    Бұл жерде мәселе, егер AI зерттеушілері ASI-ге қазіргі мәдени және этикалық нормаларымызды қалай үйрету керектігін ғана емес, сонымен қатар олар пайда болған кезде жаңа мәдени нормаларға ("жанама норматив" деп аталатын нәрсе) қалай бейімделу керектігін анықтаса, онда қалай? бұл ASI өзінің мәдени және этикалық нормалар туралы түсінігін дамытуды шешеді.

    Бұл қиындық.

    Бір жағынан, AI зерттеушілері оның мінез-құлқын бақылау және бақылау үшін ASI-ге қатаң этикалық стандарттарды немесе ережелерді кодтауға тырысуы мүмкін, бірақ бір күні ескіруі мүмкін ұқыпсыз кодтау, әдейі емес бұрмалану және қоғамдық нормалардың күтпеген салдары болуы мүмкін. Екінші жағынан, біз ASI-ді адамның этикасы мен моральын өз түсінігімізге тең немесе жоғарырақ түсінуге үйретуге тырысамыз, содан кейін ол адам қоғамы алға жылжыған сайын оның этика мен мораль туралы түсінігін дәл дамыта алады деп үміттенеміз. алдағы онжылдықтар мен ғасырларда алға.

    Қалай болғанда да, ASI мақсаттарын өз мақсаттарымен сәйкестендіру әрекеті үлкен қауіп тудырады.

    Жаман актерлер әдейі зұлым жасанды интеллект жасаса ше?

    Осы уақытқа дейін айтылған ойлар тізбегін ескере отырып, лаңкестік топ немесе жалған халық өз мақсаттары үшін «зұлым» ASI құру мүмкін бе деген сұрақ қою әділетті сұрақ.

    Бұл өте мүмкін, әсіресе ASI құруға қатысты зерттеулер қандай да бір жолмен онлайн режимінде қол жетімді болғаннан кейін.

    Бірақ жоғарыда айтылғандай, бірінші ASI-ны құруға жұмсалатын шығындар мен тәжірибе орасан зор болады, яғни бірінші ASI-ны дамыған елдер басқаратын немесе қатты әсер ететін ұйым жасауы мүмкін, бәлкім, АҚШ, Қытай және Жапония ( Корея және Еуропалық Одақтың жетекші елдерінің бірі - ұзын кадрлар).

    Бұл елдердің барлығы бәсекелес бола тұра, олардың әрқайсысында әлемдік тәртіпті қолдауға күшті экономикалық ынталандырулар бар — олар жасаған ASI-тер өздері үйлестіретін елдердің мүдделерін көтерсе де, осы тілекті көрсетеді.

    Сонымен қатар, ASI-ның теориялық интеллектісі мен қуаты ол қол жеткізе алатын есептеу қуатына тең, яғни дамыған елдердің ASIs (бұл миллиард долларға қол жеткізе алады) суперкомпьютерлер) кішігірім елдердің немесе тәуелсіз қылмыстық топтардың ASI-ге қарағанда үлкен артықшылығы болады. Сондай-ақ, ASIs ақылдырақ, уақыт өте тез өседі.

    Осылайша, бұл бастапқы бастауды ескере отырып, шикі есептеу қуатына көбірек қол жетімділікпен біріктірілген, егер көлеңкелі ұйым/ұлт қауіпті ASI жасаса, дамыған елдердің ASIs оны өлтіреді немесе торға түсіреді.

    (Осы ойлау сызығы сондай-ақ кейбір AI зерттеушілерінің планетада тек бір ғана ASI болады деп санайды, өйткені бірінші ASI барлық кейінгі ASIs үшін соншалықты жоғары бастамаға ие болады, сондықтан ол болашақ ASIs-ті жойылу қаупі ретінде қарастыруы мүмкін. Бұл елдердің AI саласындағы үздіксіз зерттеулерді қаржыландыруының тағы бір себебі, егер ол «бірінші орын немесе ештеңе» бәсекелестікке айналса.)

    ASI интеллектісі біз ойлағандай жылдамдамайды немесе жарылмайды

    Біз ASI құрылуын тоқтата алмаймыз. Біз оны толығымен басқара алмаймыз. Біз оның әрқашан ортақ әдет-ғұрыптарымызға сәйкес әрекет ететініне сенімді бола алмаймыз. Тақсыр, біз мұнда тікұшақ ата-анасына ұқсай бастадық!

    Бірақ адамзатты сіздің әдеттегі тым қорғаншы ата-анаңыздан ерекшелендіретін нәрсе - біз ақыл-ойы біздікінен әлдеқайда жоғары болатын тіршілік иесін туып жатырмыз. (Жоқ, бұл сіздің ата-анаңыз үйге қонаққа келген сайын компьютеріңізді жөндеуді сұраған кездегідей емес.) 

    Жасанды интеллект сериясының осы болашағының алдыңғы тарауларында біз AI зерттеушілері ASI интеллектінің бақылаусыз өсетінін неліктен ойлайтынын зерттедік. Бірақ бұл жерде біз бұл көпіршікті жарып жібереміз ... түрі. 

    Қарап отырсаңыз, интеллект өзін жай ғана ауадан жаратпайды, ол сыртқы ынталандырулар арқылы қалыптасқан тәжірибе арқылы дамыды.  

    Басқаша айтқанда, біз AI-ді бағдарламалай аламыз әлеует өте интеллектуалды болу үшін, бірақ біз оған көптеген деректерді жүктеп бермесек немесе Интернетке шектеусіз қол жеткізуге мүмкіндік бермесек немесе оған робот денесін бермесек, ол бұл әлеуетке жету үшін ештеңе үйренбейді. 

    Егер ол осы ынталандырулардың біреуіне немесе бірнешеуіне қол жеткізсе де, білім немесе интеллект деректер жинауды ғана емес, ол ғылыми әдісті қамтиды - бақылау жасау, сұрақ, гипотеза құру, эксперименттер жүргізу, қорытынды жасау, шаю. және мәңгі қайталаңыз. Әсіресе, егер бұл эксперименттер физикалық заттарды немесе адамдарды бақылауды қамтыса, әрбір эксперименттің нәтижелерін жинауға апталар, айлар немесе жылдар қажет болуы мүмкін. Бұл тіпті осы эксперименттерді жүргізу үшін қажет ақша мен шикізат ресурстарын есепке алмайды, әсіресе олар жаңа телескоп немесе зауыт салумен байланысты болса. 

    Басқаша айтқанда, иә, ASI тез үйренеді, бірақ интеллект сиқыр емес. Сіз жай ғана ASI-ны суперкомпьютерге қосып, оның бәрін біледі деп күте алмайсыз. ASI деректерін алуында физикалық шектеулер болады, яғни оның интеллектуалды өсуінің жылдамдығына физикалық шектеулер болады. Бұл шектеулер, егер ол адам мақсаттарына сай әрекет ете бастаса, адамзатқа осы ASI-ге қажетті басқару элементтерін орналастыру үшін қажет уақыт береді.

    Жасанды интеллект, егер ол нақты әлемге енсе ғана қауіпті

    Осы ASI қауіпі туралы пікірталаста жоғалған тағы бір мәселе - бұл ASIs екеуінде де болмайды. Олардың физикалық формасы болады. Ал физикалық пішіні бар кез келген нәрсені басқаруға болады.

    Біріншіден, ASI өзінің интеллект әлеуетіне жету үшін оны бір робот корпусының ішінде орналастыру мүмкін емес, өйткені бұл дене оның есептеу өсу әлеуетін шектейді. (Сондықтан робот денелері AGI немесе жасанды жалпы интеллект екінші тарауда түсіндіріледі Star Trek деректері немесе Жұлдызды соғыстардағы R2D2 сияқты осы серияның. Ақылды және қабілетті тіршілік иелері, бірақ адамдар сияқты, олардың қаншалықты ақылды болуының шегі болады.)

    Бұл болашақ ASI-лер суперкомпьютерде немесе үлкен құрылыс кешендерінде орналасқан суперкомпьютерлер желісінде болуы мүмкін дегенді білдіреді. Егер ASI өкшесін бұрса, адамдар бұл ғимараттардың қуатын өшіре алады, оларды Интернеттен ажырата алады немесе бұл ғимараттарды тікелей бомбалай алады. Қымбат, бірақ орындалатын.

    Бірақ содан кейін сіз бұл ASI-лер өздерін қайталай алмайды немесе сақтық көшірмесін жасай алмайды деп сұрай аласыз ба? Иә, бірақ бұл ASI файлдарының өңделмеген өлшемі соншалықты үлкен болады, сондықтан оларды өңдей алатын жалғыз серверлер ірі корпорацияларға немесе үкіметтерге тиесілі, яғни оларды іздеу қиын болмайды.

    Жасанды интеллект ядролық соғысты немесе жаңа оба тудыруы мүмкін бе?

    Осы кезде сіз өсіп келе жатқан қиямет күніндегі барлық ғылыми-фантастикалық шоулар мен фильмдерді еске түсіріп, бұл ASI-лар өздерінің суперкомпьютерлерінің ішінде қалмады, олар нақты әлемде нақты зиян келтірді деп ойлайтын шығарсыз!

    Кәне, осыларды бөлшектеп көрейік.

    Мысалы, егер ASI «Терминатор» фильмінің франшизасындағы Skynet ASI сияқты нәрсеге айналу арқылы нақты әлемге қауіп төндірсе ше? Бұл жағдайда ASI қажет болады жасырын түрде бүкіл әскери өнеркәсіп кешенін алдыңғы қатарлы елден миллиондаған өлтіруші ұшқышсыз роботтарды шығара алатын алып зауыттар салуға айналдырыңыз. Қазіргі заманда бұл өте қиын.

    Басқа мүмкіндіктерге ядролық соғыс пен биоқару арқылы адамдарға қауіп төндіретін ASI кіреді.

    Мысалы, ASI қандай да бір түрде операторларды басқарады немесе озық елдің ядролық арсеналын басқаратын іске қосу кодтарын бұзады және қарсылас елдерді өздерінің ядролық нұсқаларымен кері соққы беруге мәжбүр ететін бірінші соққыны жасайды (қайтадан Терминатордың артқы тарихын қайталау). Немесе ASI фармацевтикалық зертханаға кіріп, өндіріс процесін бұзып, миллиондаған медициналық таблеткаларды уландырса немесе кейбір супервирустың өлімге әкелетін індетін шығарса.

    Біріншіден, ядролық опция тақтадан тыс. Заманауи және болашақ суперкомпьютерлер әрқашан кез келген елдегі ықпал ету орталықтарының (қалаларының) жанында, яғни кез келген соғыс кезінде шабуылға ұшырайтын алғашқы нысандардың жанында салынады. Бүгінгі суперкомпьютерлер жұмыс үстелінің өлшеміне дейін кішірейсе де, бұл ASI-лер әлі де физикалық қатысуға ие болады, бұл бар болу және өсу дегенді білдіреді, олар деректерге, есептеу қуатына, электр қуатына және басқа шикізатқа үздіксіз қол жеткізуді қажет етеді, олардың барлығы өте ауыр болады. жаһандық ядролық соғыстан кейін бұзылған. (Әділ болу үшін, егер ASI «тірі қалу инстинкті» болмаса, онда бұл ядролық қауіп өте нақты қауіп болып табылады.)

    Бұл тағы да, ASI өзін қорғауға бағдарламаланған деп болжасақ, ол кез келген апатты ядролық оқиғаны болдырмау үшін белсенді жұмыс істейтінін білдіреді. Өзара сенімді жойылу (MAD) доктринасы сияқты, бірақ AI-ға қатысты.

    Ал уланған таблеткалар жағдайында бірнеше жүз адам өлуі мүмкін, бірақ заманауи фармацевтикалық қауіпсіздік жүйелері бірнеше күн ішінде сөреден алынған таблетка бөтелкелерін көреді. Сонымен қатар, эпидемияны бақылаудың заманауи шаралары өте күрделі және жыл өткен сайын жақсарып келеді; соңғы ірі індет, 2014 жылы Батыс Африкадағы Эбола індеті көптеген елдерде бірнеше айдан аспады және нашар дамыған елдерде үш жылдан аз уақытқа созылды.

    Осылайша, егер сәттілік болса, ASI вирустық індетпен бірнеше миллионды жоюы мүмкін, бірақ 2045 жылға қарай тоғыз миллиард әлемде бұл салыстырмалы түрде шамалы және жойылу қаупіне тұрарлық емес.

    Басқаша айтқанда, жыл өткен сайын әлем ықтимал қауіп-қатерлердің кеңеюіне қарсы қорғаныс шараларын жасауда. ASI айтарлықтай зиян келтіруі мүмкін, бірақ біз оған белсенді түрде көмектеспейінше, ол адамзатты жоймайды.

    Жалған жасанды интеллекттен қорғану

    Осы уақытқа дейін біз ASIs туралы қате түсініктер мен асыра сілтеулерді қарастырдық, бірақ әлі де сыншылар қалады. Бақытымызға орай, көптеген бағалаулар бойынша, бірінші ASI біздің әлемге енгенге дейін бізде ондаған жылдар бар. Қазіргі уақытта осы тапсырмамен жұмыс істеп жатқан керемет ақыл-ойлардың санын ескере отырып, біз достық ASI біз үшін жасай алатын барлық шешімдерден пайда алу үшін өзімізді жалған ASI-дан қалай қорғау керектігін үйренуіміз мүмкін.

    Квантумрунның көзқарасы бойынша, ең нашар ASI сценарийінен қорғау біздің мүдделерімізді ASI-мен сәйкестендіруді қамтиды.

    AI үшін MAD: Ең нашар жағдай сценарийлерінен қорғану үшін елдерге (1) өздерінің тиісті әскери ASI-де этикалық «тірі қалу инстинктін» жасау қажет; (2) өздерінің тиісті әскери ASI-ге планетада жалғыз емес екендігі туралы хабарлау және (3) жау елінің кез келген баллистикалық шабуылына оңай жететін жағалау сызығының бойында ASI-ге қолдау көрсете алатын барлық суперкомпьютерлер мен сервер орталықтарын орналастырыңыз. Бұл стратегиялық тұрғыдан ақылсыз болып көрінеді, бірақ АҚШ пен Кеңестер арасындағы жаппай ядролық соғыстың алдын алған «Өзара кепілдендірілген жою» доктринасына ұқсас, ASIs-ті географиялық тұрғыдан осал жерлерде орналастыру арқылы біз олардың қауіпті жаһандық соғыстардың белсенді түрде алдын алуға көмектесе аламыз. жаһандық бейбітшілікті ғана емес, өздерін де қорғайды.

    AI құқықтарын заңдастырыңыз: Жоғары интеллект міндетті түрде төмен қожайынға қарсы шығады, сондықтан біз осы ASIs-мен қожайын мен қызметші қарым-қатынасын талап етуден бас тартып, өзара тиімді серіктестік сияқты нәрсеге көшуіміз керек. Бұл мақсатқа жетудегі оң қадам - ​​болашақ ASI заңды тұлға мәртебесін беру, ол оларды интеллектуалды тіршілік иелері және онымен бірге келетін барлық құқықтар ретінде таниды.

    ASI мектебі: Кез келген тақырып немесе мамандық ASI үшін қарапайым болады, бірақ біз ASI меңгергіміз келетін ең маңызды пәндер этика және мораль болып табылады. Жасанды интеллект зерттеушілері өсиеттердің немесе ережелердің кез келген түрін қатаң кодтауды қажет етпестен, АСИ-ді оң этика мен моралды тануға үйрету үшін виртуалды жүйені жасау үшін психологтармен бірлесіп жұмыс істеуі керек.

    Қол жеткізуге болатын мақсаттар: Барлық жек көрушілікті тоқтатыңыз. Барлық азапты аяқтаңыз. Бұл нақты шешімі жоқ қорқынышты екіұшты мақсаттардың мысалдары. Олар сондай-ақ ASI-ге тағайындаудың қауіпті мақсаттары болып табылады, өйткені ол оларды адамның өмір сүруіне қауіпті жолдармен түсіндіруді және шешуді таңдауы мүмкін. Оның орнына, біз ASI-ге нақты анықталған, бірте-бірте орындалатын және оның теориялық болашақ интеллектін ескере отырып, қол жеткізуге болатын мағыналы миссияларды тағайындауымыз керек. Жақсы анықталған миссияларды жасау оңай болмайды, бірақ ойластырылған түрде жазылса, олар ASI-ны адамзаттың қауіпсіздігін сақтап қана қоймай, барлығы үшін адам жағдайын жақсартатын мақсатқа бағыттайды.

    Кванттық шифрлау: Жетілдірілген ANI пайдаланыңыз (жасанды интеллект бірінші тарауда сипатталған жүйе) сыни инфрақұрылымымыз бен қаруларымыздың айналасында қателіксіз/қатесіз сандық қауіпсіздік жүйелерін құру, содан кейін оларды өрескел күш шабуылымен бұзылмайтын кванттық шифрлау арқылы одан әрі қорғау. 

    ANI суицидке қарсы таблетка. Жалғыз мақсаты жалған ASI іздеу және жою болып табылатын жетілдірілген ANI жүйесін жасаңыз. Бұл бір мақсатты бағдарламалар «өшіру түймесі» ретінде қызмет етеді, егер сәтті болса, үкіметтер немесе әскерлер ASIs орналасқан ғимараттарды өшіру немесе жарып жіберуден сақтайды.

    Әрине, бұл біздің пікіріміз ғана. Келесі инфографиканы жасаған Алексей Турчин, визуализация а ғылыми-зерттеу жұмысы Кадж Сотала мен Роман В. Ямпольский, бұл AI зерттеушілері жалған ASI-дан қорғауға келгенде қарастыратын стратегиялардың ағымдағы тізімін қорытындылады.

     

    Жасанды интеллекттен қорқуымыздың нақты себебі

    Өмірді бастан өткере отырып, көпшілігіміз біздің күндерімізді басқаратын әртүрлі әлеуметтік және жұмыс топтарында жақсырақ әлеуметтену және ынтымақтастық үшін терең импульстарымызды, сенімдерімізді және қорқыныштарымызды жасыратын немесе басатын маска киеміз. Бірақ әркімнің өмірінің белгілі бір кезеңдерінде, уақытша немесе тұрақты болсын, шынжырымызды үзіп, бетперделерімізді жұлып алуға мүмкіндік беретін нәрсе болады.

    Кейбіреулер үшін бұл аралық күш көтерілу немесе тым көп ішу сияқты қарапайым болуы мүмкін. Басқалар үшін бұл жұмыстағы жоғарылау немесе белгілі бір жетістіктің арқасында әлеуметтік мәртебеңіздің кенеттен көтерілуі арқылы алынған күштен туындауы мүмкін. Ал бақытты бірнеше адам үшін бұл лотереядан ақша жинау арқылы келуі мүмкін. Иә, ақша, билік және есірткі жиі бірге болуы мүмкін. 

    Мәселе мынада, жақсы болсын, жаман болсын, өмірдің шектеулері еріген кезде біз кім болсақ та күшейе түседі.

    сол Бұл жасанды супер интеллект адам түріне көрсететін нәрсе - алдымызда тұрған кез келген түр деңгейіндегі сынақтарды жеңу үшін ұжымдық интеллектіміздің шектеулерін жою қабілеті.

    Сонымен, нақты сұрақ: бірінші ASI бізді шектеулерімізден босатқанда, біз өзімізді кім екенімізді ашамыз?

    Егер біз түр ретінде эмпатияны, еркіндікті, әділеттілікті және ұжымдық әл-ауқатты дамыту бағытында әрекет етсек, онда біздің ASI-ге қойған мақсаттарымыз сол жағымды қасиеттерді көрсетеді.

    Егер біз түр ретінде қорқыныштан, сенімсіздіктен, күш пен ресурстардың жинақталуынан әрекет етсек, онда біз жасайтын ASI біздің ең нашар ғылыми-фантастикалық қорқынышты оқиғаларымыздағыдай қараңғы болады.

    Ақыр соңында, біз жақсы AI жасауға үміттенсек, қоғам ретінде жақсы адамдар болуымыз керек.

    Жасанды интеллект сериясының болашағы

    Жасанды интеллект - ертеңгі электр энергиясы: Жасанды интеллекттің болашағы P1 сериясы

    Бірінші жасанды жалпы интеллект қоғамды қалай өзгертеді: Жасанды интеллекттің болашағы P2 сериясы

    Бірінші Жасанды суперинтеллигенцияны қалай жасаймыз: Жасанды интеллекттің болашағы P3 сериясы

    Жасанды суперинтеллект адамзатты жоя ма: Жасанды интеллекттің болашағы P4 сериясы

    Жасанды интеллект үстемдік ететін болашақта адамдар бейбіт өмір сүре ме?: Жасанды интеллекттің болашағы P6 сериясы

    Осы болжам үшін келесі жоспарланған жаңарту

    2023-04-27

    Болжам анықтамалары

    Бұл болжам үшін келесі танымал және институционалдық сілтемелерге сілтеме жасалды:

    Келесіге қалай жетеміз

    Бұл болжам үшін келесі Quantumrun сілтемелеріне сілтеме жасалды: