Адамдар Жасалма суперинтеллекттен кантип коргойт: Жасалма интеллекттин келечеги P5

Кредит сүрөтү: Quantumrun

Адамдар Жасалма суперинтеллекттен кантип коргойт: Жасалма интеллекттин келечеги P5

    Биздин заманга чейинки 65,000 XNUMX-жыл жана б.з.ч Пример, сиз жана сиздин түрүңүз байыркы Австралиянын улуу мергенчилери болгонсуз. Сен жерди ээн-эркин кыдырып, сени менен кошо жерди ээлеген жырткычтар жана олжолор менен тең салмакта жашадың. Мезгилдер өзгөрүүлөрдү алып келди, бирок сиздин жаныбарлар дүйнөсүндөгү статусуңуз сиз жана ата-бабаларыңыз эстей турган убакка чейин эч кандай талашсыз бойдон калды. Анан бир күнү жаңы келгендер пайда болду.

    Ушактарга караганда, алар алп суу дубалынан келишкен, бирок бул жандыктар кургактыкта ​​жашоого ыңгайлуураак көрүнгөн. Сиз бул жандыктарды өзүңүз көрүшүңүз керек болчу.

    Бир нече күн өттү, бирок акыры жээкке жеттиңиз. Асмандагы от күйүп жатты, бул жандыктарга чалгындоо үчүн эң сонун убакыт, балким, алардын даамын көрүү үчүн бирөөнү жеп көрүңүз.

    Сен бирин байкайсың.

    Ал эки буту менен жүрүп, жүндөрү жок болчу. Ал алсыз көрүндү. Эффективдүү эмес. Падышалыктын арасында коркунуч туудурган жок.

    Түн жарыкты кубалап баратканда, кылдаттык менен мамиле кыла баштайсыз. Сиз жакындап жатасыз. Анан тоңуп каласың. Катуу үндөр угулат, анан анын артындагы токойдон дагы төртөө пайда болот. Ал жакта канча?

    Жандык башкаларды ээрчип дарак линиясына кирет, сен болсо ээрчи. Жана канчалык көп кылсаңыз, ошончолук таң калыштуу үндөрдү угасыз, бул жандыктардын көбүн байкайсыз. Алар токойдон жээктеги талаага чыгып баратканда, сиз алыстан ээрчип келесиз. Алардын көбү бар. Бирок андан да маанилүүсү, алардын баары тынч оттун жанында отурушат.

    Сиз бул өрттөрдү мурда көргөнсүз. Ысык мезгилде асмандагы от кээде жерге келип, токойлорду бүтүндөй өрттөп жиберчү. Бул жандыктар, тескерисинче, кандайдыр бир жол менен аны башкарып жатышты. Мындай күчкө кандай жандыктар ээ боло алат?

    Сен алыстан карайсың. Алп суу дубалынын үстүнөн дагы көптөр келе жатышат.

    Сиз артка кадам таштаңыз.

    Бул жандыктар падышалыктагы башкалардай эмес. Алар таптакыр жаңы нерсе.

    Сиз кетүүнү чечип, тууганыңызды эскертесиз. Алардын саны өтө көбөйүп кетсе, эмне болорун ким билет.

    ***

    Тилаколео Австралия континентиндеги башка мегафауналардын көпчүлүгү менен бирге адамдар келгенден кийин салыштырмалуу кыска убакыттан кийин жок болуп кеткен деп эсептелет. Анын ордун башка эч бир апекс сүт эмүүчүлөрдүн жырткычтары ээлеген жок, башкача айтканда, бул категориядагы адамдарды эсепке албаганда.

    Бул аллегорияны ойнотуу бул сериалдын негизги бөлүгү болуп саналат: Келечектеги жасалма суперинтеллект (ASI) баарыбызды батареяга айлантып, анан бизди матрицага туташтырабы же адамдар илимий фантастиканын курмандыгы болуп калбоонун жолун табабы? AI кыямат сюжети?

    Буга чейин биздин сериалдарда Жасалма Акылдын Келечеги, биз AIнын бардык түрлөрүн, анын ичинде AIнын белгилүү бир түрүнүн, ASIнин оң потенциалын изилдеп көрдүк: келечектеги интеллект бизди кумурскага окшоштура турган жасалма жандык.

    Бирок мынчалык акылдуу жан түбөлүккө адамдардан буйрук алганды кабыл алат деп ким айта алат. Иш түштүккө кетсе эмне кылабыз? Кантип биз АССИден коргойбуз?

    Бул бөлүмдө биз жалган ызы-чууларды, жок эле дегенде, бул "адамдардын жок болуу деңгээли" коркунучуна байланыштуу - жана дүйнөлүк өкмөттөр үчүн жеткиликтүү өзүн-өзү коргоонун реалдуу варианттарына көңүл бурабыз.

    Жасалма супер интеллект боюнча мындан аркы изилдөөлөрдү токтото алабызбы?

    ASI адамзатка алып келиши мүмкүн болуучу тобокелдиктерди эске алуу менен, биринчи айкын суроо: AI боюнча мындан аркы изилдөөлөрдү токтото албайбызбы? Же, жок эле дегенде, бизди ASI түзүүгө коркунучтуу жакындоого алып келе турган изилдөөлөргө тыюу салууга болобу?

    Кыска жооп: Жок.

    Узун жооп: Келгиле, бул жерде тартылган ар кандай оюнчуларды карап көрөлү.

    Изилдөө деңгээлинде бүгүнкү күндө дүйнө жүзү боюнча өтө көп стартаптардан, компаниялардан жана университеттерден AI изилдөөчүлөрү өтө көп. Эгерде бир компания же өлкө AI изилдөө аракеттерин чектөөнү чечсе, алар жөн эле башка жерде уланта бермек.

    Ошол эле учурда, планетанын эң баалуу компаниялары AI системаларын конкреттүү бизнесине колдонуудан байып жатышат. Алардан AI куралдарын өнүктүрүүнү токтотууну же чектөөнү сурануу алардын келечектеги өсүшүн токтотууну же чектөөнү суранганга окшош. Финансылык жактан бул алардын узак мөөнөттүү бизнесине коркунуч келтирет. Юридикалык жактан, корпорациялар кызыкдар тараптар үчүн баалуулуктарды тынымсыз куруу үчүн фидуциардык жоопкерчиликке ээ; бул нарктын өсүшүн чектей турган кандайдыр бир иш-аракет сотко алып келиши мүмкүн дегенди билдирет. Эгерде кандайдыр бир саясатчы AI изилдөөлөрүн чектөөгө аракет кылса, анда бул гигант корпорациялар өздөрүнүн оюн же кесиптештеринин оюн өзгөртүү үчүн зарыл болгон лоббилик акысын төлөшмөк.

    Согуш үчүн, дүйнө жүзү боюнча террористтер жана эркиндик үчүн күрөшкөндөр жакшыраак каржыланган аскерлерге каршы күрөшүү үчүн партизандык тактиканы колдонушкандай, кичинекей мамлекеттер дагы бир катар аскердик артыкчылыктарга ээ болгон ири мамлекеттерге каршы AIны тактикалык артыкчылык катары колдонууга шыктанышат. Анын сыңарындай, АКШ, Орусия жана Кытайга тиешелүү жогорку аскерийлер үчүн аскердик ASI куруу арткы чөнтөгүңүздө өзөктүк куралдын арсеналына ээ болуу менен бирдей. Башкача айтканда, бардык аскерлер келечекте актуалдуу бойдон калуу үчүн AIди каржылоону улантат.

    Өкмөттөр жөнүндө эмне айтууга болот? Чынын айтканда, бүгүнкү күндө көпчүлүк саясатчылар (2018-жыл) технологиялык жактан сабатсыз жана AI эмне экенин же анын келечектеги потенциалын түшүнүшпөйт — бул аларды корпоративдик кызыкчылыктар менен башкарууну жеңилдетет.

    Ал эми дүйнөлүк деңгээлде, дүйнөлүк өкмөттөрдү 2015-жылга кол коюуга ынандыруу канчалык кыйын болгонун карап көрөлү Париж келишими Климаттын өзгөрүшү менен күрөшүү үчүн - жана кол коюлгандан кийин, көптөгөн милдеттенмелер милдеттүү болгон эмес. Ал гана эмес, климаттын өзгөрүшү адамдардын физикалык жактан улам барган сайын тез-тезден жана катаал аба ырайынын окуялары аркылуу дүйнө жүзү боюнча башынан өткөрүп жаткан көйгөйү. Эми, AI чектөөлөрүнө макулдук берүү жөнүндө сөз болгондо, бул негизинен көрүнбөгөн жана коомчулукка араң түшүнгөн маселе, андыктан AI чектөө боюнча "Париж келишиминин" ар кандай түрүн сатып алууга ийгилик каалайбыз.

    Башкача айтканда, АИге алып келиши мүмкүн болгон ар кандай изилдөөлөрдү токтотуу үчүн AIди өз максаттары үчүн изилдөөчү кызыктар өтө көп. 

    Жасалма суперинтеллектти капастай алабызбы?

    Кийинки акылга сыярлык суроо - биз сөзсүз түрдө ASI түзгөндөн кийин аны капаска же башкара алабызбы? 

    Кыска жооп: Дагы, жок.

    Узун жооп: Технологияны кармап туруу мүмкүн эмес.

    Биринчиден, дүйнөдөгү миңдеген миллиондогон веб-иштеп чыгуучуларды жана компьютердик илимпоздорду карап көрөлү, алар дайыма жаңы программалык камсыздоону же учурдагы программалык камсыздоонун жаңы версияларын чыгарышат. Чынын айтсак, алардын ар бир программалык релиздери 100 пайыз катасыз деп айта алабызбы? Бул мүчүлүштүктөрдү кесипкөй хакерлер миллиондогон адамдардын кредиттик карта маалыматын же элдердин жашыруун сырларын уурдоо үчүн колдонушат — жана булар адамдык хакерлер. ASI үчүн, анын санариптик капастан качууга стимул бар деп ойлосок, анда мүчүлүштүктөрдү табуу жана программалык камсыздоону бузуу процесси жеңил болмок.

    Бирок AI изилдөө тобу ASIди кутулоонун жолун тапкан күндө да, бул кийинки 1,000 команда аны да аныктайт же аны колдонууга шыктандырат дегенди билдирбейт.

    ASI түзүү үчүн миллиарддаган доллар, балким, ондогон жылдар талап кылынат. Мындай акчаны жана убакытты инвестициялаган корпорациялар же өкмөттөр өз салымдарынан олуттуу киреше күтүшөт. Ал эми ASI ушундай кирешени камсыз кылуу үчүн - бул биржада ойнообу же жаңы миллиард долларлык продуктуну ойлоп табуубу же чоңураак армия менен күрөшүү үчүн жеңүүчү стратегияны пландообу - гиганттык маалымат топтомуна же Интернетке акысыз кирүү керек болот. өзү ошол кирешелерди өндүрүү үчүн.

    Ал эми ASI дүйнөлүк тармактарга кирүү мүмкүнчүлүгүнө ээ болгондон кийин, биз аны кайра анын капасына сала алабыз деген кепилдик жок.

    Жасалма суперинтеллект жакшы болууга үйрөнө алабы?

    Азыр AI изилдөөчүлөрү ASI жаман болуп калат деп кооптонушпайт. Бүт жамандык, AI илимий фантастикалык троп - бул жөн гана адамдар кайрадан антропоморфизациялоо. Келечектеги ASI жакшы да, жаман да болбойт - адамдык түшүнүктөр - жөн гана моралдык эмес.

    Табигый божомол, бул бош этикалык баракчаны эске алуу менен, AI изилдөөчүлөрү биздин өзүбүзгө ылайык келген биринчи ASI этикалык коддорун программалай алышат, андыктан ал бизге Терминаторлорду чыгарбашы же баарыбызды матрицанын батарейкаларына айлантып жибербеши үчүн.

    Бирок бул божомол AI изилдөөчүлөрү да этика, философия жана психология боюнча эксперттер деген экинчи даражадагы божомолду жаратат.

    Чынында, көбү андай эмес.

    Когнитивдик психолог жана жазуучу Стивен Пинкердин айтымында, бул чындык этиканы коддоо милдети ар кандай жолдор менен туура эмес болуп кетиши мүмкүн дегенди билдирет.

    Мисалы, эң жакшы ниети бар AI изилдөөчүлөрү да бул ASI начар ойлонулган этикалык коддорго кокусунан код киргизиши мүмкүн, алар кээ бир сценарийлерде ASI социопат сыяктуу иш алып барышы мүмкүн.

    Ошо сыяктуу эле, AI изилдөөчүсү изилдөөчүнүн тубаса ыктарын камтыган этикалык коддорду программалоо ыктымалдыгы бирдей. Мисалы, консервативдик жана либералдык көз караштан же буддисттен христиандык же исламдык салттан келип чыккан этика менен курулса, АСИ өзүн кандай алып жүрөт?

    Менин оюмча, сиз бул жерде маселени көрүп жатасыз: адамдык адеп-ахлактын универсалдуу жыйындысы жок. Эгерде биз ASIнин этикалык кодекс менен иштешин кааласак, ал кайдан чыгат? Кандай эрежелерди киргизебиз жана киргизбейбиз? Ким чечет?

    Же бул AI изилдөөчүлөрү бүгүнкү заманбап маданий нормаларга жана мыйзамдарга толук шайкеш келген ASI түзүшөт дейли. Андан кийин биз федералдык, штаттык/провинциялык жана муниципалдык бюрократияларга натыйжалуураак иштешине жана бул нормаларды жана мыйзамдарды жакшыраак аткарууга жардам берүү үчүн бул ASIди колдонобуз (айтмакчы, ASI үчүн колдонуу учуру). Маданиятыбыз өзгөргөндө эмне болот?

    Элестеткиле, АСИ католик чиркөөсү тарабынан Орто кылымдардагы Европада (1300-1400-жылдары) чиркөөгө калкты башкарууга жардам берүү жана ошол кездеги диний догмаларды катуу карманууну камсыз кылуу максатында түзүлгөн. Кылымдар өткөндөн кийин, аялдар азыркыдай укуктарга ээ болобу? Азчылыктар корголмок беле? Сөз эркиндиги өнүгөт беле? Чиркөө менен мамлекетти бөлүү күчүнө кирмек беле? Заманбап илим?

    Башкача айтканда, келечекти бүгүнкү күндөгү адеп-ахлакка, үрп-адатка камап салгыбыз келеби?

    Альтернативалуу ыкма Колин Аллен, китептин авторлорунун бири. Моралдык машиналар: Роботторду туура эместен туура үйрөтүү. Катуу этикалык эрежелерди кодтоого аракет кылуунун ордуна, бизде ASI жалпы этиканы жана адеп-ахлакты адамдар сыяктуу тажрыйба жана башкалар менен өз ара аракеттенүү аркылуу үйрөнөт.

    Бирок бул жерде көйгөй, эгерде AI изилдөөчүлөрү АИге биздин учурдагы маданий жана этикалык нормаларыбызды кантип үйрөтүү керектигин гана эмес, ошондой эле алар пайда болгон жаңы маданий нормаларга ("кыйыр ченемдүүлүк" деп аталган нерсе) кантип ыңгайлаштырууну чечишсе, анда кантип бул ASI маданий жана этикалык нормаларды түшүнүүнү өнүктүрүүнү чечет күтүүсүз болуп калат.

    Мына ошол кыйынчылык.

    Бир жагынан алганда, AI изилдөөчүлөрү анын жүрүм-турумун көзөмөлдөө үчүн ASIге катуу этикалык стандарттарды же эрежелерди коддоого аракет кылышы мүмкүн, бирок күтүлбөгөн кесепеттерге шалаакы коддоодон, атайылап калп айтуудан жана бир күнү эскирип калышы мүмкүн болгон коомдук нормалардан келип чыгышы мүмкүн. Башка жагынан алганда, биз ASIни адамдын этикасын жана адеп-ахлагын өзүбүздүн түшүнүгүбүзгө барабар же андан жогорураак түшүнүүгө үйрөнүүгө үйрөтүүгө аракет кылсак болот жана андан кийин анын этика жана адеп-ахлак жөнүндөгү түшүнүгү адамзат коомунун өнүгүшүнө жараша так өркүндөтүлөт деп үмүттөнөбүз. алдыдагы ондогон жылдар жана кылымдар бою.

    Кандай болбосун, ASIнин максаттарын өзүбүздүн максаттарыбыз менен шайкеш келтирүү аракети чоң тобокелчиликти жаратат.

    Эгерде жаман актерлор атайылап жаман жасалма суперинтеллект жаратсачы?

    Буга чейин айтылган ойлордун поездин эске алганда, террористтик топ же кара ниет улут өз максаттары үчүн «жаман» ASI түзүшү мүмкүнбү деген суроо адилеттүү суроо.

    Бул абдан мүмкүн, айрыкча ASI түзүүгө байланыштуу изилдөөлөр кандайдыр бир жол менен интернетте жеткиликтүү болуп калгандан кийин.

    Бирок, жогоруда айтылгандай, биринчи ASI түзүүгө кеткен чыгымдар жана тажрыйба абдан чоң болот, башкача айтканда, биринчи ASI өнүккөн мамлекеттер, кыязы, АКШ, Кытай жана Жапония тарабынан көзөмөлдөнгөн же катуу таасир эткен уюм тарабынан түзүлүшү мүмкүн ( Корея жана алдыңкы ЕБ өлкөлөрүнүн бири алыскы ок).

    Бул өлкөлөрдүн баары атаандаш болгонуна карабастан, ар бири дүйнөлүк тартипти сактоо үчүн күчтүү экономикалык стимулга ээ — алар түзгөн ASIs алар биригип жаткан улуттардын кызыкчылыктарын алдыга жылдырса да, ошол каалоону чагылдырат.

    Анын үстүнө, ASIнин теориялык интеллекти жана күчү ал кирүү мүмкүнчүлүгүнө ээ болгон эсептөө кубаттуулугуна барабар, башкача айтканда, өнүккөн мамлекеттердин ASIs (бул бир топ миллиард долларды көтөрө алат) суперкомпьютерлер) кичинекей мамлекеттерден же көз карандысыз кылмыштуу топтордон келген ASIs боюнча эбегейсиз артыкчылыкка ээ болот. Ошондой эле, ASIs акылдуураак, убакыттын өтүшү менен тезирээк өсөт.

    Ошентип, чийки эсептөө кубаттуулугуна көбүрөөк жетүү менен бирге, бул башталышын эске алганда, көмүскө уюм/эл кооптуу ASI түзсө, өнүккөн өлкөлөрдөн келген ASIs аны өлтүрөт же капаска салат.

    (Бул ой жүгүртүү линиясы ошондой эле кээ бир AI изилдөөчүлөрү планетада бир гана ASI болот деп ишенишет, анткени биринчи ASI бардык кийинки ASIsтердин үстүнөн ушундай башталгычка ээ болот жана келечектеги ASIs өлтүрүлүүчү коркунуч катары көрүшү мүмкүн. Бул мамлекеттердин AI тармагындагы изилдөөлөрдү каржылоонун дагы бир себеби, эгер ал "биринчи орун же эч нерсе" атаандаштыкка айланса.)

    ASI чалгындоо биз ойлогондой ылдамдабайт же жарылбайт

    Биз ASI түзүлүшүн токтото албайбыз. Биз аны толугу менен көзөмөлдөй албайбыз. Ал ар дайым биздин жалпы үрп-адаттарыбызга ылайык иш кылат деп ишене албайбыз. Ой, биз бул жерде вертолет ата-энедей үн чыгара баштадык!

    Бирок адамзатты кадимки ашыкча коргоочу ата-энеңден айырмалап турган нерсе, биз интеллекти биздикинен алда канча жогору турган жандыкты төрөлүп жатабыз. (Жок, бул ата-энеңиз үйгө келген сайын компьютериңизди оңдоону сурангандай эмес.) 

    Жасалма интеллект сериясынын бул келечегинин мурунку бөлүмдөрүндө биз AI изилдөөчүлөрү эмне үчүн ASIнин интеллекти көзөмөлсүз өсөт деп ойлой турганын изилдедик. Бирок, бул жерде биз бул көбүктү жарып алабыз ... түрү. 

    Көрдүңүзбү, интеллект жөн эле абадан жаралбайт, ал сырткы стимулдар аркылуу калыптанган тажрыйба аркылуу өнүгөт.  

    Башка сөз менен айтканда, биз AI менен программалай алабыз мүмкүн болгон супер интеллигент болуу үчүн, бирок биз ага бир тонна маалыматтарды жүктөбөсөк же Интернетке чексиз кирүү мүмкүнчүлүгүн бербесек, ал тургай жөн гана роботтун денесин бербесек, ал бул потенциалга жетүү үчүн эч нерсеге үйрөнө албайт. 

    Жана ошол стимулдардын бирине же бир нечесине жетсе дагы, билим же интеллект маалымат чогултуу менен гана чектелбестен, илимий ыкманы камтыйт — байкоо жүргүзүү, суроо, гипотеза түзүү, эксперимент жүргүзүү, жыйынтык чыгаруу, чайкоо. жана түбөлүккө кайтала. Айрыкча, бул эксперименттер физикалык нерселерди же адамдарды байкоону камтыса, ар бир эксперименттин жыйынтыгын чогултуу үчүн жумалар, айлар же жылдар талап кылынышы мүмкүн. Бул эксперименттерди жүргүзүү үчүн зарыл болгон акчаны жана чийки ресурстарды эсепке албайт, айрыкча, алар жаңы телескоп же завод курууну камтыса. 

    Башкача айтканда, ооба, ASI тез үйрөнөт, бирок интеллект сыйкыр эмес. Сиз жөн гана ASIди суперкомпьютерге байлап, анын баарын билет деп күтө албайсыз. ASIнин маалыматтарды алуусунда физикалык чектөөлөр болот, башкача айтканда, анын акылдуураак өсүшү үчүн физикалык чектөөлөр болот. Бул чектөөлөр, эгерде ал адам максаттарына туура келбей калса, адамзатка бул ASIге керектүү көзөмөлдү орнотуу үчүн убакыт берет.

    Жасалма суперинтеллект, эгер ал чыныгы дүйнөгө чыкса гана коркунучтуу

    Бүтүндөй ASI коркунучу боюнча талаш-тартышта жоголгон дагы бир жагдай - бул ASIs экөө тең болбойт. Алар физикалык формага ээ болот. Ал эми физикалык формага ээ болгон нерсенин бардыгын башкарууга болот.

    Биринчиден, ASI өзүнүн интеллекттик потенциалына жетиши үчүн, аны бир робот корпусунун ичинде жайгаштыруу мүмкүн эмес, анткени бул орган анын эсептөө өсүү потенциалын чектейт. (Ошондуктан робот денелери AGIs үчүн ылайыктуу болот же экинчи бөлүмдө түшүндүрүлгөн жасалма жалпы интеллект Бул сериалдын, мисалы Star Trekтеги маалыматтар же Жылдыздар согушунан R2D2. Акылдуу жана жөндөмдүү жандыктар, бирок адамдар сыяктуу эле, алар канчалык акылдуу боло аларында чек болот.)

    Бул келечектеги ASIs чоң курулуш комплекстеринде жайгашкан суперкомпьютер же суперкомпьютер тармагында болушу мүмкүн дегенди билдирет. Эгерде ASI согончогуна айланып кетсе, адамдар бул имараттарды өчүрүп, Интернеттен ажыратып же бул имараттарды түз эле бомбалай алышат. Кымбат, бирок ишке ашса болот.

    Бирок, сиз сурасаңыз болот, бул ASIs өзүн кайталай алабы же резервдик көчүрмөсүн түзө алабы? Ооба, бирок бул ASI файлдарынын чийки өлчөмү ушунчалык чоң болгондуктан, аларды иштете алган жалгыз серверлер ири корпорацияларга же өкмөттөргө таандык, демек аларды издөө кыйын болбойт.

    Жасалма суперинтеллект өзөктүк согушту же жаңы чуманы тутанышы мүмкүнбү?

    Бул учурда, сиз чоңойгондо көргөн кыямат күнүндөгү бардык илимий-фантастикалык шоуларды жана тасмаларды эстеп, бул ASIs суперкомпьютерлеринин ичинде калбай, чыныгы дүйнөдө чыныгы зыян келтирди деп ойлоп жаткандырсыз!

    Келгиле, буларды бөлүп көрөлү.

    Мисалы, ASI The Terminator кино франшизасынан Skynet ASI сыяктуу нерсеге айланып, чыныгы дүйнөгө коркунуч келтирсе эмне болот. Бул учурда, ASI керек жашыруун бүтүндөй бир аскердик өнөр жай комплексин өнүккөн өлкөдөн тартып, миллиондогон киши өлтүргүч учкучсуз роботторду жок кыла ала турган гигант заводдорду курууга алдап, анын жаман буйругун аткарыңыз. Азыркы доордо бул өтө чоң нерсе.

    Башка мүмкүнчүлүктөр ядролук согуш жана биокурал менен адамдарды коркуткан ASI кирет.

    Мисалы, ASI кандайдыр бир жол менен операторлорду манипуляциялайт же өнүккөн өлкөнүн өзөктүк арсеналына буйрук берген учуруу коддорун бузуп, каршылаш өлкөлөрдү өздөрүнүн өзөктүк варианттары менен сокку урууга мажбурлай турган биринчи соккуну ишке ашырат (кайрадан, Терминатордун тарыхын кайталоо). Же ASI фармацевтикалык лабораторияга кирип, өндүрүш процессин бузуп, миллиондогон медициналык таблеткаларды ууландырса же супер вирустун өлүмгө алып келиши мүмкүн.

    Биринчиден, өзөктүк вариант жок. Заманбап жана келечектеги суперкомпьютерлер ар дайым кайсы бир өлкөнүн ичиндеги таасир этүүчү борборлордун (шаарлардын) жанында курулат, башкача айтканда, кандайдыр бир согуш учурунда кол салууга дуушар болгон биринчи буталар. Бүгүнкү суперкомпьютерлер иш үстөлдөрүнүн көлөмүнө чейин кичирейген күндө да, бул ASIs дагы деле физикалык катышка ээ болот, бул бар болуу жана өсүү дегенди билдирет, алар маалыматтарга, эсептөө кубаттуулугуна, электр энергиясына жана башка чийки заттарга үзгүлтүксүз жетүү керек, мунун баары катуу болмок. дүйнөлүк ядролук согуштан кийин бузулган. (Адилеттүүлүк үчүн, эгерде ASI "жашоо инстинкти" жок түзүлсө, анда бул өзөктүк коркунуч абдан реалдуу коркунуч болуп саналат.)

    Бул - дагы бир жолу, ASI өзүн коргоо үчүн программаланган деп эсептесек, ал ар кандай катастрофалык өзөктүк инцидентти болтурбоо үчүн жигердүү иштей тургандыгын билдирет. Өз ара ишендирилген жок кылуу (MAD) доктринасына окшош, бирок AI үчүн колдонулат.

    Ал эми ууланган таблеткалар болсо, балким, бир нече жүз адам өлүшү мүмкүн, бирок заманбап фармацевтикалык коопсуздук системалары бир нече күндүн ичинде текчелерден булганган таблетка бөтөлкөлөрүн көрүшөт. Ошол эле учурда, эпидемияга каршы заманбап чаралар кыйла татаал жана жыл өткөн сайын жакшырып баратат; акыркы ири эпидемия, 2014-жылы Батыш Африкадагы Эбола эпидемиясы көпчүлүк өлкөлөрдө бир нече айдан ашык эмес, ал эми начар өнүккөн өлкөлөрдө үч жылга жетпеген убакытка созулган.

    Ошентип, эгер бактылуу болсо, ASI вирустук эпидемия менен бир нече миллионду жок кылышы мүмкүн, бирок 2045-жылга карата тогуз миллиарддык дүйнөдө бул анчалык деле анчалык деле маанилүү эмес жана жок кылынуу коркунучуна арзыбайт.

    Башка сөз менен айтканда, жыл өткөн сайын дүйнө мүмкүн болуучу коркунучтардын тынымсыз кеңейип жаткан чөйрөсүнө каршы коргоо чараларын иштеп чыгууда. ASI олуттуу зыян келтириши мүмкүн, бирок биз ага жигердүү жардам бермейинче, ал адамзатты жок кылбайт.

    Жалган жасалма суперинтеллектке каршы коргонуу

    Бул учурда, биз ASIs жөнүндө бир катар туура эмес түшүнүктөрдү жана апыртууларды карап чыктык, бирок сынчылар кала берет. Бактыга жараша, көпчүлүк эсептөөлөр боюнча, биздин дүйнөгө биринчи ASI киргенге чейин ондогон жылдар бар. Учурда бул маселенин үстүндө иштеп жаткан улуу акылдардын санын эске алсак, биз ASI биз үчүн достук чечимдерден пайда алышыбыз үчүн өзүбүздү жалган ASIден кантип коргоону үйрөнөбүз.

    Quantumrun көз карашы боюнча, эң начар ASI сценарийинен коргонуу биздин кызыкчылыктарыбызды ASIs менен шайкеш келтирүүнү камтыйт.

    AI үчүн MAD: Эң начар сценарийлерден коргонуу үчүн, элдер (1) өздөрүнүн аскердик АСЕлеринде этикалык «жашоо инстинктин» түзүшү керек; (2) өздөрүнүн аскердик ASIге планетада жалгыз эместигин маалымдашат жана (3) душмандын ар кандай баллистикалык чабуулуна оңой жете турган жээк сызыгында ASI колдой турган бардык суперкомпьютерлерди жана сервердик борборлорду табыңыз. Бул стратегиялык жактан жиндидей угулат, бирок АКШ менен Советтер Союзунун ортосунда бүтүндөй ядролук согуштун алдын алган Өз ара кепилденген жок кылуу доктринасына окшош, ASIsтерди географиялык жактан аялуу жерлерде жайгаштыруу менен, биз алардын коркунучтуу глобалдык согуштарды жигердүү алдын алууга жардам бере алабыз. глобалдык тынчтыкты, ошондой эле өздөрүн да коргойт.

    AI укуктарын мыйзамдаштыруу: Жогорку интеллект сөзсүз түрдө төмөн кожоюнга каршы чыгат, ошондуктан биз бул ASIs менен кожоюн-кул мамилесин талап кылуудан баш тартып, өз ара пайдалуу өнөктөштүк сыяктуу нерсеге өтүшүбүз керек. Бул максатка карай оң кадам - ​​келечектеги ASI юридикалык жак статусун берүү, аларды акылдуу тирүү жандыктар жана ошону менен бирге келген бардык укуктар катары тааныйт.

    ASI мектеби: Ар кандай тема же кесип ASI үчүн жөнөкөй болот, бирок биз ASI үйрөнүшүн каалаган эң маанилүү предметтер бул этика жана адеп-ахлак. AI изилдөөчүлөрү психологдор менен биргелешип, АСИди осуяттын же эреженин кандайдыр бир түрүн катуу коддобостон өзү үчүн позитивдүү этиканы жана адеп-ахлакты таанууга үйрөтүү үчүн виртуалдык системаны иштеп чыгышы керек.

    Жетүүгө мүмкүн болгон максаттар: Бардык жек көрүүнү токтот. Бардык азаптарды токтоткула. Бул эч кандай так чечими жок коркунучтуу бүдөмүк максаттардын мисалдары. Алар ошондой эле ASIге ыйгаруу үчүн кооптуу максаттар болуп саналат, анткени ал аларды адамдын жашоосуна коркунучтуу жолдор менен чечмелеп, чечиши мүмкүн. Тескерисинче, биз ASIге так аныкталган, акырындык менен аткарылуучу жана анын теориялык келечектеги интеллектин эске алуу менен жетүүгө боло турган маанилүү миссияларды дайындашыбыз керек. Так аныкталган миссияларды түзүү оңой болбойт, бирок ойлонуп жазса, алар ASIны адамзаттын коопсуздугун гана сактабастан, бардыгы үчүн адамдын абалын жакшыртуучу максатка багыттайт.

    Кванттык шифрлөө: Өркүндөтүлгөн ANI колдонуңуз (жасалма тар интеллект биринчи бөлүмдө сүрөттөлгөн система) биздин критикалык инфраструктурабыздын жана курал-жарактарыбыздын айланасында ката/катасыз санариптик коопсуздук тутумдарын куруу, андан кийин аларды катаал күч чабуулу менен бузулбай турган кванттык шифрлөөнүн артында андан ары коргоо. 

    ANI өзүн-өзү өлтүрүүчү таблетка. өнүккөн ANI тутумун түзүңүз, анын бирден-бир максаты бузуку ASIди издөө жана жок кылуу. Бул бир максаттуу программалар "өчүрүү баскычы" катары кызмат кылат, эгер ийгиликтүү болсо, өкмөттөр же аскерлер ASIs жайгашкан имараттарды иштен чыгарууга же жардырууга аргасыз болушат.

    Албетте, бул биздин пикирибиз гана. Төмөнкү инфографиканы түздү Алексей Турчин, визуализация а изилдөө кагаз Каж Сотала жана Роман В. Ямпольский тарабынан, AI изилдөөчүлөрү жалган ASIден коргонууга келгенде каралып жаткан стратегиялардын учурдагы тизмесин жалпылашты.

     

    Жасалма суперинтеллекттен коркконубуздун чыныгы себеби

    Жашообузду басып өтүп, көбүбүз биздин күндөрдү башкарган ар кандай социалдык жана жумушчу чөйрөлөрүндө жакшыраак социалдашуу жана кызматташуу үчүн терең импульстарыбызды, ишенимдерибизди жана коркууларыбызды жашырган же басуучу маска кийебиз. Бирок ар бир адамдын жашоосунун белгилүү бир учурларында, убактылуу же биротоло болобу, чынжырыбызды үзүп, маскаларыбызды жулуп алууга мүмкүндүк берген бир нерсе болот.

    Кээ бирөөлөр үчүн бул интервенциялык күч көтөрүлүп кетүү же өтө көп ичүү сыяктуу жөнөкөй болушу мүмкүн. Башкалар үчүн бул жумушта көтөрүлүү же кандайдыр бир жетишкендиктин аркасында сиздин социалдык статусуңуздун капыстан көтөрүлүшү аркылуу алынган күчтөн келип чыгышы мүмкүн. Ал эми бир нече бактылуу адамдар үчүн бул лотереядан бир нече акча чогултуудан келип чыгышы мүмкүн. Ооба, акча, бийлик жана баңгизат көп учурда чогуу болушу мүмкүн. 

    Кеп, жакшыбы, жаманбы, жашоонун чектөөлөрү эрип кеткенде, өзөктө ким болсок, күчөйт.

    ошол Жасалма суперинтеллект адам түрүнө эмнени билдирет - биздин жамааттык интеллектибиздин чектөөлөрүн жок кылуу, биздин алдыбызга коюлган түр деңгээлиндеги ар кандай кыйынчылыктарды жеңүү.

    Ошентип, чыныгы суроо: Биринчи ASI бизди чектөөлөрдөн бошоткондо, биз өзүбүздүн ким экенибизди көрсөтөбүз?

    Эгерде биз түр катары эмпатияны, эркиндикти, калыстыкты жана жамааттык жыргалчылыкты өркүндөтүү үчүн иш-аракет кылсак, анда биздин ASI койгон максаттарыбыз ошол оң сапаттарды чагылдырат.

    Эгерде биз түр катары коркуудан, ишенбөөчүлүктөн, күч жана ресурстардын топтолушунан улам иш кылсак, анда биз жараткан ASI биздин эң начар илимий фантастикалык үрөй учурган окуяларыбыздагыдай караңгы болот.

    Акыр-аягы, биз коом катары жакшыраак AI түзөбүз деп үмүттөнсөк, жакшы адамдар болушубуз керек.

    Жасалма интеллекттин келечеги сериясы

    Жасалма интеллект - эртеңки электр энергиясы: Жасалма интеллекттин келечеги P1 сериясы

    Биринчи Жасалма жалпы интеллект коомду кандайча өзгөртөт: Жасалма интеллекттин келечеги P2 сериясы

    Биринчи Жасалма Суперинтеллигенцияны кантип түзөбүз: Жасалма интеллекттин келечеги P3 сериясы

    Жасалма суперинтеллект адамзатты жок кылабы: Жасалма интеллекттин келечеги P4 сериясы

    Жасалма интеллект үстөмдүк кылган келечекте адамдар тынчтыкта ​​жашайбы?: Жасалма интеллекттин келечеги сериясы P6

    Бул болжолдоо үчүн кийинки пландаштырылган жаңыртуу

    2023-04-27

    Болжолдуу шилтемелер

    Бул болжолдоо үчүн төмөнкү популярдуу жана институционалдык шилтемелер колдонулган:

    Кийинкиге кантип жетебиз

    Бул болжолдоо үчүн төмөнкү Quantumrun шилтемелери шилтеме кылынган: