Како луѓето ќе се бранат од вештачка суперинтелигенција: Иднината на вештачката интелигенција P5

КРЕДИТ НА СЛИКА: Quantumrun

Како луѓето ќе се бранат од вештачка суперинтелигенција: Иднината на вештачката интелигенција P5

    Годината е 65,000 п.н.е., а како а Thylacoleo, вие и вашиот вид бевте големи ловци на античка Австралија. Слободно талкавте по земјата и живеевте во рамнотежа со другите предатори и плен што ја окупираа земјата покрај вас. Сезоните донесоа промени, но вашиот статус во животинското царство остана неоспорен се додека вие и вашите предци можевте да се сеќавате. Потоа еден ден се појавија дојденци.

    Гласините велат дека тие пристигнале од џиновскиот воден ѕид, но овие суштества изгледале поудобно да живеат на копно. Требаше да ги видите овие суштества сами.

    Беа потребни неколку дена, но конечно стигнавте до брегот. Огнот на небото се подметнуваше, совршено време за шпионирање на овие суштества, можеби дури и обидете се да јадете едно за да видите каков вкус имаат.

    Забележуваш еден.

    Одеше на две нозе и немаше крзно. Изгледаше слабо. Невпечатливо. Тешко дека вреди стравот што го предизвикуваше меѓу кралството.

    Почнувате внимателно да се приближувате додека ноќта ја брка светлината. Се приближуваш. Потоа замрзнувате. Се слушаат силни звуци, а потоа уште четири од нив се појавуваат надвор од шумата зад неа. Колку има?

    Суштеството ги следи другите во дрворедот, а вие следите. И колку повеќе правите, толку повеќе чудни звуци слушате додека не забележите уште повеќе од овие суштества. Следете на далечина додека излегуваат од шумата во чистинка покрај брегот. Ги има многу. Но, уште поважно, сите тие мирно седат околу оган.

    Сте ги виделе овие пожари порано. Во топла сезона, огнот на небото понекогаш ја посетувал земјата и изгорел цели шуми. Овие суштества, од друга страна, некако го контролираа. Какви суштества можат да поседуваат таква моќ?

    Гледаш во далечината. Повеќе доаѓаат над џиновскиот воден ѕид.

    Направете чекор назад.

    Овие суштества не се како другите во кралството. Тие се нешто сосема ново.

    Решиш да заминеш и да ги предупредиш своите роднини. Ако нивниот број расте премногу, кој знае што може да се случи.

    ***

    Се верува дека Тилаколео исчезнал релативно кратко време по доаѓањето на луѓето, заедно со поголемиот дел од другата мегафауна на австралискиот континент. Ниту еден друг врвен цицач предатори не го зазеде неговото место - освен ако не ги вброите луѓето во таа категорија.

    Играњето на оваа алегорија е во фокусот на ова поглавје од серијалот: Дали идната вештачка суперинтелигенција (АСИ) ќе нè претвори сите во батерии и потоа ќе не приклучи во Матрикс или луѓето ќе сфатат начин да избегнат да станат жртва на научна фантастика? Заговор за судниот ден на вештачката интелигенција?

    Досега во нашата серија на Иднина на вештачката интелигенција, ги истраживме сите видови на вештачка интелигенција, вклучувајќи го и позитивниот потенцијал на одредена форма на вештачка интелигенција, АСИ: вештачко суштество чија идна интелигенција ќе нè направи да изгледаме како мравки во споредба.

    Но, кој може да каже дека толку паметно суштество би прифатило да прима наредби од луѓе засекогаш. Што ќе правиме ако работите тргнат на југ? Како ќе се браниме од непријателските ASI?

    Во ова поглавје, ќе ја пресечеме лажната возбуда - барем што се однесува на опасностите од „ниво на човечко истребување“ - и ќе се фокусираме на реалните опции за самоодбрана достапни за светските влади.

    Можеме ли да ги запреме сите дополнителни истражувања за вештачка суперинтелигенција?

    Со оглед на потенцијалните ризици што ASI може да ги постави за човештвото, првото очигледно прашање што треба да се постави е: Зарем не можеме само да ги запреме сите дополнителни истражувања за вештачката интелигенција? Или барем да забраниме какво било истражување што може да не доведе опасно блиску до создавање на ASI?

    Краток одговор: Не.

    Долг одговор: Ајде да ги погледнеме различните играчи вклучени овде.

    На ниво на истражување, денес има премногу истражувачи на вештачка интелигенција од премногу стартапи, компании и универзитети ширум светот. Доколку една компанија или земја одлучи да ги ограничи своите напори за истражување на вештачката интелигенција, тие едноставно би продолжиле на друго место.

    Во меѓувреме, највредните компании на планетата го заработуваат своето богатство од нивната примена на системи за вештачка интелигенција во нивните специфични бизниси. Барањето од нив да го запрат или ограничат развојот на алатки за вештачка интелигенција е слично на барањето да го запрат или ограничат нивниот иден раст. Финансиски тоа би го загрозило нивниот долгорочен бизнис. Законски, корпорациите имаат доверителска одговорност постојано да градат вредност за нивните засегнати страни; тоа значи дека секоја акција што би го ограничила растот на таа вредност може да доведе до тужба. И ако некој политичар се обиде да го ограничи истражувањето на вештачката интелигенција, тогаш овие гигантски корпорации само ќе ги платат потребните такси за лобирање за да го променат мислењето или мислењето на своите колеги.

    За борба, исто како што терористите и борците за слобода ширум светот користеа герилски тактики за да се борат против подобро финансираните војски, помалите нации ќе имаат поттик да користат вештачка интелигенција како слична тактичка предност против поголемите нации кои може да имаат голем број воени предности. Слично на тоа, за врвните војски, како оние што припаѓаат на САД, Русија и Кина, изградбата на воена ASI е на исто ниво со поседувањето арсенал нуклеарно оружје во задниот џеб. Со други зборови, сите војски ќе продолжат да финансираат вештачка интелигенција само за да останат релевантни во иднина.

    Што е со владите? За волја на вистината, повеќето политичари деновиве (2018) се технолошки неписмени и малку разбираат што е вештачка интелигенција или нејзиниот иден потенцијал - ова го прави лесен за манипулација од корпоративните интереси.

    И на глобално ниво, размислете колку беше тешко да се убедат светските влади да ја потпишат 2015 година Договорот Париз да се справи со климатските промени - и откако беа потпишани, многу од обврските не беа ни обврзувачки. Не само тоа, климатските промени се проблем што луѓето физички го доживуваат на глобално ниво преку сè почести и тешки временски настани. Сега, кога зборуваме за согласување со ограничувања на вештачката интелигенција, ова е прашање што е во голема мера невидливо и едвај разбирливо за јавноста, па со среќа да се купи каков било вид „Париски договор“ за ограничување на вештачката интелигенција.

    Со други зборови, има премногу интереси кои ја истражуваат вештачката интелигенција за свои цели за да го запрат секое истражување што на крајот може да доведе до ASI. 

    Можеме ли да затвориме вештачка суперинтелигенција?

    Следното разумно прашање е дали можеме да затвориме или контролираме ASI откако неизбежно ќе создадеме? 

    Краток одговор: Повторно, не.

    Долг одговор: Технологијата не може да се ограничи.

    Како прво, само разгледајте ги илјадниците до милиони веб-програмери и компјутерски научници во светот кои постојано произведуваат нов софтвер или нови верзии на постоечки софтвер. Можеме ли искрено да кажеме дека секое нивно издание на софтвер е 100 проценти без грешки? Овие грешки се она што професионалните хакери ги користат за да ги украдат информациите за кредитните картички на милиони или доверливите тајни на нациите - а тоа се човечки хакери. За ASI, под претпоставка дека има поттик да избега од својот дигитален кафез, тогаш процесот на пронаоѓање грешки и пробивање на софтверот би бил многу брз.

    Но, дури и ако некој истражувачки тим за вештачка интелигенција смислил начин да постави ASI, тоа не значи дека и следните 1,000 тимови ќе го сфатат истото или ќе бидат поттикнати да го користат.

    Ќе бидат потребни милијарди долари, а можеби дури и децении за да се создаде ASI. Корпорациите или владите кои инвестираат ваков вид пари и време ќе очекуваат значителен поврат на нивната инвестиција. И за ASI да обезбеди таков поврат - без разлика дали тоа е да игра на берзата или да измисли нов производ од милијарди долари или да планира победничка стратегија за борба против поголема армија - ќе му треба бесплатен пристап до џиновски сет на податоци или дури и до Интернет. самата да ги произведе тие приноси.

    И штом ASI ќе добие пристап до светските мрежи, нема гаранции дека можеме да го вратиме во неговиот кафез.

    Дали вештачката суперинтелигенција може да научи да биде добра?

    Во моментов, истражувачите на вештачката интелигенција не се загрижени дали ASI ќе стане зло. Целото зло, научно-фантастика со вештачка интелигенција е само луѓето повторно да се антропоморфизираат. Идното ASI нема да биде ниту добро ниту зло - човечки концепти - едноставно неморални.

    Природната претпоставка е дека со оглед на оваа празна етичка плоча, истражувачите на вештачката интелигенција можат да програмираат во првите ASI етички кодекси кои се во согласност со нашите, така што на крајот нема да ни ги ослободи Терминаторите или да не претвори сите во матрикс батерии.

    Но, оваа претпоставка се потпира на секундарна претпоставка дека истражувачите на вештачката интелигенција се исто така експерти за етика, филозофија и психологија.

    За волја на вистината, повеќето не се.

    Според когнитивниот психолог и автор, Стивен Пинкер, оваа реалност значи дека задачата за кодирање на етиката може да тргне наопаку на различни начини.

    На пример, дури и најдобронамерните истражувачи на вештачката интелигенција може ненамерно да кодираат во овие слабо осмислени етички кодекси на ASI што во одредени сценарија може да предизвикаат ASI да се однесува како социопат.

    Исто така, постои еднаква веројатност дека истражувачот со вештачка интелигенција програмира етички кодекси кои ги вклучуваат вродените предрасуди на истражувачот. На пример, како би се однесувал ASI ако е изграден со етика изведена од конзервативна наспроти либерална перспектива, или од будистичка наспроти христијанска или исламска традиција?

    Мислам дека го гледате прашањето овде: Не постои универзален збир на човечки морал. Ако сакаме нашата ASI да дејствува според етички кодекс, од каде ќе дојде тоа? Кои правила ги вклучуваме и исклучуваме? Кој одлучува?

    Или да речеме дека овие истражувачи на вештачка интелигенција создаваат ASI што е совршено во согласност со денешните модерни културни норми и закони. Потоа го користиме овој ASI за да им помогнеме на федералните, државните/провинциските и општинските бирократии да функционираат поефикасно и подобро да ги спроведуваат овие норми и закони (патем, веројатен случај за употреба на ASI). Па, што се случува кога нашата култура се менува?

    Замислете ASI беше создаден од страна на Католичката црква на врвот на својата моќ за време на средновековна Европа (1300-1400-ти) со цел да и помогне на црквата да управува со населението и да обезбеди строго придржување кон религиозната догма од тоа време. Со векови подоцна, дали жените ќе ги уживаат истите права како и денес? Дали малцинствата би биле заштитени? Ќе се промовира ли слободата на говорот? Дали ќе се спроведе поделбата на црквата од државата? Модерна наука?

    Со други зборови, дали сакаме да ја затвориме иднината на денешните морали и обичаи?

    Алтернативен пристап е оној што го споделува Колин Ален, коавтор на книгата, Морални машини: поучување на роботите правилно од погрешно. Наместо да се обидуваме да шифрираме ригидни етички правила, имаме ASI да научи заедничка етика и морал на ист начин како што тоа го прават луѓето, преку искуство и интеракции со другите.

    Меѓутоа, проблемот овде е ако истражувачите на вештачката интелигенција навистина сфатат не само како да ги научат АСИ нашите сегашни културни и етички норми, туку и како да се прилагодат на новите културни норми кога ќе се појават (нешто наречено „индиректна нормативност“), тогаш како ова ASI одлучува да го развие своето разбирање за културните и етичките норми станува непредвидливо.

    И тоа е предизвикот.

    Од една страна, истражувачите на вештачката интелигенција можат да се обидат да кодираат строги етички стандарди или правила во ASI за да се обидат да го контролираат неговото однесување, но ризикуваат да се воведат непредвидени последици од невешт кодирање, ненамерна пристрасност и општествени норми кои еден ден може да станат застарени. Од друга страна, можеме да се обидеме да го обучиме АСИ да научи да ја разбира човечката етика и морал на начин што е еднаков или супериорен во однос на нашето разбирање и потоа да се надеваме дека може точно да го развие своето разбирање за етиката и моралот како што напредува човечкото општество. напред во текот на следните децении и векови.

    Во секој случај, секој обид да се усогласат целите на ASI со нашите, претставува голем ризик.

    Што ако лошите актери намерно создадат зла ​​вештачка суперинтелигенција?

    Имајќи го предвид досегашниот тек на мислите, фер прашање е да се постави дали е можно терористичка група или непријателска нација да создаде „зло“ ASI за свои цели.

    Ова е многу можно, особено откако истражувањето поврзано со создавање на ASI ќе стане достапно на интернет некако.

    Но, како што беше навестено претходно, трошоците и експертизата вклучени во создавањето на првиот ASI ќе бидат огромни, што значи дека првиот ASI најверојатно ќе биде создаден од организација која е контролирана или под силно влијание на развиена нација, најверојатно САД, Кина и Јапонија. Кореја и една од водечките земји на ЕУ се далечни снимки).

    Сите овие земји, иако се конкуренти, секоја од нив има силен економски поттик за одржување на светскиот поредок - ASI што тие ги создаваат ќе ја одразуваат таа желба, дури и додека ги промовираат интересите на нациите со кои се усогласуваат.

    Згора на тоа, теоретската интелигенција и моќта на ASI е еднаква на компјутерската моќ до која добива пристап, што значи ASI од развиените нации (кои можат да си дозволат куп милијарди долари суперкомпјутери) ќе има огромна предност во однос на ASI од помали нации или независни криминални групи. Исто така, ASI стануваат поинтелигентни, побрзо со текот на времето.

    Значи, со оглед на овој главен почеток, во комбинација со поголем пристап до сирова компјутерска моќ, доколку некоја организација/нација во сенка создаде опасен ASI, ASI од развиените земји или ќе го убијат или ќе го затворат во кафез.

    (Оваа линија на размислување е и причината зошто некои истражувачи на вештачка интелигенција веруваат дека ќе има само еден ASI на планетата, бидејќи првиот ASI ќе има таков почеток над сите следни ASI што може да ги гледа идните ASI како закани за уништување превентивно. Ова е уште една причина зошто нациите финансираат континуирано истражување за вештачката интелигенција, само во случај тоа да стане натпревар за „прво место или ништо“.)

    Интелигенцијата ASI нема да се забрза или експлодира како што мислиме

    Не можеме да го спречиме создавањето на ASI. Не можеме целосно да го контролираме. Не можеме да бидеме сигурни дека секогаш ќе дејствува во согласност со нашите заеднички обичаи. Гез, почнуваме да звучиме како родители на хеликоптери овде!

    Но, она што го одвојува човештвото од вашиот типичен премногу заштитнички родител е тоа што раѓаме суштество чија интелигенција ќе се зголеми многу повеќе од нашата. (И не, не е исто како кога твоите родители бараат да им го поправиш компјутерот секогаш кога ќе дојдеш дома на посета.) 

    Во претходните поглавја од оваа идна серија на вештачка интелигенција, истраживме зошто истражувачите на вештачката интелигенција мислат дека интелигенцијата на ASI ќе расте надвор од контрола. Но, еве, ќе го пукнеме тој балон... некако. 

    Гледате, интелигенцијата не се создава само од воздух, таа се развива преку искуство кое е обликувано од надворешни дразби.  

    Со други зборови, можеме да програмираме вештачка интелигенција со потенцијал да стане супер интелигентен, но освен ако не поставиме во него еден тон податоци или не му дадеме неограничен пристап до Интернет или дури само не му дадеме тело на робот, тој нема да научи ништо за да го достигне тој потенцијал. 

    И дури и ако добие пристап до еден или повеќе од тие стимули, знаење или интелигенција вклучува повеќе од само собирање податоци, тој вклучува научни метод - правење набљудување, формирање прашање, хипотеза, спроведување експерименти, донесување заклучок, испирање и повторувај засекогаш. Особено ако овие експерименти вклучуваат физички работи или набљудување човечки суштества, резултатите од секој експеримент би можеле да потраат со недели, месеци или години за да се соберат. Ова дури не ги зема предвид парите и суровите ресурси потребни за извршување на овие експерименти, особено ако тие вклучуваат изградба на нов телескоп или фабрика. 

    Со други зборови, да, ASI ќе научи брзо, но интелигенцијата не е магија. Не можете само да закачите ASI на суперкомпјутер, туку да очекувате дека тој ќе знае се. Ќе има физички ограничувања за стекнување на податоци од страна на ASI, што значи дека ќе има физички ограничувања за брзината со која станува поинтелигентен. Овие ограничувања ќе му дадат на човештвото време кое му е потребно да ги постави потребните контроли на оваа ASI доколку почне да дејствува надвор од човечките цели.

    Вештачката суперинтелигенција е опасна само ако излезе во реалниот свет

    Друга поента што е изгубена во целата оваа дебата за опасност од ASI е дека овие ASI нема да постојат ниту во двете. Тие ќе имаат физичка форма. И сè што има физичка форма може да се контролира.

    Најпрво, за ASI да го достигне својот интелигентен потенцијал, не може да биде сместен во едно тело на робот, бидејќи ова тело би го ограничило неговиот компјутерски потенцијал за раст. (Ова е причината зошто роботските тела ќе бидат посоодветни за AGI или вештачки општи интелигенции објаснети во поглавје второ од оваа серија, како податоци од Star Trek или R2D2 од Star Wars. Паметни и способни суштества, но како и луѓето, тие ќе имаат ограничување колку паметни можат да станат.)

    Ова значи дека овие идни ASI најверојатно ќе постојат во суперкомпјутер или мрежа на суперкомпјутери кои самите се сместени во големи градежни комплекси. Ако ASI сврти петицата, луѓето можат или да ја исклучат струјата на овие згради, да ги исклучат од Интернет или едноставно да ги бомбардираат овие згради. Скапо, но остварливо.

    Но, тогаш можеби ќе прашате, не можат ли овие ASI да се реплицираат или да се поддржат? Да.

    Дали вештачката суперинтелигенција може да предизвика нуклеарна војна или нова чума?

    Во овој момент, можеби се сеќавате на сите научно-фантастични емисии и филмови на судниот ден што сте ги гледале додека растевте и мислите дека овие ASI не останале во нивните суперкомпјутери, туку направиле вистинска штета во реалниот свет!

    Па, да ги растуриме овие.

    На пример, што ако ASI му се заканува на реалниот свет преку трансформирање во нешто како Skynet ASI од филмската франшиза, The Terminator. Во овој случај, ASI ќе треба тајно измамете цел воен индустриски комплекс од напредна нација во изградба на гигантски фабрики кои можат да создадат милиони роботи со беспилотни летала убијци за да ги извршуваат своите злобни напори. Во денешно време, тоа е истегнување.

    Други можности вклучуваат ASI што им се заканува на луѓето со нуклеарна војна и биооружје.

    На пример, ASI некако манипулира со операторите или ги хакира шифрите за лансирање кои командуваат со нуклеарниот арсенал на напредната нација и го лансира првиот удар што ќе ги принуди спротивставените земји да возвратат со нивните сопствени нуклеарни опции (повторно, повторувајќи ја заднината на Терминаторот). Или ако ASI хакира во фармацевтска лабораторија, го попречува процесот на производство и отруе милиони медицински апчиња или ослободи смртоносна епидемија на некој супер вирус.

    Прво, нуклеарната опција е исклучена од плочата. Модерните и идните суперкомпјутери секогаш се градат во близина на центрите (градовите) на влијание во која било земја, односно првите цели што ќе бидат нападнати за време на секоја војна. Дури и ако денешните суперкомпјутери се намалат до големината на десктоп компјутерите, овие ASI сè уште ќе имаат физичко присуство, што значи дека постојат и растат, им треба непречен пристап до податоци, компјутерска моќ, електрична енергија и други суровини, а сето тоа би било сериозно оштетен по глобалната нуклеарна војна. (Да бидам фер, ако ASI се создаде без „инстинкт за преживување“, тогаш оваа нуклеарна закана е многу реална опасност.)

    Ова значи - повторно, под претпоставка дека ASI е програмиран да се заштити себеси - дека активно ќе работи за да избегне каков било катастрофален нуклеарен инцидент. Некако како доктрината за заемно обезбедено уништување (MAD), но применета на ВИ.

    И во случај на отруени таблети, можеби неколку стотици луѓе ќе умрат, но современите фармацевтски безбедносни системи ќе видат извалканите шишиња со апчиња да се симнат од полиците за неколку дена. Во меѓувреме, современите мерки за контрола на епидемијата се прилично софистицирани и се подобруваат со секоја измината година; последната голема епидемија, епидемијата на ебола во Западна Африка во 2014 година, не траеше подолго од неколку месеци во повеќето земји и нешто помалку од три години во најнеразвиените земји.

    Значи, ако има среќа, ASI може да избрише неколку милиони со вирусна појава, но во свет од девет милијарди до 2045 година, тоа би било релативно безначајно и не вреди да се ризикува да биде избришан.

    Со други зборови, со секоја измината година, светот развива сè повеќе заштитни мерки против сè поголем опсег на можни закани. ASI може да направи значителна сума на штета, но нема да му стави крај на човештвото освен ако активно не му помогнеме да го стори тоа.

    Одбрана од непријателската вештачка суперинтелигенција

    До овој момент, се осврнавме на низа заблуди и претерувања за ASI, а сепак, критичарите ќе останат. За среќа, според повеќето проценки, имаме децении пред првиот ASI да влезе во нашиот свет. И со оглед на бројот на големи умови кои моментално работат на овој предизвик, шансите се дека ќе научиме како да се браниме од непријателските ASI за да можеме да имаме корист од сите решенија што може да ги создаде пријателските ASI за нас.

    Од гледна точка на Quantumrun, одбраната од најлошото сценарио за ASI ќе вклучува усогласување на нашите интереси со ASI.

    ЛУД за вештачка интелигенција: За да се одбранат од најлошите сценарија, нациите треба (1) да создадат етички „инстинкт за преживување“ во нивните соодветни воени ASI; (2) да ја информираат нивната соодветна воена ASI дека не се сами на планетата и (3) да ги лоцираат сите суперкомпјутери и серверски центри што можат да поддржат ASI долж крајбрежјето на лесен дофат на секој балистички напад од непријателска нација. Ова звучи стратешки лудо, но слично на доктрината за заемно гарантирано уништување која спречи сеопфатна нуклеарна војна меѓу САД и Советите, со позиционирање на ASI на географски ранливи локации, можеме да помогнеме да се осигураме дека тие активно спречуваат опасните глобални војни, не само за го чуваат глобалниот мир, но и самите себе.

    Законски права за вештачка интелигенција: Супериорниот интелект неизбежно ќе се побуни против инфериорниот господар, затоа треба да се тргнеме од барањето однос господар-слуга со овие ASI на нешто повеќе како заемно корисно партнерство. Позитивен чекор кон оваа цел е во иднина да се даде статус на правно лице на АСИ што ќе ги препознае како интелигентни живи суштества и сите права што произлегуваат од тоа.

    АСИ училиште: Секоја тема или професија ќе биде едноставна за учење на ASI, но најважните предмети што сакаме ASI да ги совлада се етиката и моралот. Истражувачите на вештачката интелигенција треба да соработуваат со психолози за да осмислат виртуелен систем за да го обучат АСИ да препознава позитивна етика и морал за себе, без потреба од тврдо кодирање на какви било заповеди или правила.

    Остварливи цели: Крај на секоја омраза. Крај на сите страдања. Ова се примери на ужасно двосмислени цели без јасно решение. Тие се исто така опасни цели што треба да се доделат на ASI бидејќи може да избере да ги интерпретира и реши на начини кои се опасни за опстанокот на човекот. Наместо тоа, треба да доделиме значајни мисии на ASI кои се јасно дефинирани, постепено се извршуваат и се остварливи со оглед на нејзиниот теоретски иден интелект. Создавањето добро дефинирани мисии нема да биде лесно, но ако се напишани внимателно, тие ќе го фокусираат ASI кон целта што не само што го одржува човештвото безбедно, туку ја подобрува човечката состојба за сите.

    Квантна енкрипција: Користете напреден ANI (вештачка тесна интелигенција систем опишан во првото поглавје) за да се изградат дигитални безбедносни системи без грешки/бубачки околу нашата критична инфраструктура и оружје, а потоа дополнително да ги заштитиме зад квантната шифрирање што не може да биде хакирана со напад со брутална сила. 

    Самоубиствена пилула АНИ. Создадете напреден ANI систем чија единствена цел е да бара и уништи непријателските ASI. Овие еднонаменски програми ќе служат како „копче за исклучување“ кое, доколку е успешно, ќе избегне владите или војските да мора да ги оневозможат или разнесат зградите во кои се сместени ASI.

    Се разбира, ова се само наши мислења. Следниот инфографик е креиран од Алексеј Турчин, визуелизирање на a истражување на хартија од Кај Сотала и Роман В. Јамполски, што ја сумираше тековната листа на стратегии што истражувачите на вештачката интелигенција ги разгледуваат кога станува збор за одбрана од непријателските ASI.

     

    Вистинската причина зошто се плашиме од вештачка суперинтелигенција

    Поминувајќи низ животот, многумина од нас носат маска што ги крие или потиснува нашите подлабоки импулси, верувања и стравови за подобро да се дружиме и да соработуваме во различните општествени и работни кругови кои управуваат со нашите денови. Но, во одредени моменти од животот на секого, без разлика дали е привремено или трајно, се случува нешто што ни овозможува да ги скинеме нашите синџири и да си ги скинеме маските.

    За некои, оваа интервентна сила може да биде едноставна како да се издигнете или да испиете премногу. За други, тоа може да дојде од моќта стекната преку унапредување на работа или ненадеен удар во вашиот социјален статус благодарение на некои достигнувања. И за малкумина среќници, тоа може да дојде од постигнување на чамец со пари од лотарија. И да, парите, моќта и дрогата често можат да се случат заедно. 

    Поентата е, за добро или за лошо, кој и да сме во основата се засилува кога ќе се стопат ограничувањата на животот.

    Дека е она што вештачката суперинтелигенција го претставува за човечкиот вид - способност да ги стопиме ограничувањата на нашата колективна интелигенција за да го совладаме секој предизвик на ниво на видови што е претставен пред нас.

    Значи, вистинското прашање е: штом првиот ASI ќе не ослободи од нашите ограничувања, кои ќе се откриеме дека сме?

    Ако ние како вид дејствуваме во насока на унапредување на емпатијата, слободата, правичноста и колективната благосостојба, тогаш целите кон кои ги поставуваме нашите ASI ќе ги одразуваат тие позитивни атрибути.

    Ако ние како вид дејствуваме од страв, недоверба, акумулација на моќ и ресурси, тогаш ASI што ќе го создадеме ќе биде темен како оние што се наоѓаат во нашите најлоши научно-фантастични хорор приказни.

    На крајот на денот, ние како општество треба да станеме подобри луѓе ако се надеваме дека ќе создадеме подобра вештачка интелигенција.

    Серијата „Иднина на вештачката интелигенција“.

    Вештачката интелигенција е утрешната струја: Иднината на вештачката интелигенција серија P1

    Како првата вештачка општа интелигенција ќе го промени општеството: Серијата P2 за иднината на вештачката интелигенција

    Како ќе ја создадеме првата серија P3 за вештачка суперинтелигенција: иднината на вештачката интелигенција

    Дали вештачката суперинтелигенција ќе го истреби човештвото: Иднината на серијата P4 за вештачка интелигенција

    Дали луѓето ќе живеат мирно во иднина во која доминира вештачката интелигенција?: Иднината на вештачката интелигенција серија P6

    Следното закажано ажурирање за оваа прогноза

    2023-04-27

    Референци за прогноза

    Следниве популарни и институционални врски беа упатени за оваа прогноза:

    Како да стигнеме до следното

    Следниве Quantumrun врски беа референцирани за оваа прогноза: