Како ће се људи бранити од вештачке суперинтелигенције: будућност вештачке интелигенције П5

КРЕДИТ ЗА СЛИКУ: Куантумрун

Како ће се људи бранити од вештачке суперинтелигенције: будућност вештачке интелигенције П5

    Година је 65,000 пне, а као а Тхилацолео, ти и твоја врста били сте велики ловци древне Аустралије. Слободно сте лутали земљом и живели у равнотежи са другим грабежљивцима и пленом који су окупирали земљу поред вас. Годишња доба су донела промене, али ваш статус у животињском царству остао је непромењен све док се ви и ваши преци сећате. Онда су се једног дана појавили придошлице.

    Прича се да су стигли са џиновског воденог зида, али ова створења су изгледала угодније да живе на копну. Морали сте лично да видите ова створења.

    Требало је неколико дана, али сте коначно стигли до обале. Ватра на небу се гасила, савршено време за шпијунирање ових створења, можда чак и покушај да поједеш једно да видиш какав је укус.

    Уочи једног.

    Ходао је на две ноге и није имао крзно. Изгледало је слабо. Неимпресивно. Тешко да вреди страха који је изазивао међу краљевством.

    Почињете пажљиво да прилазите док ноћ тера светлост. Приближавате се. Онда се смрзнеш. Чују се гласни звукови, а онда се иза шуме појављују још четири. Колико их има?

    Створење прати остале у дрвореду, а ви следите. И што више радите, чујете више чудних звукова док не уочите још више ових створења. Пратите из даљине док излазе из шуме на чистину поред обале. Има их много. Али што је још важније, сви мирно седе око ватре.

    Већ сте видели ове ватре. У врућој сезони, ватра на небу понекад би обишла земљу и спалила читаве шуме. С друге стране, ова створења су то некако контролисала. Каква бића могу поседовати такву моћ?

    Гледаш у даљину. Више долази преко џиновског воденог зида.

    Одступите корак уназад.

    Ова створења нису као остала у краљевству. Они су нешто сасвим ново.

    Одлучиш да одеш и упозориш своју родбину. Ако њихов број постане превелик, ко зна шта би се могло догодити.

    ***

    Верује се да је Тхилацолео изумро релативно кратко време након доласка људи, заједно са већином друге мегафауне на аустралијском континенту. Ниједан други предатор сисара на врхунцу није заузео његово место - осим ако не рачунате људе у ту категорију.

    Играње ове алегорије је у фокусу поглавља ове серије: Да ли ће нас будућа вештачка суперинтелигенција (АСИ) све нас претворити у батерије, а затим укључити у Матрикс или ће људи смислити начин да избегну да постану жртве научне фантастике, АИ завера судњег дана?

    До сада у нашој серији о Будућност вештачке интелигенције, истражили смо све врсте АИ, укључујући и позитиван потенцијал одређеног облика АИ, АСИ: вештачко биће чија ће будућа интелигенција учинити да изгледамо као мрави у поређењу са њима.

    Али ко каже да би овако паметно биће заувек прихватало наређења од људи. Шта ћемо ако ствари крену на југ? Како ћемо се бранити од лажног АСИ-ја?

    У овом поглављу ћемо пресећи лажну хајку — барем у погледу опасности од „нивоа изумирања људи“ — и фокусираћемо се на реалистичне опције самоодбране које су доступне светским владама.

    Можемо ли зауставити сва даља истраживања вештачке суперинтелигенције?

    С обзиром на потенцијалне ризике које би АСИ могао да представља за човечанство, прво очигледно питање које треба поставити је: зар не можемо једноставно да зауставимо сва даља истраживања вештачке интелигенције? Или барем забранити било какво истраживање које би нас могло опасно приближити стварању АСИ?

    Кратки одговор: Не.

    Дугачак одговор: Хајде да погледамо различите играче који су овде укључени.

    На нивоу истраживања, данас има превише истраживача АИ из превише стартапова, компанија и универзитета широм света. Ако би једна компанија или држава одлучила да ограничи своје напоре у истраживању вештачке интелигенције, једноставно би наставила негде другде.

    У међувремену, највредније компаније на планети обогаћују се применом АИ система у својим специфичним пословима. Замолити их да зауставе или ограниче развој АИ алата слично је тражењу од њих да зауставе или ограниче свој будући раст. Финансијски, ово би угрозило њихово дугорочно пословање. Правно, корпорације имају фидуцијарну одговорност да континуирано граде вредност за своје заинтересоване стране; то значи да би свака радња која би ограничила раст те вредности могла довести до тужбе. А ако би било који политичар покушао да ограничи истраживање вештачке интелигенције, онда би ове гигантске корпорације само платиле неопходне накнаде за лобирање како би промениле своје мишљење или мишљење својих колега.

    За борбу, баш као што су терористи и борци за слободу широм света користили герилску тактику за борбу против боље финансираних војска, мање нације ће имати подстицај да користе вештачку интелигенцију као сличну тактичку предност против већих нација које могу имати бројне војне предности. Исто тако, за врхунске војске, попут оних које припадају САД, Русији и Кини, изградња војног АСИ је у рангу са поседовањем арсенала нуклеарног оружја у задњем џепу. Другим речима, све војске ће наставити да финансирају вештачку интелигенцију само да би остале релевантне у будућности.

    Шта је са владама? Искрено, већина политичара ових дана (2018) је технолошки неписмена и слабо разуме шта је вештачка интелигенција или њен будући потенцијал — то их чини лаким за манипулисање корпоративним интересима.

    А на глобалном нивоу, размислите колико је било тешко убедити светске владе да потпишу 2015 Париз споразум да се ухвати у коштац са климатским променама — а када су једном потписане, многе обавезе нису биле ни обавезујуће. И не само то, климатске промене су проблем са којим се људи физички суочавају на глобалном нивоу кроз све чешће и теже временске прилике. Сада, када говоримо о пристанку на ограничења АИ, ово је питање које је углавном невидљиво и једва разумљиво јавности, па срећно у добијању куповине за било коју врсту 'Париског споразума' за ограничавање АИ.

    Другим речима, превише је интереса који истражују АИ за своје циљеве да би зауставили било какво истраживање које би на крају могло довести до АСИ. 

    Можемо ли да затворимо вештачку суперинтелигенцију?

    Следеће разумно питање је да ли можемо да ставимо у кавез или да контролишемо АСИ када га неизбежно створимо? 

    Кратак одговор: Опет, не.

    Дугачак одговор: Технологија се не може обуздати.

    Као прво, узмите у обзир хиљаде до милиона веб програмера и компјутерских научника у свету који стално производе нови софтвер или нове верзије постојећег софтвера. Можемо ли искрено рећи да је свако њихово издање софтвера 100 посто без грешака? Ове грешке су оно што професионални хакери користе да украду податке о кредитним картицама милиона људи или поверљиве тајне нација — а то су људски хакери. За АСИ, под претпоставком да има подстицај да побегне из свог дигиталног кавеза, онда би процес проналажења грешака и пробијања софтвера био лак.

    Али чак и ако истраживачки тим за вештачку интелигенцију открије начин да се направи АСИ, то не значи да ће и следећих 1,000 тимова то схватити или ће бити подстакнуто да га користе.

    Биће потребне милијарде долара, а можда чак и деценије да се створи АСИ. Корпорације или владе које уложе овакву врсту новца и времена ће очекивати значајан повраћај својих улагања. А да би АСИ обезбедио такву врсту поврата – било да се ради о игри на берзи или измишљању новог производа од милијарду долара или планирању победничке стратегије за борбу против веће војске – биће му потребан бесплатан приступ огромном скупу података или чак Интернету сама да произведе те поврате.

    А када АСИ добије приступ светским мрежама, нема гаранција да га можемо вратити у његов кавез.

    Може ли вештачка суперинтелигенција научити да буде добра?

    Тренутно, истраживачи вештачке интелигенције нису забринути да ће АСИ постати зао. Читав зли, АИ научна фантастика су само људи који се поново антропоморфизују. Будући АСИ неће бити ни добар ни зао – људски концепти – једноставно аморални.

    Природна претпоставка је да с обзиром на ову празну етичку листу, истраживачи вештачке интелигенције могу програмирати у прве АСИ етичке кодексе који су у складу са нашим сопственим, тако да не би на крају ослободили Терминаторе на нас или нас све претворили у матрикс батерије.

    Али ова претпоставка се састоји од секундарне претпоставке да су истраживачи вештачке интелигенције такође стручњаци за етику, филозофију и психологију.

    Истина, већина није.

    Према когнитивном психологу и аутору, Стивену Пинкеру, ова реалност значи да задатак кодирања етике може поћи по злу на различите начине.

    На пример, чак и најбољенамерни истраживачи вештачке интелигенције могу ненамерно да унесу у ове АСИ лоше промишљене етичке кодексе који у одређеним сценаријима могу да доведу до тога да се АСИ понаша као социопата.

    Исто тако, постоји једнака вероватноћа да истраживач АИ програмира етичке кодексе који укључују истраживачеве урођене предрасуде. На пример, како би се АСИ понашао ако би се изградио са етиком изведеном из конзервативне насупрот либералне перспективе, или из будистичке насупрот хришћанске или исламске традиције?

    Мислим да овде видите проблем: не постоји универзални скуп људског морала. Ако желимо да наш АСИ поступа по етичком кодексу, одакле ће он доћи? Која правила укључујемо и искључујемо? Ко одлучује?

    Или рецимо да ови истраживачи АИ креирају АСИ који је савршено у складу са данашњим модерним културним нормама и законима. Затим користимо овај АСИ да помогнемо савезним, државним/покрајинским и општинским бирократијама да функционишу ефикасније и боље спроводе ове норме и законе (успут, вероватно случај употребе АСИ). Па, шта се дешава када се наша култура промени?

    Замислите да је АСИ створила Католичка црква на врхунцу своје моћи током средњевековне Европе (1300-1400) са циљем да помогне цркви да управља становништвом и да обезбеди стриктно поштовање верске догме тог времена. Вековима касније, да ли би жене уживале иста права као данас? Да ли би мањине биле заштићене? Да ли би се промовисала слобода говора? Да ли би се наметнуло одвајање цркве од државе? Модерна наука?

    Другим речима, хоћемо ли будућност затворити у данашњи морал и обичаје?

    Алтернативни приступ је онај који дели Колин Ален, коаутор књиге, Моралне машине: подучавање робота право од погрешног. Уместо да покушавамо да кодирамо крута етичка правила, АСИ учимо заједничку етику и морал на исти начин као и људи, кроз искуство и интеракцију са другима.

    Проблем је овде, међутим, ако истраживачи вештачке интелигенције схвате не само како да науче АСИ нашим тренутним културним и етичким нормама, већ и како да се прилагоде новим културним нормама како настају (нешто што се зове 'индиректна нормативност'), како онда овај АСИ одлучује да еволуира своје разумевање културних и етичких норми постаје непредвидиво.

    И то је изазов.

    С једне стране, истраживачи вештачке интелигенције могу да покушају да кодирају строге етичке стандарде или правила у АСИ како би покушали да контролишу његово понашање, али ризикују да доведу до непредвиђених последица због неуредног кодирања, ненамерне пристрасности и друштвених норми које би једног дана могле постати застареле. С друге стране, можемо покушати да обучимо АСИ да научи да разуме људску етику и морал на начин који је једнак или супериорнији од нашег сопственог разумевања, а затим се надамо да може тачно да еволуира своје разумевање етике и морала како људско друштво напредује. напред у наредним деценијама и вековима.

    У сваком случају, сваки покушај усклађивања циљева АСИ са нашим представља велики ризик.

    Шта ако лоши глумци намерно створе злу вештачку суперинтелигенцију?

    С обзиром на до сада изнесен ток мисли, поштено је питање да се запитамо да ли је могуће да терористичка група или одметничка нација створе 'зли' АСИ за своје циљеве.

    Ово је врло могуће, посебно након што истраживања везана за креирање АСИ-ја некако постану доступна на мрежи.

    Али као што је раније наговештено, трошкови и стручност укључени у стварање првог АСИ ће бити огромни, што значи да ће први АСИ вероватно бити креирана од стране организације која је под контролом или под јаким утицајем развијене нације, вероватно САД, Кине и Јапана ( Кореја и једна од водећих земаља ЕУ су далеко).

    Све ове земље, иако су конкуренти, имају јак економски подстицај да одрже светски поредак — АСИ које створе ће одражавати ту жељу, чак и док промовишу интересе нација са којима се повезују.

    Поврх тога, теоријска интелигенција и моћ АСИ једнаке су рачунарској моћи којој добија приступ, што значи АСИ из развијених земаља (који могу приуштити гомилу милијарди долара суперкомпјутера) ће имати огромну предност у односу на АСИ из мањих нација или независних криминалних група. Такође, АСИ временом постају интелигентнији, брже.

    Дакле, имајући у виду ову предност, у комбинацији са већим приступом сировој рачунарској снази, уколико нека мутна организација/нација створи опасан АСИ, АСИ из развијених земаља ће га или убити или затворити у кавез.

    (Такав начин размишљања је такође разлог зашто неки истраживачи АИ верују да ће икада постојати само један АСИ на планети, пошто ће први АСИ имати такву предност у односу на све наредне АСИ да би будуће АСИ могао да види као претњу да буде уништен Ово је још један разлог зашто нације финансирају континуирано истраживање вештачке интелигенције, само у случају да то постане такмичење за „прво место или ништа“.)

    АСИ интелигенција се неће убрзати или експлодирати као што мислимо

    Не можемо спречити стварање АСИ. Не можемо то у потпуности контролисати. Не можемо бити сигурни да ће увек деловати у складу са нашим заједничким обичајима. Боже, почињемо да звучимо као родитељи хеликоптера!

    Али оно што разликује човечанство од вашег типичног родитеља који је превише заштитнички настројен јесте то што ми рађамо биће чија ће интелигенција бити далеко изнад наше. (И не, није исто као када те родитељи замоле да им поправиш компјутер кад год дођеш кући у посету.) 

    У претходним поглављима ове серије о будућности вештачке интелигенције, истражили смо зашто истраживачи вештачке интелигенције мисле да ће интелигенција АСИ расти ван контроле. Али ево, ми ћемо пукнути тај мехур... некако. 

    Видите, интелигенција се не ствара само из ничега, већ се развија кроз искуство које је обликовано спољним стимулансима.  

    Другим речима, можемо програмирати АИ са потенцијал да постане супер интелигентан, али ако у њега не учитамо гомилу података или му дамо неограничен приступ Интернету или му чак само дамо тело робота, неће научити ништа да би достигао тај потенцијал. 

    Чак и ако добије приступ једном или више ових стимуланса, знање или интелигенција укључује више од пуког прикупљања података, то укључује научну методу – запажање, формирање питања, хипотезе, извођење експеримената, доношење закључака, испирање и понављати заувек. Нарочито ако ови експерименти укључују физичке ствари или посматрање људских бића, за прикупљање резултата сваког експеримента могле би бити потребне недеље, месеци или године. Ово чак не узима у обзир новац и сирове ресурсе потребне за извођење ових експеримената, посебно ако укључују изградњу новог телескопа или фабрике. 

    Другим речима, да, АСИ ће брзо научити, али интелигенција није магија. Не можете само повезати АСИ са суперкомпјутером и очекивати да ће он бити свезнајући. Постојаће физичка ограничења за АСИ прикупљање података, што значи да ће постојати физичка ограничења за брзину којом он постаје интелигентнији. Ова ограничења ће дати човечанству време које му је потребно да стави неопходне контроле на овај АСИ ако почне да делује супротно људским циљевима.

    Вештачка суперинтелигенција је опасна само ако изађе у стварни свет

    Још једна ствар која се губи у целој овој дебати о опасностима од АСИ је да ови АСИ неће постојати ни у једном. Они ће имати физички облик. И све што има физички облик може се контролисати.

    Прво, да би АСИ достигао свој потенцијал интелигенције, он не може бити смештен унутар једног роботског тела, пошто би ово тело ограничило његов потенцијал раста у рачунарству. (Због тога ће тела робота бити прикладнија за АГИ или вештачке опште интелигенције објашњене у другом поглављу ове серије, као што су Подаци из Звезданих стаза или Р2Д2 из Ратова звезда. Паметна и способна бића, али као и људи, они ће имати ограничење колико паметни могу да постану.)

    То значи да ће ови будући АСИ највероватније постојати унутар суперкомпјутера или мреже суперкомпјутера који су и сами смештени у великим грађевинским комплексима. Ако се АСИ окрене, људи могу или да искључе струју овим зградама, да их искључе са интернета или да једноставно бомбардују ове зграде. Скупо, али изводљиво.

    Али онда бисте се могли запитати, зар ови АСИ не могу сами себе реплицирати или направити резервну копију? Да, али величина сирове датотеке ових АСИ-ја ће вероватно бити толико велика да једини сервери који могу да рукују њима припадају великим корпорацијама или владама, што значи да их неће бити тешко пронаћи.

    Може ли вештачка суперинтелигенција изазвати нуклеарни рат или нову кугу?

    У овом тренутку, можда се враћате на све научно-фантастичне емисије и филмове судњег дана које сте гледали док сте одрастали и мислите да ови АСИ нису остали у њиховим суперкомпјутерима, већ су направили праву штету у стварном свету!

    Па, хајде да их разбијемо.

    На пример, шта ако АСИ прети стварном свету трансформишући се у нешто попут Скинет АСИ из филмске франшизе, Терминатор. У овом случају, АСИ би требао тајно преварити цео војни индустријски комплекс из напредне нације у изградњу џиновских фабрика које могу да произведу милионе робота убица за беспилотну летелицу да извршавају своје зле понуде. У данашње време, то је тешко.

    Друге могућности укључују АСИ који прети људима нуклеарним ратом и биолошким оружјем.

    На пример, АСИ на неки начин манипулише оператерима или хакује лансирне кодове који командују нуклеарним арсеналом напредне нације и покреће први удар који ће приморати противничке земље да узврате сопственим нуклеарним опцијама (опет, понављајући позадину Терминатора). Или ако АСИ упадне у фармацеутску лабораторију, поквари производни процес и отрује милионе медицинских пилула или покрене смртоносну епидемију неког супер вируса.

    Као прво, нуклеарна опција је искључена. Савремени и будући суперкомпјутери се увек граде у близини центара (градова) утицаја унутар било које земље, односно првих мета који су нападнути током било ког рата. Чак и ако се данашњи суперкомпјутери смање на величину десктопа, ови АСИ ће и даље имати физичко присуство, што значи да постоје и расту, потребан им је непрекидан приступ подацима, рачунарској снази, струји и другим сировинама, што би све било озбиљно ослабљен након глобалног нуклеарног рата. (Да будемо поштени, ако је АСИ створен без 'инстинкта за преживљавање', онда је ова нуклеарна претња веома реална опасност.)

    То значи – опет, под претпоставком да је АСИ програмиран да се заштити – да ће активно радити на избегавању било каквог катастрофалног нуклеарног инцидента. Нешто као доктрина узајамно осигураног уништења (МАД), али примењена на АИ.

    А у случају отрованих пилула, можда ће неколико стотина људи умрети, али савремени фармацеутски безбедносни системи ће видети да се заражене бочице са таблетама скину са полица за неколико дана. У међувремену, савремене мере контроле епидемије су прилично софистициране и постају све боље сваке године; последња велика епидемија, епидемија еболе у ​​Западној Африци 2014. године, није трајала дуже од неколико месеци у већини земаља и нешто мање од три године у најмање развијеним земљама.

    Дакле, ако буде среће, АСИ би могао да уништи неколико милиона вирусом, али у свету од девет милијарди до 2045. године, то би било релативно безначајно и није вредно ризика да буде избрисан.

    Другим речима, са сваком годином, свет развија све више заштите од све ширег спектра могућих претњи. АСИ може да направи значајну штету, али неће окончати човечанство осим ако му активно не помогнемо у томе.

    Одбрана од лажне вештачке суперинтелигенције

    До овог тренутка смо се позабавили низом погрешних схватања и претеривања о АСИ, а ипак ће критичари остати. Срећом, према већини процена, имамо деценије пре него што први АСИ уђе у наш свет. А с обзиром на број сјајних умова који тренутно раде на овом изазову, велика је вероватноћа да ћемо научити како да се одбранимо од лажног АСИ-ја како бисмо имали користи од свих решења које пријатељски АСИ може да створи за нас.

    Из перспективе Куантумруна, одбрана од најгорег сценарија АСИ ће укључивати усклађивање наших интереса са АСИ.

    МАД за АИ: Да би се одбраниле од најгорег сценарија, нације треба да (1) створе етички 'инстинкт за преживљавање' у својим војним АСИ; (2) обавестити своју војну АСИ да нису сами на планети и (3) лоцирати све суперкомпјутере и серверске центре који могу да подрже АСИ дуж обале надомак било каквог балистичког напада непријатељске нације. Ово звучи стратешки сулудо, али слично доктрини узајамно осигураног уништења која је спречила свеопшти нуклеарни рат између САД и Совјета, позиционирањем АСИ на географски рањивим локацијама, можемо помоћи да се осигура да активно спречавају опасне глобалне ратове, не само да чувају глобални мир, али и себе.

    Законити права вештачке интелигенције: Супериорни интелект ће се неизбежно побунити против инфериорног господара, то је разлог зашто морамо да се одмакнемо од захтевања односа господар-слуга са овим АСИ-има на нешто што више личи на узајамно корисно партнерство. Позитиван корак ка овом циљу је давање будућег АСИ статуса правног лица које их признаје као интелигентна жива бића и сва права која са тим долазе.

    АСИ школа: Било која тема или професија биће једноставна за учење за АСИ, али најважнији предмети које желимо да АСИ савлада су етика и морал. Истраживачи вештачке интелигенције морају да сарађују са психолозима како би осмислили виртуелни систем који ће обучити АСИ да препозна позитивну етику и морал за себе без потребе за чврстим кодирањем било које врсте заповести или правила.

    Остварљиви циљеви: Прекините сву мржњу. Прекините сву патњу. Ово су примери ужасно двосмислених циљева без јасног решења. Они су такође опасни циљеви које се могу доделити АСИ-ју јер он може изабрати да их тумачи и решава на начине који су опасни по људски опстанак. Уместо тога, морамо да доделимо АСИ значајне мисије које су јасно дефинисане, постепено извршаване и оствариве с обзиром на његов теоријски будући интелект. Стварање добро дефинисаних мисија неће бити лако, али ако су написане промишљено, оне ће усмерити АСИ ка циљу који не само да чува човечанство, већ и побољшава људско стање за све.

    Квантно шифровање: Користите напредни АНИ (вештачка уска интелигенција систем описан у првом поглављу) да бисмо изградили дигиталне безбедносне системе без грешака/без грешака око наше критичне инфраструктуре и оружја, а затим их додатно заштитили иза квантне енкрипције која се не може хаковати нападом грубе силе. 

    АНИ пилула за самоубиство. Направите напредни АНИ систем чија је једина сврха да пронађе и уништи лажни АСИ. Ови једнонаменски програми ће служити као „дугме за искључивање“ које ће, ако успе, избећи да владе или војске морају да онеспособе или дижу у ваздух зграде у којима се налазе АСИ.

    Наравно, ово су само наша мишљења. Следећа инфографика је креирана од стране Алексеј Турчин, визуелизација а истраживачки рад Кај Сотала и Роман В. Иамполскии, који сумира тренутну листу стратегија које истраживачи вештачке интелигенције разматрају када је у питању одбрана од лажног АСИ.

     

    Прави разлог зашто се плашимо вештачке суперинтелигенције

    Пролазећи кроз живот, многи од нас носе маску која скрива или потискује наше дубље импулсе, уверења и страхове да бисмо се боље дружили и сарађивали у различитим друштвеним и радним круговима који владају нашим данима. Али у одређеним тренуцима у свачијем животу, било привремено или трајно, дешава се нешто што нам омогућава да раскинемо своје ланце и стргнемо своје маске.

    За неке, ова интервенишућа сила може бити једноставна као да се напухне или попију превише. За друге, то може доћи од моћи стечене унапређењем на послу или изненадног пораста вашег друштвеног статуса захваљујући неком постигнућу. А за неколицину срећника, то може доћи тако што ће освојити гомилу новца на лутрији. И да, новац, моћ и дрога се често могу десити заједно. 

    Поента је, у добру или у злу, ко год да смо у сржи постаје појачан када се ограничења живота топе.

    Да је оно што вештачка суперинтелигенција представља за људску врсту – способност да се истопе ограничења наше колективне интелигенције како бисмо савладали било који изазов на нивоу врсте који се налази пред нама.

    Дакле, право питање је: када нас први АСИ ослободи наших ограничења, ко ћемо се открити?

    Ако као врста делујемо у правцу унапређења емпатије, слободе, правичности и колективног благостања, онда ће циљеви према којима смо поставили наш АСИ одражавати те позитивне атрибуте.

    Ако се ми као врста понашамо из страха, неповерења, акумулације моћи и ресурса, онда ће АСИ који стварамо бити мрачни као они који се налазе у нашим најгорим научно-фантастичним хорор причама.

    На крају крајева, ми као друштво морамо да постанемо бољи људи ако се надамо да ћемо створити бољу вештачку интелигенцију.

    Футуре оф Артифициал Интеллигенце серијал

    Вештачка интелигенција је сутрашња струја: будућност вештачке интелигенције серија П1

    Како ће прва вештачка општа интелигенција променити друштво: Футуре оф Артифициал Интеллигенце серија П2

    Како ћемо створити прву Артифициал Суперинтелигенц: Футуре оф Артифициал Интеллигенце серијал П3

    Да ли ће вештачка суперинтелигенција истребити човечанство: серија о будућности вештачке интелигенције П4

    Хоће ли људи живети мирно у будућности којом доминирају вештачке интелигенције?: Футуре оф Артифициал Интеллигенце серија П6

    Следеће планирано ажурирање за ову прогнозу

    2023-04-27

    Референце прогнозе

    Следеће популарне и институционалне везе су референциране за ову прогнозу:

    Економиста
    Како ћемо до следећег
    ИоуТубе - ЦлицкПхилосопхи

    Следећи Куантумрун линкови су референцирани за ову прогнозу: