Да ли ће вештачка суперинтелигенција истребити човечанство? Будућност вештачке интелигенције П4

КРЕДИТ ЗА СЛИКУ: Куантумрун

Да ли ће вештачка суперинтелигенција истребити човечанство? Будућност вештачке интелигенције П4

    Постоје одређени изуми на које нације улазе. То су изуми у којима све зависи од тога да се буде први, а све мање може представљати стратешку и смртну претњу опстанку нације.

    Ови изуми који дефинишу историју не долазе често, али када се појаве, свет стаје и предвидљива будућност постаје магловита.

    Последњи такав проналазак појавио се током најгорег Другог светског рата. Док су нацисти освајали земљу на свим фронтовима у старом свету, у новом свету, посебно унутар тајне војне базе изван Лос Аламоса, савезници су напорно радили на оружју за окончање свих врста оружја.

    Пројекат је у почетку био мали, али је потом нарастао и запослио 130,000 људи из САД, Велике Британије и Канаде, укључујући многе од највећих светских мислилаца у то време. Под кодним називом Пројекат Менхетн и са неограниченим буџетом — отприлике 23 милијарде долара у доларима из 2018. — ова армија људске генијалности је на крају успела да створи прву нуклеарну бомбу. Недуго затим, Други светски се завршио са два атомска праска.

    Ово нуклеарно оружје започело је атомско доба, увело дубоко нови извор енергије и дало човечанству могућност да се истреби за неколико минута – нешто што смо избегли упркос Хладном рату.

    Стварање вештачке суперинтелигенције (АСИ) је још један изум који дефинише историју чија снага (и позитивна и деструктивна) далеко надмашује нуклеарну бомбу.

    У последњем поглављу серије Футуре оф Артифициал Интеллигенце, истражили смо шта је АСИ и како истраживачи планирају да га једног дана направе. У овом поглављу ћемо погледати које организације воде истраживања вештачке интелигенције (АИ), шта ће АСИ желети када стекне свест налик човеку и како би могао да угрози човечанство ако се њиме лоше управља или ако падне под утицај не баш лепи режими.

    Ко ради на изградњи вештачке суперинтелигенције?

    С обзиром на то колико ће стварање АСИ бити значајно за људску историју и колико ће значајну предност дати свом креатору, не би требало да буде изненађење чути да многе групе индиректно раде на овом пројекту.

    (Под индиректним подразумевамо рад на истраживању вештачке интелигенције које ће на крају створити прво вештачка општа интелигенција (АГИ), то ће само по себи довести до првог АСИ убрзо након тога.)

    За почетак, када су у питању наслови, јасни лидери у напредном истраживању вештачке интелигенције су врхунске технолошке компаније у САД и Кини. На америчком фронту, ово укључује компаније као што су Гоогле, ИБМ и Мицрософт, ау Кини то укључује компаније као што су Тенцент, Баиду и Алибаба. Али пошто је истраживање вештачке интелигенције релативно јефтино у поређењу са развојем нечег физичког, као што је бољи нуклеарни реактор, ово је такође област у којој се могу такмичити и мање организације, као што су универзитети, стартапови и ... организације у сенци (користите своју машту зликоваца Бонда за онај).

    Али иза кулиса, прави подстицај истраживања вештачке интелигенције долази од влада и њихових војних снага. Економска и војна награда да будете први који је створио АСИ је превелика (наведено у наставку) да бисте ризиковали да заостанете. А опасности од тога да буду последњи су неприхватљиве, барем за одређене режиме.

    Имајући у виду ове факторе, релативно ниске трошкове истраживања АИ, бесконачне комерцијалне примене напредне вештачке интелигенције и економску и војну предност да се први створи АСИ, многи истраживачи АИ верују да је стварање АСИ неизбежно.

    Када ћемо створити вештачку суперинтелигенцију

    У нашем поглављу о АГИ, споменули смо како је истраживање врхунских истраживача АИ веровало да ћемо створити први АГИ оптимистично до 2022. године, реално до 2040. и песимистички до 2075.

    И у нашем последње поглавље, навели смо како је стварање АСИ генерално резултат инструкција АГИ да се бескрајно самопобољшава и дајући му ресурсе и слободу да то уради.

    Из тог разлога, док АГИ може потрајати и до неколико деценија да се измисли, стварање АСИ може потрајати још само неколико година.

    Ова тачка је слична концепту 'рачунарског надвишења', предложеном у папир, који су написали водећи АИ мислиоци Луке Муехлхаусер и Ницк Бостром. У суштини, ако стварање АГИ настави да заостаје за тренутним напретком у рачунарским капацитетима, заснованим на Муровом закону, онда ће до тренутка када истраживачи измисле АГИ, на располагању бити толико јефтине рачунарске снаге да ће АГИ имати капацитет треба брзо да прескочи на ниво АСИ.

    Другим речима, када коначно прочитате наслове који објављују да је нека технолошка компанија измислила први прави АГИ, онда очекујте најаву првог АСИ недуго затим.

    Унутар ума вештачке суперинтелигенције?

    У реду, тако да смо установили да много великих играча са дубоким џеповима истражује АИ. А онда, након што је први АГИ изумљен, видећемо да светске владе (војске) дају зелено светло за притисак на АСИ убрзо након тога да би први победили у глобалној трци у наоружању са вештачком интелигенцијом (АСИ).

    Али када се овај АСИ створи, како ће размишљати? Шта ће хтети?

    Пријатељски пас, брижни слон, слатки робот — као људи, имамо навику да покушавамо да се повежемо са стварима кроз њихово антропологизовање, тј. примењујући људске карактеристике на ствари и животиње. Зато је природна прва претпоставка коју људи имају када размишљају о АСИ-ју да ће, када некако постане свестан, размишљати и понашати се слично као и ми.

    Па, није нужно.

    Перцепција. Као прво, оно што већина заборавља јесте да је перцепција релативна. Начине на које размишљамо обликује наше окружење, наша искуства, а посебно наша биологија. Прво објашњено у треће поглавље од наших Будућност људске еволуције серије, размотрите пример нашег мозга:

    Наш мозак нам помаже да схватимо свет око нас. И то не ради тако што лебди изнад наших глава, гледа около и контролише нас помоћу Ксбок контролера; то ради тако што је заробљен унутар кутије (наших ножица) и обрађује све информације које добија од наших чулних органа - наших очију, носа, ушију, итд.

    Али као што глуви или слепи живе много краћим животом у поређењу са способним људима, због ограничења која њихов инвалидитет поставља на начин на који могу да перципирају свет, исто се може рећи за све људе због ограничења наших основних скуп чулних органа.

    Размислите о овоме: наше очи опажају мање од десет трилионтиног дела свих светлосних таласа. Не можемо да видимо гама зраке. Не можемо да видимо рендгенске снимке. Не можемо видети ултраљубичасто светло. И немој да почнем са инфрацрвеним, микроталасним и радио таласима!

    Шалу на страну, замислите како би изгледао ваш живот, како бисте могли да перципирате свет, колико би ваш ум могао да функционише другачије када бисте могли да видите више од маленог светла које вам тренутно дозвољавају. Исто тако, замислите како бисте доживљавали свет да је ваш њух једнак чулу пса или ако је ваш слух једнак чулу слона.

    Као људи, ми у суштини гледамо на свет кроз шпијунку, и то се одражава у умовима које смо еволуирали да бисмо дали смисао тој ограниченој перцепцији.

    У међувремену, први АСИ ће се родити унутар суперкомпјутера. Уместо органа, улази којима ће приступити укључују огромне скупове података, вероватно (вероватно) чак и приступ самом Интернету. Истраживачи би могли да му дају приступ ЦЦТВ камерама и микрофонима целог града, сензорним подацима са дронова и сателита, па чак и физичком облику тела или тела робота.

    Као што можете замислити, ум рођен у суперкомпјутеру, са директним приступом Интернету, милионима електронских очију и ушију и читав низ других напредних сензора не само да ће мислити другачије од нас, већ и ум који може имати смисла од свих тих чулних инпута морали би бити бескрајно супериорнији и од нас. Ово је ум који ће бити потпуно стран нашем и било ком другом облику живота на планети.

    Циљеви. Друга ствар коју људи претпостављају је да када АСИ достигне неки ниво суперинтелигенције, одмах ће остварити жељу да смисли сопствене циљеве и циљеве. Али ни то није нужно тачно.

    Многи истраживачи АИ верују да су суперинтелигенција АСИ-ја и његови циљеви „ортогонални“, то јест, без обзира на то колико буде паметан, циљеви АСИ-ја ће остати исти. 

    Дакле, без обзира да ли је вештачка интелигенција првобитно створена да дизајнира бољу пелену, максимизира приносе на берзи, или стратегише начине да се порази непријатељ на бојном пољу, када достигне ниво АСИ, првобитни циљ се неће променити; оно што ће се променити је ефикасност АСИ да постигне те циљеве.

    Али ту лежи опасност. Ако се АСИ оптимизује за одређени циљ, онда је боље да будемо проклето сигурни да се оптимизује до циља који је у складу са циљевима човечанства. У супротном, резултати могу постати смртоносни.

    Да ли вештачка суперинтелигенција представља егзистенцијални ризик за човечанство?

    Па шта ако се АСИ пусти на свет? Ако се оптимизује да доминира на берзи или обезбеди америчку војну надмоћ, неће ли се АСИ самоодржати у оквиру тих специфичних циљева?

    Вероватно.

    До сада смо разговарали о томе како ће АСИ бити опседнут циљевима који су му првобитно додељени и нељудски компетентан у постизању тих циљева. Квака је у томе што ће рационални агент остварити своје циљеве на најефикаснији могући начин осим ако му не буде разлога.

    На пример, рационални агент ће смислити низ подциљева (тј. циљеви, инструментални циљеви, степенице) који ће му помоћи на путу ка постизању његовог крајњег циља. За људе, наш кључни подсвесни циљ је репродукција, преношење ваших гена (тј. индиректна бесмртност). Подциљеви у том циљу често могу укључивати:

    • Преживети, приступити храни и води, постати велики и јак, научити се бранити или уложити у различите облике заштите, итд. 
    • Привлачење партнера, вежбањем, развојем привлачне личности, стилским облачењем итд.
    • Приуштити потомство, образовањем, добијањем високо плаћеног посла, куповином замки живота средње класе, итд.

    За огромну већину нас, проћи ћемо кроз све ове подциљеве, и многе друге, са надом да ћемо на крају постићи овај крајњи циљ репродукције.

    Али ако би овај крајњи циљ, или чак било који од важнијих подциљева, био угрожен, многи од нас би предузели одбрамбене акције изван наших зона моралног комфора – што укључује варање, крађу или чак убијање.

    Исто тако, у животињском царству, ван граница људског морала, многе животиње не би двапут размишљале о томе да убију било шта што је претило њима или њиховом потомству.

    Будући АСИ неће бити ништа другачији.

    Али уместо на потомство, АСИ ће се фокусирати на првобитни циљ за који је створен, а у потрази за тим циљем, ако пронађе одређену групу људи, или чак цело човечанство, представља препреку у потрази за својим циљевима , онда ... донеће рационалну одлуку.

    (Ево где можете да укључите било који сценарио судњег дана који се односи на вештачку интелигенцију о коме сте читали у својој омиљеној научно-фантастичној књизи или филму.)

    Ово је најгори сценарио за који су истраживачи вештачке интелигенције заиста забринути. АСИ неће деловати из мржње или зла, само из равнодушности, као што грађевинска екипа неће двапут размислити о томе да булдожером обори мравињак у процесу изградње новог стамбеног торња.

    Додатне белешке. У овом тренутку, неки од вас би се можда запитали: „Зар истраживачи АИ не могу једноставно да уређују кључне циљеве АСИ-ја након чињенице ако откријемо да се понаша?“

    Не баш.

    Једном када АСИ сазри, сваки покушај да се уреди његов(и) првобитни циљ(ови) може се посматрати као претња, и као претња која би захтевала екстремне акције да би се одбранила. Користећи цео пример људске репродукције из ранијег периода, то је скоро као да је лопов запретио да ће украсти бебу из утробе будуће мајке—можете бити проклето сигурни да ће мајка предузети екстремне мере да заштити своје дете.

    Опет, овде не говоримо о калкулатору, већ о 'живом' бићу, које ће једног дана постати далеко паметније од свих људи на планети заједно.

    Непознато

    Иза басне о Пандорина кутија је мање позната истина коју људи често заборављају: отварање кутије је неизбежно, ако не ви него неко други. Забрањено знање је превише примамљиво да би заувек остало закључано.

    Због тога је бесмислен покушај постизања глобалног споразума о заустављању свих истраживања вештачке интелигенције која би могла да доведу до АСИ – превише је организација које раде на овој технологији и званично и у сенци.

    На крају крајева, немамо појма шта ће овај нови ентитет, овај АСИ значити друштву, технологији, политици, миру и рату. Ми људи се спремамо да изнова измислимо ватру, а куда нас ова креација води, потпуно је непознато.

    Враћајући се на прво поглавље ове серије, једна ствар коју сигурно знамо је да је интелигенција моћ. Интелигенција је контрола. Људи могу лежерно да посете најопасније животиње на свету у њиховим локалним зоолошким вртовима не зато што смо физички јачи од ових животиња, већ зато што смо знатно паметнији.

    С обзиром на потенцијалне улоге, да АСИ користи свој огроман интелект да предузме радње које могу директно или ненамерно угрозити опстанак људске расе, дугујемо себи да барем покушамо да осмислимо заштитне мере које ће омогућити људима да остану у возачевој раси. седиште—ово је тема следећег поглавља.

    Футуре оф Артифициал Интеллигенце серијал

    П1: Вештачка интелигенција је сутрашња струја

    П2: Како ће прва вештачка општа интелигенција променити друштво

    П3: Како ћемо створити прву вештачку суперинтелигенцију

    П5: Како ће се људи бранити од вештачке суперинтелигенције

    П6: Да ли ће људи живети мирно у будућности у којој ће доминирати вештачка интелигенција?

    Следеће планирано ажурирање за ову прогнозу

    2025-09-25

    Референце прогнозе

    Следеће популарне и институционалне везе су референциране за ову прогнозу:

    Економиста
    Како ћемо до следећег
    ИоуТубе - ЦлицкПхилосопхи

    Следећи Куантумрун линкови су референцирани за ову прогнозу: