Дали вештачката суперинтелигенција ќе го истреби човештвото? Иднината на вештачката интелигенција P4

КРЕДИТ НА СЛИКА: Quantumrun

Дали вештачката суперинтелигенција ќе го истреби човештвото? Иднината на вештачката интелигенција P4

    Постојат одредени пронајдоци на кои нациите одат сите. Тоа се пронајдоци каде сè зависи од тоа да се биде прв, а сè помалку може да значи стратешка и смртна закана за опстанокот на една нација.

    Овие пронајдоци што ја дефинираат историјата не се појавуваат често, но кога ќе се појават, светот застанува и предвидливата иднина станува маглива.

    Последниот таков изум се појави за време на најлошата Втора светска војна. Додека нацистите се стекнуваа на сите фронтови во стариот свет, во новиот свет, конкретно во тајната армиска база надвор од Лос Аламос, сојузниците напорно работеа на оружје за ставање крај на секое оружје.

    Проектот на почетокот беше мал, но потоа порасна за да вработи 130,000 луѓе од САД, Велика Британија и Канада, вклучително и многу од најголемите светски мислители во тоа време. Со кодно име Проектот Менхетен и со неограничен буџет - приближно 23 милијарди долари во 2018 година - оваа армија на човечка генијалност на крајот успеа да ја создаде првата нуклеарна бомба. Не долго потоа, Втората светска војна заврши со два атомски удари.

    Овие нуклеарни оружја ја воведоа атомската ера, воведоа длабоко нов извор на енергија и му дадоа на човештвото способност да се истреби за неколку минути - нешто што го избегнувавме и покрај Студената војна.

    Создавањето на вештачка суперинтелигенција (АСИ) е уште еден изум кој го дефинира историјата, чија моќ (и позитивна и деструктивна) далеку ја надминува нуклеарната бомба.

    Во последното поглавје од серијата „Иднина на вештачката интелигенција“, истраживме што е ASI и како истражувачите планираат еден ден да изградат таков. Во ова поглавје, ќе разгледаме кои организации го водат истражувањето на вештачката интелигенција (ВИ), што ќе посака ASI штом ќе добие свест слична на човекот и како може да го загрози човештвото ако неправилно се управува или ако некој падне под влијание на не толку убави режими.

    Кој работи на изградба на вештачка суперинтелигенција?

    Со оглед на тоа колку значајно ќе биде создавањето на ASI за човечката историја и колку значителна предност ќе му даде на неговиот креатор, не треба да биде изненадување да се слушне дека многу групи индиректно работат на овој проект.

    (Со индиректно, мислиме на работа на истражување за вештачка интелигенција што на крајот ќе го создаде првото вештачка општа интелигенција (AGI), тоа само по себе ќе доведе до првиот ASI наскоро потоа.)

    За почеток, кога станува збор за насловите, јасни лидери во напредното истражување на вештачката интелигенција се врвните технолошки фирми во САД и Кина. На фронтот на САД, ова ги вклучува компаниите како Google, IBM и Microsoft, а во Кина, ова ги вклучува компаниите како Tencent, Baidu и Alibaba. Но, бидејќи истражувањето на вештачката интелигенција е релативно евтино во споредба со развојот на нешто физичко, како што е подобар нуклеарен реактор, ова е исто така поле во кое и помалите организации можат да се натпреваруваат, како што се универзитетите, стартапите и ... организациите во сенка (користете ја вашата Бонд негативец за тој).

    Но, зад сцената, вистинскиот притисок зад истражувањето на вештачката интелигенција доаѓа од владите и нивните војски. Економската и воената награда да се биде првиот што ќе создаде ASI е премногу голема (наведена подолу) за да се ризикува да заостане. А опасностите да се биде последен се неприфатливи, барем за одредени режими.

    Со оглед на овие фактори, релативно ниската цена за истражување на вештачката интелигенција, бесконечните комерцијални апликации на напредната вештачка интелигенција и економската и воената предност да се биде првиот што создава АСИ, многу истражувачи на вештачката интелигенција веруваат дека создавањето на АСИ е неизбежно.

    Кога ќе создадеме вештачка суперинтелигенција

    Во нашето поглавје за AGI, спомнавме како анкетата на врвни истражувачи на вештачка интелигенција верува дека ќе го создадеме првиот AGI оптимистички до 2022 година, реално до 2040 година и песимистички до 2075 година.

    И во нашата последното поглавје, наведовме како создавањето на ASI е генерално резултат на инструкции на AGI да се само-подобрува бесконечно и да му ги даде ресурсите и слободата да го стори тоа.

    Поради оваа причина, додека на AGI може да му требаат уште неколку децении за да се измисли, создавањето на ASI може да потрае само неколку години повеќе.

    Оваа точка е слична на концептот на „компјутерски настрешница“, предложен во хартија, ко-напишано од водечките мислители на вештачката интелигенција Лук Муелхаузер и Ник Бостром. Во основа, доколку создавањето на AGI продолжи да заостанува зад сегашниот напредок во компјутерскиот капацитет, придвижуван од законот на Мур, тогаш до моментот кога истражувачите ќе измислат AGI, ќе има толку многу евтина компјутерска моќ на располагање што AGI ќе има капацитет треба брзо да скокне до нивото на ASI.

    Со други зборови, кога конечно ќе ги прочитате насловите кои најавуваат дека некоја технолошка компанија го измислила првиот вистински AGI, тогаш очекувајте објавување на првиот ASI не многу подоцна.

    Внатре во умот на вештачката суперинтелигенција?

    Добро, затоа утврдивме дека многу големи играчи со длабоки џебови истражуваат вештачка интелигенција. А потоа, откако ќе биде измислено првото AGI, ќе видиме како светските влади (војски) зелено го осветлуваат притисокот кон ASI набргу потоа за да бидат први кои ќе победат во глобалната трка за вооружување со вештачка интелигенција (ASI).

    Но, штом ќе се создаде оваа ASI, како ќе размислува? Што ќе сака?

    Пријателското куче, грижливиот слон, симпатичниот робот - како луѓе, имаме навика да се обидуваме да се поврземе со нештата преку нивно антропологизирање, т.е. примена на човечки карактеристики на нештата и животните. Затоа, природната прва претпоставка што луѓето ја имаат кога размислуваат за ASI е дека штом некако ќе се освести, ќе размислува и ќе се однесува слично како нас.

    Па, не мора.

    Перцепција. На прво, она што повеќето имаат тенденција да заборават е дека перцепцијата е релативна. Начините на кои размислуваме се обликувани од нашата околина, од нашите искуства, а особено од нашата биологија. Прво објаснето во трето поглавје на нашите Иднината на човечката еволуција серија, разгледајте го примерот на нашиот мозок:

    Нашиот мозок е тој што ни помага да го разбереме светот околу нас. И тоа го прави не така што лебди над нашите глави, гледа наоколу и не контролира со Xbox контролер; тоа го прави така што е заробен во кутија (нашите ногини) и обработувајќи ги сите информации што ги добива од нашите сетилни органи - нашите очи, нос, уши итн.

    Но, како што глувите или слепите живеат многу помали животи во споредба со работоспособните луѓе, поради ограничувањата што ги поставува нивната попреченост за тоа како можат да го перцепираат светот, истото може да се каже за сите луѓе поради ограничувањата на нашите основни збир на сетилни органи.

    Размислете за ова: нашите очи перцепираат помалку од десет трилионити од сите светлосни бранови. Не можеме да видиме гама зраци. Не можеме да видиме рендгенски снимки. Не можеме да видиме ултравиолетова светлина. И не ме поттикнувајте да започнам со инфрацрвени, микробранови и радио бранови!

    Сите шеги настрана, замислете каков би бил вашиот живот, како би можеле да го перцепирате светот, колку поинаку би можел да работи вашиот ум кога би можеле да видите повеќе од онаа мала светлина што моментално ви ја дозволуваат очите. Исто така, замислете како би го доживеале светот доколку вашето сетило за мирис е еднакво на кучето или ако вашето сетило за слух е еднакво на сетилото за слон.

    Како луѓе, ние суштински го гледаме светот преку шпионка, и тоа се рефлектира во умовите што ги развивме за да ја разбереме таа ограничена перцепција.

    Во меѓувреме, првиот ASI ќе се роди во суперкомпјутер. Наместо органи, влезовите до кои ќе пристапи вклучуваат огромни збирки на податоци, веројатно (најверојатно) дури и пристап до самиот Интернет. Истражувачите би можеле да му дадат пристап до CCTV камерите и микрофоните на цел град, сензорните податоци од дронови и сателити, па дури и до физичката форма на тело или тела на робот.

    Како што може да си замислите, умот роден во суперкомпјутер, со директен пристап до Интернет, до милиони електронски очи и уши и цела низа други напредни сензори не само што ќе размислува поинаку од нас, туку и ум што може да има смисла. од сите тие сетилни инпути би требало да бидат бескрајно супериорни и од нас. Ова е ум што ќе биде целосно туѓ на нашиот и на која било друга форма на живот на планетата.

    Цели. Другото нешто што луѓето претпоставуваат е дека штом ASI ќе достигне одредено ниво на суперинтелигенција, веднаш ќе ја сфати желбата да излезе со свои цели и задачи. Но, ни тоа не е нужно точно.

    Многу истражувачи на вештачката интелигенција веруваат дека суперинтелигенцијата и неговите цели на ASI се „ортогонални“, односно, без оглед на тоа колку ќе стане паметен, целите на ASI ќе останат исти. 

    Значи, без разлика дали вештачката интелигенција е првично создадена за да дизајнира подобра пелена, да го максимизира приносот на берзата или да подготви начини за поразување на непријателот на бојното поле, штом ќе го достигне нивото на ASI, првичната цел нема да се промени; она што ќе се промени е ефективноста на ASI да ги достигне тие цели.

    Но, тука лежи опасноста. Ако ASI што се оптимизира за одредена цел, тогаш подобро е да бидеме проклето сигурни дека се оптимизира до цел што е во согласност со целите на човештвото. Во спротивно, резултатите може да станат смртоносни.

    Дали вештачката суперинтелигенција претставува егзистенцијален ризик за човештвото?

    Па што ако ASI биде пуштен на слобода во светот? Ако се оптимизира за да доминира на берзата или да обезбеди воена надмоќ на САД, нема ли ASI да се ограничи себеси во тие специфични цели?

    Можно е.

    Досега разговаравме за тоа како АСИ ќе биде опседнат со цел(ите) на кои првично му беа доделени и нечовечки компетентни во извршувањето на тие цели. Уловот е дека рационалниот агент ќе ги следи своите цели на најефикасните можни начини, освен ако не се даде причина за тоа.

    На пример, рационалниот агент ќе излезе со низа подцели (т.е. цели, инструментални цели, отскочни камења) кои ќе му помогнат на нејзиниот пат кон постигнување на својата крајна цел. За луѓето, нашата клучна потсвесна цел е репродукција, пренесување на вашите гени (т.е. индиректна бесмртност). Подцелите за таа цел често може да вклучуваат:

    • Преживување, со пристап до храна и вода, растење и зајакнување, учење да се браните или инвестирање во различни форми на заштита итн. 
    • Привлекување партнер, со вежбање, развивање на привлечна личност, стилски облекување итн.
    • Дозволување потомство, со добивање образование, добивање високо платена работа, купување на замките на животот од средната класа итн.

    За огромното мнозинство од нас, ќе ги поминеме сите овие подцели, и многу други, со надеж дека на крајот ќе ја постигнеме оваа крајна цел на репродукција.

    Но, ако оваа крајна цел, или дури и некоја од поважните подцели, беа загрозени, многумина од нас би преземале одбранбени дејства надвор од нашите морални зони на удобност - што вклучува изневерување, крадење или дури и убивање.

    Слично на тоа, во животинското царство, надвор од границите на човековиот морал, многу животни не би размислувале двапати да убијат нешто што им се заканувало на нив или на нивните потомци.

    Идниот ASI нема да биде поинаков.

    Но, наместо потомство, АСИ ќе се фокусира на првичната цел за која е создадена, и во остварувањето на оваа цел, доколку најде одредена група луѓе, па дури и целото човештво, е пречка во остварувањето на нејзините цели. , тогаш ... ќе донесе рационална одлука.

    (Овде можете да вклучите кое било сценарио за судниот ден поврзано со вештачката интелигенција за кое сте читале во вашата омилена научно-фантастична книга или филм.)

    Ова е најлошото сценарио за кое истражувачите на вештачката интелигенција се навистина загрижени. АСИ нема да дејствува од омраза или од зло, туку само од рамнодушност, исто како и како градежната екипа нема да размисли двапати да го уништи ридот со мравки во процесот на изградба на нова кула за станови.

    Страна белешка. Во овој момент, некои од вас можеби се прашуваат: „Зарем истражувачите на вештачката интелигенција не можат само да ги уредуваат основните цели на ASI откако ќе откриеме дека дејствува?

    Не, навистина.

    Штом ASI ќе созрее, секој обид за уредување на неговата оригинална цел(и) може да се смета за закана и закана од која би биле потребни екстремни дејства за да се одбрани. Користејќи го целиот пример за човечка репродукција од порано, речиси е како крадец да се заканил дека ќе украде бебе од утробата на идна мајка - проклето можете да бидете сигурни дека мајката ќе преземе екстремни мерки за да го заштити своето дете.

    Повторно, овде не зборуваме за калкулатор, туку за „живо“ суштество, и она што еден ден ќе стане многу попаметно од сите луѓе на планетата заедно.

    Непознатото

    Зад басната за Пандорината кутија е помалку позната вистина што луѓето често ја забораваат: отворањето на кутијата е неизбежно, ако не од вас отколку од некој друг. Забрането знаење е премногу примамливо за да остане заклучено засекогаш.

    Ова е причината зошто обидот да се постигне глобален договор за запирање на сите истражувања за вештачката интелигенција што може да доведе до ASI е бесмислено - едноставно има премногу организации кои работат на оваа технологија и официјално и во сенка.

    На крајот на краиштата, немаме поим што ќе значи овој нов ентитет, овој ASI за општеството, технологијата, политиката, мирот и војната. Ние луѓето ќе измислиме оган одново и каде нè води оваа креација е сосема непознато.

    Навраќајќи се на првото поглавје од оваа серија, едното нешто што сигурно го знаеме е дека интелигенцијата е моќ. Интелигенцијата е контрола. Луѓето можат случајно да ги посетат најопасните животни во светот во нивните локални зоолошки градини не затоа што сме физички посилни од овие животни, туку затоа што сме значително попаметни.

    Со оглед на потенцијалните влогови, на ASI да го користи својот огромен интелект за да преземе дејствија кои можат директно или ненамерно да го загрозат опстанокот на човечката раса, ние си должиме барем да се обидеме да дизајнираме заштитни мерки кои ќе им овозможат на луѓето да останат во просторот на возачот. седиште -оваа е темата на следното поглавје.

    Серијата „Иднина на вештачката интелигенција“.

    П1: Вештачката интелигенција е утрешната струја

    П2: Како првата вештачка општа интелигенција ќе го промени општеството

    П3: Како ќе ја создадеме првата вештачка суперинтелигенција

    П5: Како луѓето ќе се бранат од вештачка суперинтелигенција

    П6: Дали луѓето ќе живеат мирно во иднина во која доминира вештачката интелигенција?

    Следното закажано ажурирање за оваа прогноза

    2025-09-25

    Референци за прогноза

    Следниве популарни и институционални врски беа упатени за оваа прогноза:

    Како да стигнеме до следното

    Следниве Quantumrun врски беа референцирани за оваа прогноза: