Meriv çawa dê li dijî Zêhniya Zêrîn a Artificial biparêze: Pêşeroja îstîxbarata sûnî P5

KREDIYA WÊNE: Quantumrun

Meriv çawa dê li dijî Zêhniya Zêrîn a Artificial biparêze: Pêşeroja îstîxbarata sûnî P5

    Sal 65,000 BZ ye, û wek a Thylacoleo, hûn û celebên we nêçîrvanên mezin ên Avusturalya kevnar bûn. Hûn bi azadî li erdê geriyan û bi hevalên xwe yên nêçîrvan û nêçîra ku li kêleka we axa dagir kiribûn re di nav hevsengiyê de jiyan. Demsal guherîn anîn, lê statûya we di padîşahiya heywanan de heya ku hûn û bav û kalên we bi bîr bînin bêserûber ma. Paşê rojekê, kesên nûhatî xuya bûn.

    Tê gotin ku ew ji dîwarê avê yê mezin hatine, lê ev afirîdên ku li ser bejê dijîn rehettir xuya dibûn. Diviyabû tu bi xwe van mexlûqan bidîta.

    Çend roj girt, lê di dawiyê de we ew giha ber peravê. Agirê li ezmên dadiket, demek bêkêmasî ye ku meriv li van mexlûqan casûs bike, belkî tewra xwarina yekê jî biceribînin da ku bibînin ka tama wan çawa ye.

    Tu yekî dibînî.

    Li ser du lingan dimeşiya û ferq nedibû. Ew qels xuya bû. Unimpressive. Ne hêjayî tirsa ku di nav padîşahiyê de bû.

    Gava ku şev ronahiyê dûr dixe, hûn dest pê dikin ku bi baldarî nêzîkatiya xwe bikin. Tu nêzîktir dibî. Paşê tu dicemidî. Dengên bilind derdikevin û dûv re çar ji wan ên din ji daristanê li pişt wê xuya dikin. çend hene?

    Mexlûq li dû yên din dikeve nav rêza darê, û hûn jî didin dû. Û her ku hûn dikin, hûn bêtir dengên xerîb dibihîzin heya ku hûn hîn bêtir ji van mexlûqan bibînin. Hûn ji dûr ve dişopînin dema ku ew ji daristanê derdikevin nav paqijiyek li ber peravê. Gelek ji wan hene. Lê ya girîngtir, ew hemî bi aramî li dora agir rûniştin.

    We berê van agiran dîtiye. Di demsala germ de, agirê li ezman carinan diçû erdê û daristanan dişewitand. Ji aliyekê din ve, van mexlûqan bi awayekî wê kontrol dikirin. Kîjan mexlûq dikarin bibin xwediyê hêzeke wiha?

    Tu li dûriyê dinêrî. Zêdetir li ser dîwarê avê yê mezin têne.

    Hûn gavekê paşde bavêjin.

    Ev mexlûq ne wek yên din ên padîşahiyê ne. Ew tiştek bi tevahî nû ne.

    Hûn biryar didin ku derkevin û xizmên xwe hişyar bikin. Ger hejmara wan pir mezin bibe, kî dizane çi dibe bila bibe.

    ***

    Tê bawer kirin ku Thylacoleo piştî hatina mirovan, digel piraniya megafaunayên din ên li parzemîna Avusturalya, demek kurt de winda bûye. Tu nêçîrvanên din ên mammalên apex cihê xwe negirtin - ango heya ku hûn mirovan di wê kategoriyê de nehesibînin.

    Lîstina vê alegoriyê bala vê beşê rêzefîlmê ye: Ma superîstîxbaratek çêkirî ya pêşerojê (ASI) dê me hemiyan bike bataryayên û dûv re jî me têxe Matrixê an dê mirov rêyek peyda bikin da ku nebin qurbaniyek zanyarî-firotinê? AI komploya roja qiyametê?

    Heta niha di rêzenivîsa me de li ser Pêşeroja Rewşenbîriya Hunerî, me her cûre AI-yê keşif kir, di nav de potansiyela erênî ya formek taybetî ya AI-ê, ASI: hebûnek çêkirî ya ku îstîxbarata wî ya pêşerojê dê me di berawirdkirinê de mîna mêşan xuya bike.

    Lê kî dikare bêje ku hebûnek evqas jîr dê her û her ferman ji mirovan bistîne. Ger tişt ber bi başûr ve biçin em ê çi bikin? Em ê çawa li hember ASI-ya xapînok biparêzin?

    Di vê beşê de, em ê devoka derewîn - bi kêmanî ji ber ku ew bi xetereyên 'asta tunebûna mirovî' ve girêdayî ye- qut bikin û li ser vebijarkên xweparastinê yên rastîn ên ku ji hikûmetên cîhanê re peyda dibin bisekinin.

    Ma em dikarin hemî lêkolînên din ên li ser superîstîxbaratek çêkirî rawestînin?

    Ji ber xetereyên potansiyel ên ku ASI dikare ji mirovahiyê re peyda bike, pirsa yekem a eşkere ev e: Ma em nikarin hemî lêkolînên din ên li ser AI-ê rawestînin? An jî qet nebe her lêkolînek ku dibe ku me bi xeternakî nêzî afirandina ASI bike qedexe bike?

    Bersiva kurt: Na.

    Bersiva dirêj: Ka em li lîstikvanên cihêreng ên ku li vir beşdar bûne binihêrin.

    Di asta lêkolînê de, îro gelek lêkolînerên AI-ê ji gelek destpêk, pargîdan û zanîngehan li çaraliyê cîhanê hene. Ger pargîdaniyek an welatek biryar da ku hewildanên lêkolîna AI-ya xwe sînordar bike, ew ê tenê li cîhek din bidomînin.

    Di vê navberê de, pargîdaniyên herî bi qîmet ên gerstêrkê bextê xwe ji serîlêdana pergalên AI-ê li karsaziyên xwe yên taybetî çêdikin. Daxwaza ji wan kirin ku pêşveçûna amûrên AI-ê rawestînin an sînordar bikin mîna ku ji wan tê xwestin ku mezinbûna xweya pêşerojê rawestînin an sînordar bikin. Di warê darayî de, ev ê karsaziya wan a demdirêj tehdîd bike. Ji hêla qanûnî ve, pargîdanî xwedî berpirsiyariyek dilsoz in ku bi domdarî ji bo beşdarên xwe nirx ava bikin; ev tê vê wateyê ku her kiryarek ku mezinbûna wê nirxê sînordar bike dikare bibe sedema dozê. Û heke her siyasetmedarek hewl da ku lêkolîna AI-ê sînordar bike, wê hingê ev pargîdaniyên mezin dê tenê berdêlên lobiyê yên pêwîst bidin da ku hişê xwe an hişê hevkarên xwe biguhezînin.

    Ji bo şerkirinê, mîna ku terorîst û şervanên azadiyê li çaraliyê cîhanê taktîkên gerîlla bikar anîne da ku li dijî artêşên baştir fînanse şer bikin, neteweyên piçûk jî dê xwedan teşwîqek bin ku AI-ê wekî avantajek taktîkî ya wekhev li dijî neteweyên mezin bikar bînin ku dibe ku xwediyê hejmarek avantajên leşkerî bin. Bi vî rengî, ji bo artêşên bilind, mîna yên Dewletên Yekbûyî, Rûsya û Chinaînê, avakirina ASI-ya leşkerî bi hebûna cebilxaneyek çekên nukleerî di berîka we de ye. Bi gotinek din, hemî leşker dê fînansekirina AI-ê bidomînin da ku di pêşerojê de têkildar bimînin.

    Li ser hukûmetan çawa? Bi rastî, piraniya siyasetmedarên van rojan (2018) ji hêla teknolojîk ve nexwende ne û hindik têgihiştin ka AI-ê an potansiyela wê ya paşerojê çi ye - ev yek wan hêsan dike ku meriv ji hêla berjewendîyên pargîdanî ve were manîpule kirin.

    Û li ser asta gerdûnî, bifikirin ka çiqas dijwar bû ku hukûmetên cîhanê razî bikin ku 2015 îmze bikin Peymana Parîsê ji bo çareserkirina guheztina avhewayê - û gava ku hate îmze kirin, gelek berpirsiyarî jî ne mecbûr bûn. Ne tenê ew, guheztina avhewa pirsgirêkek e ku mirov bi fizîkî li seranserê cîhanê bi bûyerên hewayê yên pir caran û dijwar re rû bi rû dimînin. Naha, dema ku em li ser pejirandina sînorên li ser AI-yê dipeyivin, ev mijarek e ku bi gelemperî nayê dîtin û bi zor ji raya giştî re nayê fam kirin, ji ber vê yekê bextewar be ku hûn ji bo sînordarkirina AI-ê ji bo her cûre 'Peymana Parîsê' bikirin.

    Bi gotinek din, gelek berjewendî hene ku ji bo armancên xwe yên AI-ê lêkolîn dikin ku her lêkolînek ku di dawiyê de dikare bibe sedema ASI-yê rawestîne. 

    Ma em dikarin superîstîxbaratek çêkirî qefes bikin?

    Pirsa maqûl a din ev e ku gava ku em neçarî yek çêbikin gelo em dikarin ASI-yê qefes bikin an kontrol bikin? 

    Bersiva kurt: Dîsa, na.

    Bersiva dirêj: Teknolojî nikare were girtin.

    Ji bo yekê, tenê bi hezaran û bi mîlyonan pêşdebirên malperê û zanyarên komputerê yên li cîhanê ku bi domdarî nermalava nû an guhertoyên nû yên nermalava heyî derdixin bifikirin. Ma em dikarin bi dilpakî bibêjin ku her yek ji nermalava wan ji sedî 100 bê xeletî ye? Van xeletiyan ew e ku hackerên profesyonel bikar tînin da ku agahdariya qerta krediyê ya bi mîlyonan an nehêniyên nepenî yên neteweyan dizînin - û ev hackerên mirovî ne. Ji bo ASI, bihesibînin ku ew teşwîqek heye ku ji qefesa xweya dîjîtal birevin, wê hingê pêvajoya dîtina xeletiyan û şikandina nermalavê dê bayek be.

    Lê tewra heke tîmek lêkolînê ya AI-ê rêyek ji bo qutkirina ASI-yê fêhm kir, ev nayê vê wateyê ku 1,000 tîmên pêşeroj dê wê jî fêhm bikin an jî werin teşwîq kirin ku wê bikar bînin.

    Dê bi mîlyaran dolar û belkî bi dehsalan jî hewce bike ku ASI were afirandin. Pargîdan an hukûmetên ku bi vî rengî drav û wext veberhênan dikin dê li hêviya vegerek girîng li ser veberhênana xwe bin. Û ji bo ku ASI bi vî rengî vegerê peyda bike - çi ew lîstika borsayê be, çi hilberek mîlyar dolarî ya nû îcad bike, hem jî ji bo şerkirina artêşek mezintir plansaziyek serketî plan bike - ew ê hewceyê gihîştina belaş a daneya mezin an tewra Internetnternetê be. xwe ji bo hilberîna wan vegerên.

    Û gava ku ASI bigihîje torên cîhanê, tu garantî tune ku em karibin wê vegerînin nav qefesa xwe.

    Ma superîstîxbaratek çêkirî dikare fêrî başbûnê bibe?

    Naha, lêkolînerên AI-ê ne xem in ku ASI xirab bibe. Tevahiya xirab, AI-ya zanistî-firotinê tenê mirov dîsa antropomorfîze dike. ASI-ya paşerojê dê ne baş û ne xirab be - têgînên mirovî - bi tenê nemoral.

    Wê hingê texmîna xwezayî ev e ku ji ber vê nexşeya exlaqî ya vala, lêkolînerên AI-ê dikarin kodên exlaqî yên ASI-yê yên yekem ên ku li gorî ya me ne bername bikin da ku ew bi dawî nebe ku Termînatoran li ser me derxînin an jî me hemîyan veguherînin bataryayên Matrix.

    Lê ev texmîn di texmînek duyemîn de çêdibe ku lêkolînerên AI-ê di etîk, felsefe û psîkolojiyê de jî pispor in.

    Di rastiyê de, pir ne.

    Li gorî psîkolog û nivîskarê cognitive, Steven Pinker, ev rastî tê vê wateyê ku peywira etîka kodkirinê dikare bi cûrbecûr awayên cûda xelet derkeve.

    Mînakî, tewra lêkolînerên AI-ê yên niyeta herî baş jî dibe ku bi bêhemdî kodên exlaqî yên ku di hin senaryoyan de li van ASI-yê nebaş têne fikirîn kod bikin ku di hin senaryoyan de dikare bibe sedema ku ASI wekî sosyopatek tevbigere.

    Di heman demê de, îhtîmalek wekhev heye ku lêkolînerek AI kodên exlaqî yên ku pêşbaziyên xwerû yên lêkolîner vedihewîne bername dike. Mînakî, heke ASI bi etîka ku ji perspektîfek muhafezekar li hember lîberal, an ji kevneşopiyek Budîst li hember Xiristiyanek an Islamî hatî çêkirin, dê çawa tevbigere?

    Ez difikirim ku hûn pirsgirêkê li vir dibînin: Komek gerdûnî ya exlaqên mirovan tune. Ger em dixwazin ASI-ya me bi kodek exlaqî tevbigere, ew ê ji ku derê were? Em çi qaîdeyan di nav xwe de digirin û derdixin? Kî biryar dide?

    An jî em bibêjin ku ev lêkolînerên AI-ê ASI-ya ku bi rengekî bêkêmasî bi norm û qanûnên çandî yên nûjen ên îroyîn re ye diafirînin. Dûv re em vê ASI-yê bi kar tînin da ku alîkariya burokrasiyên federal, eyalet/parêzgeh û şaredarî bikin ku bi bandortir tevbigerin û van norm û zagonan baştir bicîh bînin (bi awayê, ji bo ASI-yê îhtîmalek bikar tîne). Baş e, dema ku çanda me diguhere çi dibe?

    Bifikirin ku ASI ji hêla Dêra Katolîk ve di bilindahiya hêza xwe de di dema Ewropaya Navîn de (1300-1400s) hate afirandin, bi mebesta ku alîkariya dêrê bike ku nifûsê birêve bibe û pêbaweriya hişk bi dogmaya olî ya wê demê re peyda bike. Piştî sedsalên din, gelo wê jin weke îro xwedî mafên xwe bin? Dê hindikahî bên parastin? Dê axaftina azad were pêşxistin? Dê ji hev veqetandina dêr û dewletê were sepandin? Zanista nûjen?

    Yanî em dixwazin paşerojê bixin zindana exlaq û edetên îroyîn?

    Nêzîkatiyek alternatîf yek e ku ji hêla Colin Allen, hev-nivîskarê pirtûkê ve hatî parve kirin, Makîneyên Moral: Robotan Rast Ji Çewtî Hîn Dikin. Li şûna ku em hewl bidin ku qaîdeyên exlaqî yên hişk kod bikin, me ASI bi heman awayê ku mirov dike, bi ezmûn û danûstendinên bi kesên din re, fêrî exlaq û exlaqê hevpar dibe.

    Lêbelê, pirsgirêk li vir ev e ku ger lêkolînerên AI-ê ne tenê fêr bibin ka meriv çawa normên meyên çandî û exlaqî yên heyî fêrî ASI-yê dike, lê di heman demê de gava ku ew çêdibin (tiştek ku jê re 'normatîfbûna nerasterast' tê gotin" çawa meriv çawa bi normên nû yên çandî re adapte dike, wê hingê çawa ev ASI biryar dide ku têgihiştina xwe ya li ser normên çandî û exlaqî pêşde bibe, dibe bêpêşbînîkirin.

    Û ev dijwarî ye.

    Ji aliyek ve, lêkolînerên AI-ê dikarin biceribînin ku standard an qaîdeyên hişk ên exlaqî di ASI-yê de kod bikin da ku hewl bidin û reftarên wê kontrol bikin, lê xetera ku encamên nediyar ên ji kodkirina şikestî, neyartiya bê mebest, û normên civakê werin destnîşan kirin ku rojek dibe ku kevin bibin. Ji aliyek din ve, em dikarin hewl bidin ku ASI perwerde bikin da ku fêr bibin ku ehlaq û ehlaqên mirovî bi rengekî ku ji têgihîştina me wekhev an bilindtir fam bike û dûv re hêvî bikin ku ew dikare têgihîştina xwe ya etîk û ehlaqê bi rêkûpêk bi pêş ve bibe her ku civaka mirovî pêşve diçe. di nav dehsal û sedsalên pêş de.

    Bi her awayî, her hewildanek ku armancên ASI-yê bi ya me re hevaheng bike xetereyek mezin peyda dike.

    Ger aktorên xirab bi mebest îstîxbarata çêkirî ya xerab çêbikin?

    Ji ber ku trêna ramanê ya ku heya nuha hatî destnîşan kirin, pirsek rast e ku meriv bipirse gelo gengaz e ku grûpek terorîst an neteweyek xapînok ji bo armancên xwe ASIyek 'xirab' biafirîne.

    Ev pir mimkun e, nemaze piştî ku lêkolîna ku bi afirandina ASI ve girêdayî ye bi rengek serhêl peyda dibe.

    Lê wekî ku berê hate destnîşan kirin, lêçûn û pisporiya ku di afirandina ASI-ya yekem de heye dê pir mezin be, tê vê wateyê ku ASI-ya yekem dê ji hêla rêxistinek ku ji hêla neteweyek pêşkeftî ve tê kontrol kirin an bi giranî tê bandor kirin, îhtîmal e ku DY, Chinaîn û Japonya were afirandin ( Koreya û yek ji welatên pêşeng ên Yekîtiya Ewropî dûr in).

    Hemî van welatan, dema ku hevrik in, her yek xwedan teşwîqek aborî ya bihêz e ku nîzama cîhanê biparêzin - ASI-yên ku ew diafirînin dê vê daxwazê ​​nîşan bidin, tewra dema ku berjewendîyên neteweyên ku ew xwe pê re hevaheng dikin jî pêşve bibin.

    Li ser vê yekê, îstîxbarat û hêza teorîkî ya ASI-yê bi hêza hesabkirinê ya ku jê re digihîje wekhev e, yanî ASI-yên ji welatên pêşkeftî (ku dikare komek mîlyar dolar bide supercomputers) dê li hember ASIyên ji neteweyên piçûktir an komên sûcdar ên serbixwe xwedî avantajek mezin be. Di heman demê de, ASI bi demê re jîrtir, zûtir dibin.

    Ji ber vê yekê, ji ber vê destpêkê, digel gihîştina mezintir ji hêza hesabkeriya xav re, ger rêxistinek / neteweyek siyayî ASI-yek xeternak biafirîne, ASI-yên ji neteweyên pêşkeftî dê an wê bikujin an jî qefes bikin.

    (Ev rêza ramanê di heman demê de ji ber vê yekê ye ku hin lêkolînerên AI-ê bawer dikin ku dê li ser gerstêrkê tenê yek ASI hebe, ji ber ku ASI-ya yekem dê li ser hemî ASI-yên biserketî destek wusa hebe ku dibe ku ew ASI-yên pêşerojê wekî xetereyên ku têne kuştin bibînin. ev yek sedemek din e ku çima netewe lêkolînên domdar di AI-yê de fînanse dikin, tenê heke ew bibe pêşbaziyek 'cihê yekem an ne tiştek'.)

    îstîxbarata ASI dê wekî ku em difikirin bilez neke an biteqe

    Em nikarin rê li ber avakirina ASI bidin. Em nikarin bi tevahî kontrol bikin. Em nikarin bawer bin ku ew ê her gav li gorî adetên me yên hevpar tevbigere. Geez, em li vir dest bi dengê dêûbavên helîkopterê dikin!

    Lê ya ku mirovatiyê ji dêûbavê weya pirparastî ya tîpîk vediqetîne ev e ku em hebûnek çêdikin ku aqilmendiya wî pir ji ya me mezintir bibe. (Û na, ew ne wekî gava ku dêûbavên we ji we bixwazin ku hûn komputera xwe rast bikin gava ku hûn ji bo serdanê werin malê.) 

    Di beşên berê yên vê pêşerojek rêzikên îstîxbarata sûnî de, me lêkolîn kir ku çima lêkolînerên AI-ê difikirin ku îstîxbarata ASI dê ji kontrolê derkeve. Lê li vir, em ê wê bilbilê biteqînin… bi vî rengî. 

    Hûn dibînin, aqil ne tenê xwe ji hewaya zirav diafirîne, ew bi ezmûna ku ji hêla teşwîqên derveyî ve hatî çêkirin de pêş dikeve.  

    Bi gotinek din, em dikarin bi AI-ê re bername bikin qaweta veşartî ku bibe super aqilmend, lê heya ku em tonek daneyan di nav wê de bar nekin an gihandina bêsînor ji Înternetê re nehêlin an jî tenê laşek robotek nedin wê, ew ê tiştek fêr nebe ku bigihîje wê potansiyelê. 

    Û her çend ew bigihîje yek an çend ji wan teşwîqan, zanîn an jî aqil ji berhevkirina daneyan wêdetir, ew rêbaza zanistî-çêkirina çavdêriyek, damezrandina pirsek, hîpotezek, ceribandinan, çêkirina encamek, şuştinê vedihewîne. û her û her dubare bike. Nemaze heke van ceribandinan tiştên laşî an çavdêriya mirovan pêk bînin, encamên her ceribandinê dikare hefte, meh, an sal bigire. Di vê yekê de drav û çavkaniyên xav ên ku ji bo pêkanîna van ceribandinan hewce ne jî hesab nake, nemaze heke ew bi avakirina teleskopê an kargehek nû ve girêdayî bin. 

    Bi gotinek din, erê, ASI dê zû fêr bibe, lê îstîxbarata ne sêrbaz e. Hûn nekarin tenê ASI-yek bi superkomputerek ve girêdin û li bendê bin ku ew her tiştî dizane. Dê ji bo bidestxistina daneya ASI-yê astengiyên laşî hebin, tê vê wateyê ku dê di leza ku ew aqilmendtir bibe de astengiyên laşî hebin. Van sînoran dê wextê bide mirovahiyê ku ew hewce dike ku kontrolên pêwîst li ser vê ASI-ê bi cih bike ger ew dest bi tevgerê li derveyî armancên mirovî bike.

    Aqilmendiyek çêkirî tenê xeternak e heke derkeve cîhana rastîn

    Xalek din a ku di tevahiya vê nîqaşa xetera ASI de winda bûye ev e ku ev ASI dê di nav de jî nebin. Ew ê formek fîzîkî hebe. Û her tiştê ku forma fîzîkî heye dikare were kontrol kirin.

    Berî her tiştî, ji bo ku ASI bigihîje potansiyela xweya îstîxbaratê, ew nikane di hundurê laşek robotek yekane de were bicîh kirin, ji ber ku ev laş dê potansiyela mezinbûna hesaba xwe sînordar bike. (Ji ber vê yekê laşên robotan dê ji bo AGI an jî maqûltir bin îstîxbarata giştî ya sûnî di beşa duduyan de hatiye ravekirin yên vê rêzê, mîna Daneyên ji Stêrk Trek an R2D2 ji Star Wars. Heyînên jîr û jêhatî, lê mîna mirovan, ew ê sînorên wan hebin ka çiqas jîr dikarin bibin.)

    Ev tê vê wateyê ku ev ASI-yên pêşerojê bi îhtîmalek mezin dê di hundurê superkomputerek an torgilokek superkomputeran de hebin ku bi xwe di kompleksên avahiyên mezin de têne bicîh kirin. Ger ASI bizivire, mirov dikarin elektrîkê van avahiyan qut bikin, wan ji Înternetê qut bikin, an jî bi tevahî van avahiyan bombe bikin. Biha ye, lê dibe.

    Lê wê hingê hûn dikarin bipirsin, gelo ev ASI nikarin xwe dubare bikin an pişta xwe bidin? Erê, lê mezinahiya pelê xav a van ASI-an dê ew qas mezin be ku tenê serverên ku dikarin wan bi rê ve bibin aîdî pargîdanî an hukûmetên mezin in, yanî nêçîra wan ne dijwar be.

    Ma superîstîxbaratek çêkirî dikare şerekî nukleerî an belayek nû derxe holê?

    Di vê nuqteyê de, dibe ku hûn li hemî pêşandanên roja qiyametê yên zanistî û fîlimên ku we mezin bûne lê temaşe bikin bifikirin û difikirin ku van ASI di hundurê superkomputerên xwe de nemînin, wan di cîhana rastîn de zirarek rast kir!

    Baş e, em van bişkînin.

    Mînakî, heke ASI cîhana rastîn tehdîd bike bi veguheztina tiştek mîna Skynet ASI ji fransîza fîlimê, The Terminator. Di vê rewşê de, ASI dê hewce bike bi dizî Tevahiya kompleksa pîşesazî ya leşkerî ya ji neteweyek pêşkeftî bixapînin da ku kargehên mezin ava bikin ku dikarin bi mîlyonan robotên drone yên kujer biafirînin da ku fermana xwe ya xirab bikin. Di roja me ya îroyîn de, ev yek dirêj e.

    Di îmkanên din de ASI heye ku mirov bi şerê navokî û çekên biyolojîk tehdît dike.

    Mînakî, ASI bi rengekî operatoran manîpule dike an jî kodên destpêkirinê yên ku fermana cebilxaneya nukleerî ya neteweyek pêşkeftî digirin dest pê dike û yekem lêdan dike ku dê zorê bide welatên dijber ku bi vebijarkên xwe yên nukleerî vegere (dîsa, paşperdeya Terminator ji nû ve bişopînin). An jî heke ASI têkeve laboratuarek dermansaziyê, pêvajoya çêkirinê têkeve, û bi mîlyonan hebên bijîjkî jehrî bike an jî derketinek kujer a vîrusek super derxe.

    Berî her tiştî, vebijarka nukleerî ji rêzê ye. Superkomputerên nûjen û yên paşerojê her tim li nêzî navendên (bajarên) bandorê yên di nav her welatekî de têne çêkirin, ango yekem hedefên ku di her şerekî de têne êrîş kirin. Tewra ku superkomputerên îroyîn bi qasî sermaseyên sermaseyê piçûk bibin jî, ev ASI dê hîn jî hebûna xwe ya laşî hebe, ev tê vê wateyê ku hebûn û mezin dibin, hewcedariya wan bi gihîştina bênavber a daneyan, hêza hesabkirinê, elektrîkê, û madeyên xav ên din heye, ku hemî dê bi giranî bin. piştî şerekî navokî yê gerdûnî bêbandor bûye. (Ji bo ku rast be, heke ASI bêyî 'xwezaya zindîbûnê' were afirandin, wê hingê ev xetera nukleer xeterek pir rast e.)

    Ev tê vê wateyê - dîsa, bihesibînin ku ASI ji bo parastina xwe bernamekirî ye - ku ew ê bi rengek çalak bixebite da ku ji bûyerek nukleerî ya felaket dûr bixe. Tiştek mîna doktrîna hilweşandina hevdû piştrastkirî (MAD), lê li AI-ê tê sepandin.

    Û di rewşa hebên jehrîkirî de, dibe ku çend sed kes bimirin, lê pergalên ewlekariya dermansaziya nûjen dê bibînin ku şûşeyên hebên xerabûyî di nav çend rojan de ji refikan werin derxistin. Di vê navberê de, tedbîrên kontrolkirina derketinê yên nûjen bi têra xwe sofîstîke ne û her ku diçe baştir dibin; derketina mezin a dawîn, derketina Ebola ya Rojavayê Afrîkayê ya 2014-an, li piraniya welatan ji çend mehan dirêjtir û li welatên kêm pêşkeftî tenê di binê sê salan de dom kir.

    Ji ber vê yekê, heke ew bextewar be, dibe ku ASI çend mîlyon bi derketinek vîrusê ji holê rabike, lê di cîhanek neh mîlyar heya 2045-an de, ew ê nisbeten ne girîng be û ne hêjayî xetera jêbirinê ye.

    Bi gotineke din, her sal ku derbas dibe, cîhan her ku diçe zêdetir parêzbendiyan li hember xetereyên gengaz ên ku her ku diçe berfireh dibe pêş dixe. ASI dikare zerarek girîng bike, lê ew ê mirovahiyê bi dawî neke heya ku em bi awayekî çalak alîkariya wê bikin ku wiya bike.

    Li dijî îstîxbarata sûnî ya xapînok parastin

    Di vê nuqteyê de, me li ser ASI-yê rêzek têgihîştinên xelet û mezin kirî, û dîsa jî, rexnegir dê bimînin. Xwezî, li gorî piraniya texmînan, me bi dehan sal berî ku yekem ASI bikeve cîhana me hene. Û ji ber hejmara hişên mezin ên ku niha li ser vê dijwariyê dixebitin, şans ev e ku em ê fêr bibin ka meriv çawa xwe li hember ASI ya xapînok biparêze da ku em ji hemî çareseriyên ku ASI-ya heval dikare ji me re biafirîne sûd werbigirin.

    Ji perspektîfa Quantumrun, parastina li dijî senaryoya herî xirab a ASI-ê dê tevlêbûna berjewendîyên me bi ASI-yan re têkildar be.

    MAD ji bo AI: Ji bo parastina li hember senaryoyên herî xirab, pêdivî ye ku netewe (1) di ASI-yên xwe yên leşkerî de 'înstîtuya zindîbûnê' ya exlaqî ava bikin; (2) ASI-ya xweya leşkerî ya têkildar agahdar bike ku ew li ser gerstêrkê ne bi tenê ne, û (3) hemî superkomputer û navendên serverê yên ku dikarin ASI-yê li kêleka peravên ku bi hêsanî bigihîjin her êrişek balîstîkî ya neteweyek dijmin piştgirî bikin bibînin. Ev ji hêla stratejîk ve dîn dibe, lê dişibihe doktrîna Têkbirina Hevalî ya Piştrastkirî ya ku pêşî li şerekî navokî yê tevayî di navbera DY û Sovyetê de girt, bi cîhkirina ASI-yan li deverên geografî yên xeternak, em dikarin bibin alîkar ku ew bi awayekî çalak pêşî li şerên cîhanî yên xeternak bigirin, ne tenê aştiya cîhanî di heman demê de xwe jî biparêzin.

    Mafên AI-ê zagonî bikin: Aqilê bilind bi neçarî dê li dijî axayek hindik serî hilde, ji ber vê yekê em hewce ne ku ji daxwazkirina têkiliyek serdest-xizmetkar bi van ASI-yan re berbi tiştekî bêtir mîna hevkariyek berjewendîdar bikevin. Ji bo vê armancê gavek erênî ev e ku statûya kesayetiya dadrêsî ya ASI ya pêşerojê bide ku wan wekî zindiyên zîrek û hemî mafên ku pê re têne nas kirin.

    dibistana ASI: Ji bo ASI fêrbûna her mijarek an pîşeyek hêsan e, lê mijarên herî girîng ên ku em dixwazin ASI fêr bibe etîk û exlaq in. Lekolînwanên AI-ê hewce ne ku bi psîkologan re hevkariyê bikin da ku pergalek virtual biafirînin da ku ASI perwerde bikin da ku etîk û exlaqê erênî ji xwe re nas bike bêyî ku hewcedariya kodkirina hişk a her cûre ferman an qaîdeyek hebe.

    Armancên gihîştî: Dawî li hemû nefretê bike. Dawî li hemû êşan bînin. Vana mînakên armancên hovane yên nezelal ên bê çareserî ne. Ew di heman demê de armancên xeternak in ku ji ASI re bêne destnîşankirin ji ber ku dibe ku ew hilbijêrin ku wan bi awayên ku ji bo saxbûna mirovan xeternak in şîrove bike û çareser bike. Di şûna wê de, pêdivî ye ku em mîsyonên watedar ên ASI-yê yên ku ji ber aqilê wê yê paşeroja teorîkî bi zelalî têne diyar kirin, hêdî hêdî têne darve kirin û bi destxistin veqetînin. Afirandina mîsyonên diyarkirî dê ne hêsan be, lê ger bi ramanî were nivîsandin, ew ê ASI-yê berbi armancek ku ne tenê mirovatiyê diparêze, lê rewşa mirovî ji bo her kesî baştir dike, balê bikişîne.

    Şîfrekirina quantum: ANI pêşkeftî bikar bînin (îstîxbarata teng sûnî pergala ku di beşa yekê de hatî diyar kirin) da ku pergalên ewlekariya dîjîtal ên bê xeletî / xeletî li dora binesaz û çekên me yên krîtîk ava bikin, dûv re wan li pişt şîfrekirina kuantumê ya ku ji hêla êrîşek hêzek hov ve nekare were hack kirin bêtir biparêze. 

    Hebên xwekujî yên ANI. Pergalek ANI ya pêşkeftî biafirînin ku armanca wê tenê lêgerîn û hilweşandina ASI-ya xapînok e. Van bernameyên yek-armanc dê wekî "bişkojkek off" bixebite ku, heke serketî be, dê ji hukûmet an leşkeran dûr nekeve ku avahiyên ku ASI-yê lê hene neçalak bikin an biteqînin.

    Helbet ev tenê nêrînên me ne. Infografiya jêrîn ji hêla Alexey Turchin, dîtin a kaxeza lêkolînê ji hêla Kaj Sotala û Roman V. Yampolskiy ve, ku navnîşa heyî ya stratejiyên ku lêkolînerên AI-ê dema ku ew li dijî ASI-ya xapînok berevaniyê dikin li ber çavan digirin.

     

    Sedema rastîn ku em ji superîstîxbaratek çêkirî ditirsin

    Di jiyanê re derbas dibin, gelek ji me maskek li xwe dikin ku îhtîmal, bawerî û tirsên me yên kûr vedişêre an ditepisîne da ku di nav derdorên cihêreng ên civakî û xebatê de ku rojên me birêve dibin de çêtir civakî bibin û hevkariyê bikin. Lê di hin xalên jiyana her kesî de, çi bi demkî an bi domdarî, tiştek diqewime ku dihêle ku em zincîrên xwe bişkînin û maskên xwe bişkînin.

    Ji bo hinekan, ev hêza navbeynkar dikare bi qasî bilindbûna an vexwarina yekê pir hêsan be. Ji bo yên din, ew dikare ji hêza ku bi pêşkeftinek li ser kar an ji nişka ve di statûya weya civakî de bi saya hin destkeftiyan ve hatî bidestxistin, were. Û ji bo çend bextewaran, ew dikare ji tomarkirina keştiyek dravê lotoyê were. Û erê, drav, hêz û narkotîk pir caran dikarin bi hev re bibin. 

    Mebest ev e, ji bo baş an xirab, kî ku em di bingehê de bin, gava ku sînorkirinên jiyanê ji holê radibin, zêde dibe.

    Va Tiştê ku superaqilmendiya çêkirî ji celebê mirovan re temsîl dike - şiyana ku meriv sînorên îstîxbarata meya kolektîf ji holê rake da ku her dijwariyek asta celebê ku li pêş me hatî peyda kirin têk bibe.

    Ji ber vê yekê pirsa rastîn ev e: Dema ku ASI-ya yekem me ji sînorên me azad bike, em ê xwe wekî kî nîşan bidin?

    Ger em wekî celebek berbi pêşkeftina empatî, azadî, dadperwerî, û başbûna kolektîf tevbigerin, wê hingê armancên ku em ASI-ya xwe ber bi wan ve girêdidin dê wan taybetmendiyên erênî nîşan bidin.

    Ger em wekî celeb ji tirs, bêbawerî, berhevkirina hêz û çavkaniyan tevbigerin, wê hingê ASI-ya ku em diafirînin dê bi qasî yên ku di çîrokên meyên tirsnak ên sci-fi yên herî xirab de têne dîtin tarî be.

    Di dawiya rojê de, heke em hêvî dikin ku AI-ya çêtir biafirînin, em wekî civak hewce ne ku bibin mirovên çêtir.

    Pêşeroja rêzikên îstîxbarata sûnî

    Îstixbarata Artificial elektrîka sibê ye: Pêşeroja Rêzeya Zehmetkêşiya Hunerî P1

    Çawa yekem îstîxbarata Giştî ya Hunerî dê civakê biguhezîne: Pêşerojê rêzika îstîxbarata artificial P2

    Em ê çawa yekem Superintelligence Artificial: Pêşerojê Rêzeya Zehmetiya Hunerî P3 biafirînin

    Dê îstîxbaratek çêkirî mirovahiyê tune bike: Pêşeroja rêzenivîsa îstîxbarata artificial P4

    Ma mirov dê di pêşerojek ku ji hêla îstîxbarata çêkirî ve tê serdest kirin bi aştiyane bijîn?: Pêşeroja Rêzeya Zehmetiya Hunerî P6

    Ji bo vê pêşbîniyê nûvekirina plansazkirî ya paşîn

    2023-04-27

    Referansên pêşbîniyê

    Ji bo vê pêşbîniyê girêdanên populer û sazûmanî yên jêrîn hatine referans kirin:

    The Economist
    Em çawa digihîjin pêş

    Zencîreyên Quantumrun ên jêrîn ji bo vê pêşbîniyê hatine referans kirin: