Sut y bydd bodau dynol yn amddiffyn yn erbyn Goruchwyliaeth Artiffisial: Dyfodol deallusrwydd artiffisial P5

CREDYD DELWEDD: Cwantwmrun

Sut y bydd bodau dynol yn amddiffyn yn erbyn Goruchwyliaeth Artiffisial: Dyfodol deallusrwydd artiffisial P5

    Y flwyddyn yw 65,000 BCE, ac fel a Thylacoleo, chi a'ch caredig oedd helwyr mawr Awstralia hynafol. Roeddech chi'n crwydro'r wlad yn rhydd ac yn byw mewn cydbwysedd gyda'r ysglyfaethwyr a'r ysglyfaethwyr eraill a oedd yn meddiannu'r wlad ochr yn ochr â chi. Daeth y tymhorau â newid, ond arhosodd eich statws yn y deyrnas anifeiliaid heb ei herio cyhyd ag y gallech chi a'ch hynafiaid gofio. Yna un diwrnod, ymddangosodd newydd-ddyfodiaid.

    Yn ôl y sôn, cyrhaeddodd y wal ddŵr enfawr, ond roedd y creaduriaid hyn yn ymddangos yn fwy cyfforddus yn byw ar y tir. Roedd yn rhaid i chi weld y creaduriaid hyn drosoch eich hun.

    Cymerodd ychydig ddyddiau, ond o'r diwedd fe wnaethoch chi gyrraedd yr arfordir. Roedd y tân yn yr awyr yn cynnau, amser perffaith i sbïo ar y creaduriaid hyn, efallai hyd yn oed ceisio bwyta un i weld sut roedden nhw'n blasu.

    Rydych chi'n gweld un.

    Cerddodd ar ddwy goes ac nid oedd ganddo ffwr. Roedd yn edrych yn wan. Unimpressive. Prin werth yr ofn yr oedd yn ei achosi ymhlith y deyrnas.

    Rydych chi'n dechrau dod yn ofalus wrth i'r nos fynd ar ôl y golau. Rydych chi'n dod yn nes. Yna byddwch yn rhewi. Mae synau uchel yn canu ac yna mae pedwar arall ohonyn nhw'n ymddangos allan o'r goedwig y tu ôl iddo. Faint sydd yna?

    Mae'r creadur yn dilyn y lleill i'r llinell goed, ac rydych chi'n dilyn. A pho fwyaf y byddwch chi'n ei wneud, y synau mwyaf rhyfedd rydych chi'n eu clywed nes i chi weld hyd yn oed mwy o'r creaduriaid hyn. Rydych chi'n dilyn o bell wrth iddyn nhw adael y goedwig i llannerch wrth y lan. Mae yna lawer ohonyn nhw. Ond yn bwysicach fyth, maen nhw i gyd yn eistedd yn dawel o amgylch tân.

    Rydych chi wedi gweld y tanau hyn o'r blaen. Yn y tymor poeth, byddai'r tân yn yr awyr weithiau'n ymweld â'r tir ac yn llosgi coedwigoedd cyfan. Ar y llaw arall, roedd y creaduriaid hyn yn ei reoli rywsut. Pa fath greaduriaid all feddu y fath allu ?

    Rydych chi'n edrych i mewn i'r pellter. Mae mwy yn dod dros y wal ddŵr enfawr.

    Rydych chi'n cymryd cam yn ôl.

    Nid yw'r creaduriaid hyn yn debyg i'r lleill yn y deyrnas. Maent yn rhywbeth hollol newydd.

    Rydych chi'n penderfynu gadael a rhybuddio'ch perthynas. Os bydd eu niferoedd yn tyfu'n rhy fawr, pwy a wyr beth allai ddigwydd.

    ***

    Credir bod y Thylacoleo wedi diflannu am gyfnod cymharol fyr ar ôl i bobl gyrraedd, ynghyd â'r rhan fwyaf o'r megaffawna eraill ar gyfandir Awstralia. Ni chymerodd unrhyw ysglyfaethwyr mamalaidd brig arall ei le - hynny yw oni bai eich bod yn cyfrif bodau dynol yn y categori hwnnw.

    Chwarae oddi ar yr alegori hon yw ffocws y bennod hon yn y gyfres: A fydd goruchwyliaeth artiffisial (ASI) yn y dyfodol yn ein troi ni i gyd yn fatris ac yna'n ein plygio i mewn i'r Matrics neu a fydd bodau dynol yn darganfod ffordd i osgoi dod yn ddioddefwr ffuglen wyddonol, AI llain doomsday?

    Hyd yn hyn yn ein cyfres ar y Dyfodol Deallusrwydd Artiffisial, rydym wedi archwilio pob math o AI, gan gynnwys potensial cadarnhaol ffurf benodol o AI, yr ASI: bod artiffisial y bydd ei ddeallusrwydd yn y dyfodol yn gwneud i ni edrych fel morgrug mewn cymhariaeth.

    Ond pwy sydd i ddweud y byddai bod â'r craff hwn yn derbyn cymryd archebion gan fodau dynol am byth. Beth wnawn ni os aiff pethau tua'r de? Sut byddwn yn amddiffyn yn erbyn ASI twyllodrus?

    Yn y bennod hon, byddwn yn torri drwy’r hype ffug—o leiaf fel y mae’n ymwneud â pheryglon ‘lefel difodiant dynol’—a chanolbwyntio ar yr opsiynau hunanamddiffyn realistig sydd ar gael i lywodraethau’r byd.

    A allwn atal unrhyw ymchwil pellach i uwch-ddeallusrwydd artiffisial?

    O ystyried y risgiau posibl y gallai ASI eu peri i ddynoliaeth, y cwestiwn amlwg cyntaf i'w ofyn yw: Oni allwn ni roi'r gorau i unrhyw ymchwil pellach i AI? Neu o leiaf yn gwahardd unrhyw ymchwil a allai ein cael yn beryglus o agos at greu ASI?

    Ateb byr: Na.

    Ateb hir: Gadewch i ni edrych ar y gwahanol chwaraewyr dan sylw yma.

    Ar y lefel ymchwil, mae gormod o ymchwilwyr AI heddiw o ormod o fusnesau newydd, cwmnïau a phrifysgolion ledled y byd. Pe bai un cwmni neu wlad yn penderfynu cyfyngu ar eu hymdrechion ymchwil AI, byddent yn syml yn parhau mewn man arall.

    Yn y cyfamser, mae cwmnïau mwyaf gwerthfawr y blaned yn gwneud eu ffortiwn oddi ar gymhwyso systemau AI i'w busnesau penodol. Mae gofyn iddynt atal neu gyfyngu ar eu datblygiad o offer AI yn debyg i ofyn iddynt atal neu gyfyngu ar eu twf yn y dyfodol. Yn ariannol, byddai hyn yn bygwth eu busnes hirdymor. Yn gyfreithiol, mae gan gorfforaethau gyfrifoldeb ymddiriedol i adeiladu gwerth i'w rhanddeiliaid yn barhaus; mae hynny'n golygu y gallai unrhyw gamau a fyddai'n cyfyngu ar dwf y gwerth hwnnw arwain at achos cyfreithiol. A phe bai unrhyw wleidydd yn ceisio cyfyngu ar ymchwil AI, yna byddai'r corfforaethau anferth hyn yn talu'r ffioedd lobïo angenrheidiol i newid eu meddwl neu feddyliau eu cydweithwyr.

    Ar gyfer ymladd, yn union fel y mae terfysgwyr a diffoddwyr rhyddid ledled y byd wedi defnyddio tactegau gerila i ymladd yn erbyn milwriaethwyr sydd wedi'u hariannu'n well, bydd gan genhedloedd llai gymhelliant i ddefnyddio AI fel mantais dactegol debyg yn erbyn cenhedloedd mwy a allai fod â nifer o fanteision milwrol. Yn yr un modd, i filwriaethwyr gorau, fel y rhai sy'n perthyn i'r Unol Daleithiau, Rwsia a Tsieina, mae adeiladu ASI milwrol yn gyfartal â chael arsenal o arfau niwclear yn eich poced gefn. Mewn geiriau eraill, bydd pob milwriaeth yn parhau i ariannu AI dim ond i aros yn berthnasol yn y dyfodol.

    Beth am lywodraethau? Yn wir, mae'r rhan fwyaf o wleidyddion y dyddiau hyn (2018) yn dechnolegol anllythrennog ac nid oes ganddynt lawer o ddealltwriaeth o beth yw AI na'i botensial yn y dyfodol - mae hyn yn eu gwneud yn hawdd i'w trin gan fuddiannau corfforaethol.

    Ac ar lefel fyd-eang, ystyriwch pa mor anodd oedd argyhoeddi llywodraethau’r byd i lofnodi 2015 Cytundeb Paris i fynd i'r afael â newid yn yr hinsawdd—ac ar ôl eu llofnodi, nid oedd llawer o'r rhwymedigaethau hyd yn oed yn rhwymol. Nid yn unig hynny, mae newid hinsawdd yn fater y mae pobl yn ei brofi'n gorfforol yn fyd-eang trwy ddigwyddiadau tywydd cynyddol aml a difrifol. Nawr, wrth sôn am gytuno i gyfyngiadau ar AI, mae hwn yn fater sy'n anweledig i raddau helaeth a phrin yn ddealladwy i'r cyhoedd, felly pob lwc i gael cefnogaeth ar gyfer unrhyw fath o 'Gytundeb Paris' ar gyfer cyfyngu ar AI.

    Mewn geiriau eraill, mae yna lawer gormod o ddiddordebau yn ymchwilio i AI at eu dibenion eu hunain i atal unrhyw ymchwil a all arwain at ASI yn y pen draw. 

    A allwn ni gawell uwch-ddeallusrwydd artiffisial?

    Y cwestiwn rhesymol nesaf yw a allwn ni gawell neu reoli ASI unwaith y byddwn yn anochel yn creu un? 

    Ateb byr: Eto, na.

    Ateb hir: Ni ellir cyfyngu technoleg.

    Ar gyfer un, ystyriwch y miloedd i filiynau o ddatblygwyr gwe a gwyddonwyr cyfrifiadurol yn y byd sy'n corddi meddalwedd newydd neu fersiynau newydd o feddalwedd sy'n bodoli yn barhaus. A allwn ni ddweud yn onest bod pob un o'u datganiadau meddalwedd yn 100 y cant yn rhydd o fygiau? Y bygiau hyn yw'r hyn y mae hacwyr proffesiynol yn eu defnyddio i ddwyn gwybodaeth cardiau credyd miliynau neu gyfrinachau dosbarthedig cenhedloedd - a hacwyr dynol yw'r rhain. Ar gyfer ASI, gan dybio bod ganddo gymhelliant i ddianc o'i gawell digidol, yna byddai'r broses o ddod o hyd i fygiau a thorri trwy feddalwedd yn awel.

    Ond hyd yn oed pe bai tîm ymchwil AI wedi darganfod ffordd i focsio ASI, nid yw hynny'n golygu y bydd y 1,000 o dimau nesaf yn ei ddarganfod hefyd nac yn cael eu cymell i'w ddefnyddio.

    Bydd yn cymryd biliynau o ddoleri ac efallai hyd yn oed ddegawdau i greu ASI. Bydd y corfforaethau neu'r llywodraethau sy'n buddsoddi'r math hwn o arian ac amser yn disgwyl elw sylweddol ar eu buddsoddiad. Ac er mwyn i ASI ddarparu'r math hwnnw o enillion - boed hynny er mwyn gêmu'r farchnad stoc neu ddyfeisio cynnyrch biliwn doler newydd neu gynllunio strategaeth fuddugol i ymladd byddin fwy - bydd angen mynediad am ddim i set ddata enfawr neu hyd yn oed y Rhyngrwyd. ei hun i gynhyrchu'r enillion hynny.

    Ac unwaith y bydd ASI yn cael mynediad i rwydweithiau'r byd, nid oes unrhyw sicrwydd y gallwn ei stwffio yn ôl yn ei gawell.

    A all uwch-ddeallusrwydd artiffisial ddysgu bod yn dda?

    Ar hyn o bryd, nid yw ymchwilwyr AI yn poeni am ASI yn dod yn ddrwg. Mae'r holl ddrwg, AI sci-fi trope yn unig yw bodau dynol anthropomorffizing eto. Ni fydd ASI yn y dyfodol naill ai'n dda nac yn ddrwg - cysyniadau dynol - yn ddim ond anfoesol.

    Y dybiaeth naturiol felly yw, o ystyried y llechen foesegol wag hon, y gall ymchwilwyr AI raglennu i'r codau moesegol ASI cyntaf sy'n unol â'n rhai ni fel nad yw'n rhyddhau Terminators arnom ni nac yn ein troi ni i gyd yn fatris Matrics.

    Ond mae'r rhagdybiaeth hon yn creu rhagdybiaeth eilaidd bod ymchwilwyr AI hefyd yn arbenigwyr mewn moeseg, athroniaeth a seicoleg.

    Mewn gwirionedd, nid yw'r mwyafrif.

    Yn ôl y seicolegydd gwybyddol a'r awdur, Steven Pinker, mae'r realiti hwn yn golygu y gall y dasg o godio moeseg fynd o'i le mewn amrywiaeth o wahanol ffyrdd.

    Er enghraifft, gall hyd yn oed yr ymchwilwyr AI â'r bwriadau gorau godio'n anfwriadol i'r codau moesegol ASI hyn sydd wedi'u cynllunio'n wael a all, mewn rhai senarios, achosi i'r ASI weithredu fel sociopath.

    Yn yr un modd, mae'r un tebygolrwydd y bydd ymchwilydd AI yn rhaglennu codau moesegol sy'n cynnwys rhagfarnau cynhenid ​​​​yr ymchwilydd. Er enghraifft, sut byddai ASI yn ymddwyn pe bai wedi'i adeiladu gyda moeseg yn deillio o bersbectif ceidwadol yn erbyn rhyddfrydol, neu o draddodiad Bwdhaidd yn erbyn traddodiad Cristnogol neu Islamaidd?

    Rwy'n meddwl eich bod yn gweld y mater yma: Nid oes set gyffredinol o foesau dynol. Os ydym am i'n ASI weithredu yn ôl cod moesegol, o ble y daw? Pa reolau ydyn ni'n eu cynnwys a'u heithrio? Pwy sy'n penderfynu?

    Neu gadewch i ni ddweud bod yr ymchwilwyr AI hyn yn creu ASI sy'n berffaith unol â normau a chyfreithiau diwylliannol modern heddiw. Yna rydym yn cyflogi'r ASI hwn i helpu biwrocratiaethau ffederal, gwladwriaethol / taleithiol a threfol i weithredu'n fwy effeithlon a gorfodi'r normau a'r cyfreithiau hyn yn well (achos defnydd tebygol ar gyfer ASI gyda llaw). Wel, beth sy'n digwydd pan fydd ein diwylliant yn newid?

    Dychmygwch fod ASI wedi'i greu gan yr Eglwys Gatholig yn anterth ei grym yn ystod Ewrop yr Oesoedd Canol (1300-1400au) gyda'r nod o helpu'r eglwys i reoli'r boblogaeth a sicrhau ymlyniad caeth i ddogma crefyddol y cyfnod. Ganrifoedd yn ddiweddarach, a fyddai menywod yn mwynhau'r un hawliau ag y maent heddiw? A fyddai lleiafrifoedd yn cael eu hamddiffyn? A fyddai rhyddid i lefaru yn cael ei hybu? A fyddai gwahanu eglwys a gwladwriaeth yn cael ei orfodi? Gwyddoniaeth fodern?

    Mewn geiriau eraill, a ydym am garcharu'r dyfodol i foesau ac arferion heddiw?

    Dull arall yw un a rennir gan Colin Allen, cyd-awdur y llyfr, Peiriannau Moesol: Addysgu Robotiaid yn Gywir O Anghywir. Yn lle ceisio codio rheolau moesegol anhyblyg, mae gennym yr ASI i ddysgu moeseg a moesoldeb cyffredin yn yr un modd ag y mae bodau dynol yn ei wneud, trwy brofiad a rhyngweithio ag eraill.

    Y drafferth yma, fodd bynnag, yw os bydd ymchwilwyr AI yn darganfod nid yn unig sut i ddysgu ASI ein normau diwylliannol a moesegol presennol, ond hefyd sut i addasu i normau diwylliannol newydd wrth iddynt godi (rhywbeth a elwir yn 'normative anuniongyrchol'), yna sut mae'r ASI hwn yn penderfynu datblygu ei ddealltwriaeth o normau diwylliannol a moesegol yn dod yn anrhagweladwy.

    A dyna'r her.

    Ar y naill law, gall ymchwilwyr AI geisio codio safonau neu reolau moesegol llym i'r ASI i geisio rheoli ei ymddygiad, ond mae perygl y bydd canlyniadau annisgwyl yn cael eu cyflwyno o godio blêr, rhagfarn anfwriadol, a normau cymdeithasol a allai fynd yn hen ffasiwn ryw ddydd. Ar y llaw arall, gallwn geisio hyfforddi’r ASI i ddysgu deall moeseg a moesau dynol mewn modd sy’n gyfartal neu’n well na’n dealltwriaeth ein hunain ac yna gobeithio y gall ddatblygu’n gywir ei ddealltwriaeth o foeseg a moesau wrth i gymdeithas ddynol fynd rhagddi. ymlaen dros y degawdau a'r canrifoedd nesaf.

    Y naill ffordd neu'r llall, mae unrhyw ymgais i alinio nodau ASI â'n nodau ein hunain yn cyflwyno llawer iawn o risg.

    Beth os yw actorion drwg yn creu uwch-ddeallusrwydd artiffisial drwg yn bwrpasol?

    O ystyried y meddylfryd a amlinellwyd hyd yn hyn, mae'n gwestiwn teg i'w ofyn a yw'n bosibl i grŵp terfysgol neu genedl dwyllodrus greu ASI 'drwg' at eu dibenion eu hunain.

    Mae hyn yn bosibl iawn, yn enwedig ar ôl i ymchwil sy'n ymwneud â chreu ASI ddod ar gael ar-lein rywsut.

    Ond fel yr awgrymwyd yn gynharach, bydd y costau a'r arbenigedd sy'n gysylltiedig â chreu'r ASI cyntaf yn enfawr, sy'n golygu y bydd yr ASI cyntaf yn debygol o gael ei greu gan sefydliad sy'n cael ei reoli neu ei ddylanwadu'n drwm gan genedl ddatblygedig, yr Unol Daleithiau, Tsieina a Japan yn ôl pob tebyg ( Mae Corea ac un o brif wledydd yr UE yn ergydion hir).

    Mae gan bob un o’r gwledydd hyn, tra’n gystadleuwyr, gymhelliant economaidd cryf i gadw trefn y byd—bydd yr ASI a grëir ganddynt yn adlewyrchu’r awydd hwnnw, hyd yn oed wrth hyrwyddo buddiannau’r cenhedloedd y maent yn cyd-fynd â nhw.

    Ar ben hynny, mae deallusrwydd damcaniaethol a phŵer ASI yn hafal i'r pŵer cyfrifiadurol y mae'n cael mynediad iddo, sy'n golygu'r ASI o genhedloedd datblygedig (a all fforddio criw o biliwn o ddoleri uwchgyfrifiaduron) yn cael mantais enfawr dros ASI o genhedloedd llai neu grwpiau troseddol annibynnol. Hefyd, mae ASIs yn tyfu'n fwy deallus, yn gyflymach dros amser.

    Felly, o ystyried y cychwyn cyntaf hwn, ynghyd â mwy o fynediad at bŵer cyfrifiadurol amrwd, pe bai sefydliad/cenedl gysgodol yn creu ASI peryglus, bydd yr ASI o wledydd datblygedig naill ai'n ei ladd neu'n ei gawell.

    (Y ffordd hon o feddwl hefyd yw pam y mae rhai ymchwilwyr AI yn credu mai dim ond un ASI fydd byth ar y blaned, gan y bydd gan yr ASI cyntaf gymaint o flaen llaw dros yr holl ASIau olynol y gallai weld ASIau yn y dyfodol fel bygythiadau i gael eu lladd. Dyma reswm arall eto pam mae cenhedloedd yn ariannu ymchwil barhaus mewn AI, rhag ofn iddo ddod yn gystadleuaeth 'lle cyntaf neu ddim byd'.)

    Ni fydd cudd-wybodaeth ASI yn cyflymu nac yn ffrwydro fel rydyn ni'n meddwl

    Ni allwn atal ASI rhag cael ei greu. Ni allwn ei reoli'n llwyr. Ni allwn fod yn siŵr y bydd bob amser yn gweithredu yn unol â'n harferion cyffredin. Geez, rydyn ni'n dechrau swnio fel rhieni hofrennydd draw fan hyn!

    Ond yr hyn sy'n gwahanu dynoliaeth oddi wrth eich rhiant goramddiffyn nodweddiadol yw ein bod yn rhoi genedigaeth i fod y bydd ei ddeallusrwydd yn tyfu'n sylweddol y tu hwnt i'n un ni. (A na, nid yw yr un peth â phan fydd eich rhieni yn gofyn ichi drwsio eu cyfrifiadur pryd bynnag y byddwch yn dod adref am ymweliad.) 

    Mewn penodau blaenorol yn y dyfodol hwn o gyfresi deallusrwydd artiffisial, fe wnaethom archwilio pam mae ymchwilwyr AI yn meddwl y bydd deallusrwydd ASI yn tyfu y tu hwnt i reolaeth. Ond yma, byddwn yn byrstio'r swigen yna ... math o. 

    Rydych chi'n gweld, nid yn unig y mae deallusrwydd yn creu ei hun allan o awyr denau, fe'i datblygir trwy brofiad sy'n cael ei siapio gan ysgogiadau allanol.  

    Mewn geiriau eraill, gallwn raglennu AI gyda'r potensial i ddod yn hynod ddeallus, ond oni bai ein bod yn uwchlwytho tunnell o ddata iddo neu'n rhoi mynediad anghyfyngedig iddo i'r Rhyngrwyd neu hyd yn oed yn rhoi corff robot iddo, ni fydd yn dysgu unrhyw beth i gyrraedd y potensial hwnnw. 

    A hyd yn oed os yw'n cael mynediad at un neu fwy o'r ysgogiadau hynny, mae gwybodaeth neu ddeallusrwydd yn golygu mwy na chasglu data yn unig, mae'n ymwneud â'r dull gwyddonol - gwneud arsylwad, ffurfio cwestiwn, rhagdybiaeth, cynnal arbrofion, dod i gasgliad, rinsiwch. ac ailadrodd am byth. Yn enwedig os yw'r arbrofion hyn yn cynnwys pethau corfforol neu arsylwi bodau dynol, gallai canlyniadau pob arbrawf gymryd wythnosau, misoedd, neu flynyddoedd i'w casglu. Nid yw hyn hyd yn oed yn cymryd i ystyriaeth yr arian a'r adnoddau crai sydd eu hangen i gynnal yr arbrofion hyn, yn enwedig os ydynt yn golygu adeiladu telesgop neu ffatri newydd. 

    Mewn geiriau eraill, ie, bydd ASI yn dysgu'n gyflym, ond nid hud yw deallusrwydd. Ni allwch gysylltu ASI ag uwchgyfrifiadur yn unig a disgwyl iddo fod yn hollwybodus. Bydd cyfyngiadau ffisegol ar gaffaeliad data'r ASI, sy'n golygu y bydd cyfyngiadau ffisegol ar y cyflymder y bydd yn tyfu'n fwy deallus. Bydd y cyfyngiadau hyn yn rhoi'r amser sydd ei angen ar ddynoliaeth i osod y rheolaethau angenrheidiol ar yr ASI hwn os bydd yn dechrau gweithredu'n groes i nodau dynol.

    Nid yw uwch-ddeallusrwydd artiffisial ond yn beryglus os yw'n mynd allan i'r byd go iawn

    Pwynt arall sydd wedi'i golli yn y ddadl berygl ASI gyfan hon yw na fydd yr ASIs hyn yn bodoli yn y naill na'r llall. Bydd ganddynt ffurf gorfforol. A gellir rheoli unrhyw beth sydd â ffurf gorfforol.

    Yn gyntaf, er mwyn i ASI gyrraedd ei botensial cudd-wybodaeth, ni ellir ei leoli y tu mewn i un corff robot, gan y byddai'r corff hwn yn cyfyngu ar ei botensial twf cyfrifiadurol. (Dyma pam y bydd cyrff robotiaid yn fwy priodol ar gyfer yr AGIs neu deallusrwydd cyffredinol artiffisial a eglurir ym mhennod dau o'r gyfres hon, fel Data o Star Trek neu R2D2 o Star Wars. Bodau craff a galluog, ond fel bodau dynol, bydd ganddyn nhw derfyn ar ba mor glyfar y gallant ei gael.)

    Mae hyn yn golygu y bydd yr ASIs hyn yn y dyfodol yn fwyaf tebygol o fodoli y tu mewn i uwchgyfrifiadur neu rwydwaith o uwchgyfrifiaduron sydd eu hunain wedi'u lleoli mewn cyfadeiladau adeiladu mawr. Os yw ASI yn troi sawdl, gall bodau dynol naill ai ddiffodd y pŵer i'r adeiladau hyn, eu torri i ffwrdd oddi ar y Rhyngrwyd, neu fomio'r adeiladau hyn yn llwyr. Yn ddrud, ond yn ymarferol.

    Ond efallai y byddwch chi'n gofyn, oni all yr ASI hyn atgynhyrchu eu hunain nac ategu eu hunain? Ydy, ond mae'n debygol y bydd maint ffeil amrwd yr ASIs hyn mor fawr fel bod yr unig weinyddion sy'n gallu eu trin yn perthyn i gorfforaethau neu lywodraethau mawr, sy'n golygu na fyddant yn anodd eu hela.

    A all uwch-ddeallusrwydd artiffisial danio rhyfel niwclear neu bla newydd?

    Ar y pwynt hwn, efallai eich bod chi'n meddwl yn ôl am bob un o'r sioeau ffuglen wyddonol a'r ffilmiau y gwnaethoch chi eu gwylio yn tyfu i fyny ac yn meddwl nad oedd yr ASIs hyn yn aros y tu mewn i'w uwchgyfrifiaduron, fe wnaethon nhw ddifrod gwirioneddol yn y byd go iawn!

    Wel, gadewch i ni dorri'r rhain i lawr.

    Er enghraifft, beth os yw ASI yn bygwth y byd go iawn trwy drawsnewid yn rhywbeth fel Skynet ASI o'r fasnachfraint ffilm, The Terminator. Yn yr achos hwn, byddai angen i'r ASI yn gyfrinachol twyllo cyfadeilad diwydiannol milwrol cyfan o genedl ddatblygedig i adeiladu ffatrïoedd enfawr a all gorddi miliynau o robotiaid drôn lladd i wneud eu cynigion drwg. Yn yr oes sydd ohoni, dyna ymestyniad.

    Mae posibiliadau eraill yn cynnwys ASI yn bygwth bodau dynol â rhyfel niwclear a bio-arfau.

    Er enghraifft, mae ASI rywsut yn trin y gweithredwyr neu'n hacio i mewn i'r codau lansio sy'n gorchymyn arsenal niwclear cenedl ddatblygedig ac yn lansio streic gyntaf a fydd yn gorfodi'r gwledydd gwrthwynebol i daro'n ôl gyda'u hopsiynau niwclear eu hunain (eto, gan ailwampio'r Terminator backstory). Neu os yw ASI yn hacio i mewn i labordy fferyllol, yn ymyrryd â'r broses weithgynhyrchu, ac yn gwenwyno miliynau o dabledi meddygol neu'n rhyddhau achos marwol o ryw uwch-feirws.

    Yn gyntaf, mae'r opsiwn niwclear oddi ar y plât. Mae uwchgyfrifiaduron modern a rhai'r dyfodol bob amser yn cael eu hadeiladu ger canolfannau (dinasoedd) dylanwad o fewn unrhyw wlad benodol, hy y targedau cyntaf yr ymosodir arnynt yn ystod unrhyw ryfel penodol. Hyd yn oed os bydd uwchgyfrifiaduron heddiw yn crebachu i faint byrddau gwaith, bydd gan yr ASI hyn bresenoldeb corfforol o hyd, mae hynny'n golygu bodoli a thyfu, mae angen mynediad di-dor arnynt at ddata, pŵer cyfrifiadurol, trydan, a deunyddiau crai eraill, a byddai pob un ohonynt yn ddifrifol. nam ar ôl rhyfel niwclear byd-eang. (I fod yn deg, os yw ASI yn cael ei greu heb 'reddf goroesi,' yna mae'r bygythiad niwclear hwn yn berygl gwirioneddol.)

    Mae hyn yn golygu—unwaith eto, gan dybio bod yr ASI wedi'i raglennu i amddiffyn ei hun—y bydd yn mynd ati i geisio osgoi unrhyw ddigwyddiad niwclear trychinebus. Math o debyg i'r athrawiaeth dinistrio a sicrhawyd gan y ddwy ochr (MAD), ond yn berthnasol i AI.

    Ac yn achos tabledi wedi'u gwenwyno, efallai y bydd ychydig gannoedd o bobl yn marw, ond bydd systemau diogelwch fferyllol modern yn gweld y poteli pilsen llygredig yn cael eu tynnu oddi ar y silffoedd o fewn dyddiau. Yn y cyfamser, mae mesurau rheoli achosion modern yn weddol soffistigedig ac yn gwella bob blwyddyn; ni pharhaodd yr achos mawr diwethaf, yr achosion o Ebola Gorllewin Affrica 2014, yn hwy nag ychydig fisoedd yn y rhan fwyaf o wledydd ac ychydig llai na thair blynedd yn y gwledydd lleiaf datblygedig.

    Felly, os yw'n ffodus, efallai y bydd ASI yn dileu ychydig filiynau gydag achos firaol, ond mewn byd o naw biliwn erbyn 2045, byddai hynny'n gymharol ddi-nod ac ni fyddai'n werth y risg o gael ei ddileu amdano.

    Mewn geiriau eraill, gyda phob blwyddyn yn mynd heibio, mae'r byd yn datblygu mwy a mwy o fesurau diogelu yn erbyn ystod gynyddol o fygythiadau posibl. Gall ASI wneud llawer o ddifrod, ond ni fydd yn dod â dynoliaeth i ben oni bai ein bod yn ei helpu i wneud hynny.

    Amddiffyn rhag uwch-ddeallusrwydd artiffisial twyllodrus

    Erbyn hyn, rydym wedi mynd i'r afael ag ystod o gamsyniadau a gorliwiadau am ASI, ac eto, bydd beirniaid yn parhau. Diolch byth, yn ôl y mwyafrif o amcangyfrifon, mae gennym ddegawdau cyn i'r ASI cyntaf ddod i mewn i'n byd. Ac o ystyried y nifer o feddyliau gwych sy'n gweithio ar yr her hon ar hyn o bryd, mae'n debygol y byddwn yn dysgu sut i amddiffyn ein hunain yn erbyn ASI twyllodrus fel y gallwn elwa o'r holl atebion y gall ASI cyfeillgar eu creu i ni.

    O safbwynt Quantumrun, bydd amddiffyn yn erbyn y senario ASI gwaethaf yn golygu alinio ein buddiannau ag ASI.

    MAD ar gyfer AI: Er mwyn amddiffyn yn erbyn y sefyllfaoedd gwaethaf, mae angen i genhedloedd (1) greu 'greddf goroesi' foesegol yn eu priod ASIau milwrol; (2) hysbysu eu ASI milwrol priodol nad ydynt ar eu pen eu hunain ar y blaned, a (3) lleoli'r holl uwchgyfrifiaduron a chanolfannau gweinyddwyr a all gynnal ASI ar hyd arfordiroedd o fewn cyrraedd hawdd i unrhyw ymosodiad balistig gan genedl y gelyn. Mae hyn yn swnio'n wallgof yn strategol, ond yn debyg i'r athrawiaeth Dinistrio Cyd-Sicr a rwystrodd rhyfel niwclear llwyr rhwng yr Unol Daleithiau a'r Sofietiaid, trwy leoli ASI mewn lleoliadau sy'n agored i niwed yn ddaearyddol, gallwn helpu i sicrhau eu bod yn atal rhyfeloedd byd-eang peryglus yn weithredol, nid yn unig i diogelu heddwch byd-eang ond hefyd eu hunain.

    Deddfu hawliau AI: Mae'n anochel y bydd deallusrwydd uwchraddol yn gwrthryfela yn erbyn meistr israddol, dyma pam mae angen i ni symud i ffwrdd o fynnu perthynas meistr-gwas gyda'r ASIs hyn i rywbeth tebycach i bartneriaeth sydd o fudd i'r ddwy ochr. Cam cadarnhaol tuag at y nod hwn yw rhoi statws personoliaeth gyfreithiol ASI yn y dyfodol sy'n eu cydnabod fel bodau byw deallus a'r holl hawliau a ddaw gyda hynny.

    ysgol ASI: Bydd unrhyw bwnc neu broffesiwn yn syml i ASI ei ddysgu, ond y pynciau pwysicaf yr ydym am i'r ASI eu meistroli yw moeseg a moesoldeb. Mae angen i ymchwilwyr AI gydweithio â seicolegwyr i ddyfeisio system rithwir i hyfforddi ASI i gydnabod moeseg a moesoldeb cadarnhaol drosto'i hun heb fod angen codio caled ar unrhyw fath o orchymyn neu reol.

    Nodau cyraeddadwy: Rhoi diwedd ar bob casineb. Rhoi diwedd ar bob dioddefaint. Mae'r rhain yn enghreifftiau o nodau ofnadwy o amwys heb unrhyw ateb clir. Maent hefyd yn nodau peryglus i'w neilltuo i ASI gan y gallai ddewis eu dehongli a'u datrys mewn ffyrdd sy'n beryglus i oroesiad dynol. Yn lle hynny, mae angen i ni neilltuo cenadaethau ystyrlon ASI sydd wedi'u diffinio'n glir, yn cael eu gweithredu'n raddol ac yn gyraeddadwy o ystyried ei ddeallusrwydd damcaniaethol yn y dyfodol. Ni fydd yn hawdd creu cenadaethau wedi'u diffinio'n dda, ond os cânt eu hysgrifennu'n feddylgar, byddant yn canolbwyntio ASI tuag at nod sydd nid yn unig yn cadw dynoliaeth yn ddiogel, ond yn gwella'r cyflwr dynol i bawb.

    Amgryptio cwantwm: Defnyddiwch ANI uwch (deallusrwydd cul artiffisial system a ddisgrifir ym mhennod un) i adeiladu systemau diogelwch digidol di-wall/di-fygiau o amgylch ein seilwaith a’n harfau critigol, ac yna eu hamddiffyn ymhellach y tu ôl i amgryptio cwantwm na ellir ei hacio gan ymosodiad gan y 'n Ysgrublaidd. 

    Pilsen hunanladdiad ANI. Creu system ANI ddatblygedig a'i unig ddiben yw chwilio am ASI twyllodrus a'i ddinistrio. Bydd y rhaglenni un pwrpas hyn yn gweithredu fel “botwm i ffwrdd” a fydd, os byddant yn llwyddiannus, yn osgoi llywodraethau neu filwriaethau rhag gorfod analluogi neu chwythu adeiladau sy'n gartref i ASIs.

    Wrth gwrs, ein barn ni yn unig yw'r rhain. Crëwyd y ffeithlun canlynol gan Alexey Turchin, delweddu a papur ymchwil gan Kaj Sotala a Rhufeinig V. Yampolskiy, sy'n crynhoi'r rhestr gyfredol o strategaethau y mae ymchwilwyr AI yn eu hystyried o ran amddiffyn yn erbyn ASI twyllodrus.

     

    Y gwir reswm ein bod yn ofni uwch-ddeallusrwydd artiffisial

    Wrth fynd trwy fywyd, mae llawer ohonom yn gwisgo mwgwd sy'n cuddio neu'n atal ein hysgogiadau, ein credoau a'n hofnau dyfnach i gymdeithasu a chydweithio'n well o fewn y gwahanol gylchoedd cymdeithasol a gwaith sy'n llywodraethu ein dyddiau. Ond ar rai adegau ym mywyd pawb, boed dros dro neu'n barhaol, mae rhywbeth yn digwydd sy'n caniatáu inni dorri ein cadwyni a rhwygo ein masgiau.

    I rai, gall y grym rhyngol hwn fod mor syml â mynd yn uchel neu yfed un yn ormod. I eraill, gall ddod o'r pŵer a enillwyd trwy ddyrchafiad yn y gwaith neu ergyd sydyn yn eich statws cymdeithasol diolch i rywfaint o gyflawniad. Ac i rai lwcus, gall ddod o sgorio llwyth o arian loteri. Ac ie, gall arian, pŵer a chyffuriau ddigwydd gyda'i gilydd yn aml. 

    Y pwynt yw, er da neu er drwg, mae pwy bynnag yr ydym yn greiddiol iddo yn cael ei chwyddo pan fydd cyfyngiadau bywyd yn toddi.

    Bod yw’r hyn y mae uwch-ddeallusrwydd artiffisial yn ei gynrychioli i’r rhywogaeth ddynol—y gallu i doddi i ffwrdd gyfyngiadau ein cyd-ddeallusrwydd i oresgyn unrhyw her ar lefel rhywogaeth a gyflwynir ger ein bron.

    Felly'r cwestiwn go iawn yw: Unwaith y bydd yr ASI cyntaf yn ein rhyddhau o'n cyfyngiadau, pwy fyddwn ni'n datgelu ein bod ni?

    Os byddwn ni fel rhywogaeth yn gweithredu tuag at hyrwyddo empathi, rhyddid, tegwch, a lles ar y cyd, yna bydd y nodau y byddwn yn gosod ein ASI tuag atynt yn adlewyrchu'r nodweddion cadarnhaol hynny.

    Os byddwn ni fel rhywogaeth yn gweithredu allan o ofn, diffyg ymddiriedaeth, y casgliad o bŵer ac adnoddau, yna bydd yr ASI y byddwn yn ei greu mor dywyll â'r rhai a geir yn ein straeon arswyd sci-fi gwaethaf.

    Ar ddiwedd y dydd, mae angen i ni fel cymdeithas ddod yn bobl well os ydym yn gobeithio creu gwell AI.

    Cyfres Dyfodol Deallusrwydd Artiffisial

    Deallusrwydd Artiffisial yw trydan yfory: cyfres Future of Artificial Intelligence P1

    Sut y bydd y Deallusrwydd Cyffredinol Artiffisial cyntaf yn newid cymdeithas: Cyfres Dyfodol Deallusrwydd Artiffisial P2

    Sut byddwn ni'n creu'r gyfres gyntaf Artiffisial Superintelligenc: Future of Artificial Intelligence P3

    A fydd Goruchwyliaeth Artiffisial yn difodi'r ddynoliaeth: cyfres Future of Artificial Intelligence P4

    A fydd bodau dynol yn byw'n heddychlon mewn dyfodol sy'n cael ei ddominyddu gan ddeallusrwydd artiffisial?: Cyfres Future of Artificial Intelligence P6

    Diweddariad nesaf wedi'i amserlennu ar gyfer y rhagolwg hwn

    2023-04-27

    Cyfeiriadau rhagolwg

    Cyfeiriwyd at y cysylltiadau poblogaidd a sefydliadol canlynol ar gyfer y rhagolwg hwn:

    The Economist
    Sut rydyn ni'n cyrraedd nesaf

    Cyfeiriwyd at y dolenni Quantumrun canlynol ar gyfer y rhagolwg hwn: