Lihevkirina AI: Lihevhatina armancên îstîxbarata çêkirî bi nirxên mirovî re têkildar e

KREDIYA WÊNE:
Kredê Image
iStock

Lihevkirina AI: Lihevhatina armancên îstîxbarata çêkirî bi nirxên mirovî re têkildar e

Lihevkirina AI: Lihevhatina armancên îstîxbarata çêkirî bi nirxên mirovî re têkildar e

Nivîsa binavkirî
Hin lêkolîner bawer dikin ku divê tedbîr bêne girtin da ku îstîxbarata çêkirî zirarê nede civakê.
    • Nivîskar:
    • Navê nivîskar
      Pêşbîniya Quantumrun
    • January 25, 2023

    Rêzkirina îstîxbarata artificial (AI) dema ku mebestên pergalek AI-ê bi nirxên mirovî re li hev dikin. Pargîdaniyên mîna OpenAI, DeepMind, û Anthropic xwedan tîmên lêkolîneran in ku yekane armanca wan lêkolîna cerdevanan e ji bo senaryoyên cihêreng ên ku dibe ku ev çêbibe.

    Di çarçoveya hevrêziya AI-ê de

    Li gorî lêkolînek lêkolînê ya Zanîngeha Cornell a sala 2021-an, gelek lêkolînan destnîşan kirin ku amûr an modelên ku ji hêla algorîtmayan ve hatine afirandin biasiya ku ji daneyên ku ew li ser hatine perwerde kirin nîşan didin. Mînakî, di pêvajoya zimanê xwezayî (NLP) de, modelên NLP yên bijartî yên ku li ser daneyên tixûbdar hatine perwerde kirin, hatine belge kirin ku pêşbîniyên li ser bingeha stereotipên zayendî yên zirardar ên li dijî jinan têne çêkirin. Bi vî rengî, lêkolînên din jî dîtin ku algorîtmayên ku li ser daneya şikestî hatine perwerde kirin, di encama pêşnîyarên nijadperestî de, nemaze di polêsan de, derketin.

    Gelek mînak hene ku tê de pergalên fêrbûna makîneyê ji bo hindikahiyan an komên ku ji gelek kêmasiyan dikişînin xirabtir kiriye. Bi taybetî, analîzkirina rûyê otomatîk û tespîtkirina lênihêrîna tenduristî bi gelemperî ji bo jin û mirovên rengîn pir baş naxebitin. Dema ku pergalên krîtîk ên ku divê li şûna hestan li ser rastiyan û mantiqê bin, di çarçoveyek mîna veqetandina lênihêrîna tenduristî an perwerdehiyê de têne bikar anîn, ew dikarin zirarê zêdetir bikin ji ber ku dijwartirkirina tespîtkirina sedemên li pişt van pêşniyaran.

    Wekî encamek, pargîdaniyên teknolojiyê tîmên hevrêziya AI-ê diafirînin da ku balê bikişînin ser girtina algorîtmayan dadperwer û mirovî. Lêkolîn ji bo têgihîştina rêgezên pergalên pêşkeftî yên AI-ê, û her weha kêşeyên ku em dikarin pê re rû bi rû bimînin gava ku kapasîteyên AI-yê mezin dibin, pêdivî ye.

    Bandora têkçûyî

    Li gorî Jan Leike, serokê hevrêziya AI-ê li OpenAI (2021), ji ber ku pergalên AI tenê di salên 2010-an de jêhatî bûne, tê fêm kirin ku piraniya lêkolînên lihevhatina AI-ê ji hêla teoriyê ve giran bûne. Dema ku pergalên AI-ê yên pir bi hêz li hev tên, yek ji wan kêşeyên ku mirov pê re rû bi rû ne ev e ku ev makîneyên hanê dibe ku çareseriyên ku ji bo vekolîn û nirxandina wan ji hêla exlaqî ve watedar in biafirînin.

    Leike stratejiyek modela xelata paşverû (RRM) çêkir da ku vê pirsgirêkê çareser bike. Bi RRM re, çend AI-yên "alîkar" têne fêr kirin da ku ji mirovan re bibin alîkar ku binirxîne ka AI-ya tevlihevtir çiqas baş dike. Ew li ser îhtîmala afirandina tiştek ku ew wekî "MVP-ya hevrêziyê" binav dike geşbîn e. Di warê destpêkê de, MVP (an hilberek herî kêm a guncan) hilbera herî hêsan a gengaz e ku pargîdaniyek dikare ava bike da ku ramanek biceribîne. Hêvî ev e ku rojekê, AI-ê di lêkolîna AI-ê de û hevahengiya wê ya bi nirxan re di heman demê de fonksiyonel be jî performansa mirovî li hev dike.

    Digel ku zêdebûna eleqeya li ser hevrêziya AI-ê pozîtîfek netîce ye, gelek analîstên li qadê difikirin ku piraniya xebata "exlaqî" li laboratîfên pêşeng ên AI-ê tenê têkiliyên gelemperî ne ku ji bo ku pargîdaniyên teknolojiyê baş xuya bikin û ji reklamên neyînî dûr bixin hatine çêkirin. Van kesan li bendê ne ku pratîkên pêşkeftina exlaqî di demek nêzîk de ji bo van pargîdaniyan bibin pêşeng.

    Van çavdêriyan girîngiya nêzîkatiyên navdîsîplîn ji bo hewildanên hevrêzkirina nirxê ronî dikin, ji ber ku ev qadek nû ya lêkolîna exlaqî û teknîkî ye. Divê şaxên zanînê yên cihêreng bibin beşek ji rojeva lêkolînek berfireh. Ev însiyatîfa her weha destnîşan dike ku pêdivî ye ku teknolog û siyasetmedaran ji çarçoweya civakî û beşdarên xwe haydar bimînin, her çend pergalên AI-ê pêşkeftîtir dibin.

    Encamên lihevhatina AI-ê

    Encamên berfireh ên hevrêziya AI-ê dibe ku ev in: 

    • Laboratûwarên îstîxbarata hunerî panelên etîk ên cihêreng digirin da ku çavdêriya projeyan bikin û rêwerzên AI-ya exlaqî bicîh bînin. 
    • Hikûmet qanûnên ku ji pargîdaniyan hewce dike ku çarçoveya AI-ya xwe ya berpirsiyar radest bikin diafirînin û ew çawa plan dikin ku projeyên xwe yên AI-ê pêşdetir pêşve bibin.
    • Nakokiyên li ser karanîna algorîtmayan di peydakirin, çavdêriya giştî, û sepandina qanûnê de zêde bûn.
    • Lekolînwan ji ber nakokiyên berjewendiyê di navbera etîk û armancên pargîdanî de ji laboratîfên mezin ên AI-yê têne avêtin.
    • Zêdetir zext ji hukûmetan re ku pergalên pêşkeftî yên AI-ê yên ku hem pir bi hêz in lê dikarin potansiyel mafên mirovan binpê bikin birêkûpêk bikin.

    Pirsên ku li ser şîrove bikin

    • Meriv çawa dikare ji pergalên AI-ê yên ku ew diafirînin berpirsiyar werin hesibandin?
    • Ger xeletiya AI-ê hebe xetereyên din ên potansiyel çi ne?

    Referansên Insight

    Girêdanên populer û sazî yên jêrîn ji bo vê têgihiştinê hatine referans kirin: