AI тегиздөө: Жасалма интеллект максаттарынын дал келиши адамдык баалуулуктарга дал келет

Кредит сүрөтү:
Image кредит
iStock

AI тегиздөө: Жасалма интеллект максаттарынын дал келиши адамдык баалуулуктарга дал келет

AI тегиздөө: Жасалма интеллект максаттарынын дал келиши адамдык баалуулуктарга дал келет

Чакан теманын тексти
Кээ бир изилдөөчүлөр жасалма интеллект коомго зыян келтирбеши үчүн чаралар көрүлүшү керек деп эсептешет.
    • Author:
    • Жазуучу аты
      Quantumrun Foresight
    • January 25, 2023

    Жасалма интеллект (AI) тегиздөө - бул AI тутумунун максаттары адамдык баалуулуктарга дал келгенде. OpenAI, DeepMind жана Anthropic сыяктуу компанияларда изилдөөчүлөр топтору бар, алардын бирден-бир максаты бул болушу мүмкүн болгон ар кандай сценарийлер үчүн тосмолорду изилдөө.

    AI тегиздөө контексти

    Корнелл университетинин 2021-жылдагы изилдөөсүнө ылайык, бир нече изилдөөлөр алгоритмдер тарабынан түзүлгөн инструменттер же моделдер алар үйрөтүлгөн маалыматтардан алынган бир жактуулукту көрсөтөөрүн көрсөттү. Мисалы, табигый тилди иштетүүдө (NLP) чектелген маалымат топтомдорунда үйрөтүлгөн тандалган NLP моделдери аялдарга карата зыяндуу гендердик стереотиптерге негизделген прогноздорду жасоо менен документтештирилген. Ошо сыяктуу эле, башка изилдөөлөр бурмаланган маалыматтар топтому боюнча үйрөтүлгөн алгоритмдер расалык бир жактуу сунуштарды, айрыкча полиция кызматын көрсөткөн.

    Машина үйрөнүү системалары азчылыктар же бир нече кемчиликтерден жапа чеккен топтор үчүн жаман иш кылган көптөгөн мисалдар бар. Атап айтканда, автоматташтырылган бет анализи жана саламаттыкты сактоо диагностикасы, адатта, аялдар жана түстүү адамдар үчүн жакшы иштебейт. Эмоциянын ордуна фактыларга жана логикага негизделиши керек болгон критикалык системалар саламаттыкты сактоо же билим берүү сыяктуу контексттерде колдонулганда, алар бул сунуштардын негизин аныктоону кыйындатып, көбүрөөк зыян келтириши мүмкүн.

    Натыйжада, технологиялык фирмалар алгоритмдерди адилеттүү жана адамгерчиликтүү сактоого басым жасоо үчүн AI тегиздөө топторун түзүүдө. Изилдөө өнүккөн AI системаларынын багытын, ошондой эле AI мүмкүнчүлүктөрү өскөн сайын биз туш болушу мүмкүн болгон кыйынчылыктарды түшүнүү үчүн абдан маанилүү.

    Бузуучу таасир

    OpenAI (2021) компаниясынын AI тегиздөө бөлүмүнүн башчысы Ян Лейкенин айтымында, AI системалары 2010-жылдары гана жөндөмдүү болуп калганын эске алганда, AI тегиздөө боюнча изилдөөлөрдүн көбү теориялык жактан оор болгонун түшүнсө болот. Эбегейсиз күчтүү AI системалары туураланганда, адамдар туш болгон көйгөйлөрдүн бири бул машиналар этикалык жактан мааниси бар-жогун карап чыгуу жана баалоо үчүн өтө татаал чечимдерди жаратышы мүмкүн.

    Лейк бул көйгөйдү чечүү үчүн рекурсивдүү сыйлык моделдөө (RRM) стратегиясын иштеп чыккан. RRM менен, бир нече "жардамчы" AI адамга татаал AI канчалык жакшы аткарарын баалоого жардам берүү үчүн үйрөтүлөт. Ал "тегиздөө MVP" деп атаган нерсени түзүү мүмкүнчүлүгүнө оптимист. Стартап айтканда, MVP (же минималдуу жашоого жөндөмдүү продукт) - бул идеяны сынап көрүү үчүн компания кура ала турган эң жөнөкөй продукт. Качандыр бир күнү AI AIди изилдөөдө адамдын көрсөткүчүнө жана анын баалуулуктарга шайкеш келишине дал келет, ошол эле учурда функционалдык болот.

    AI тегиздөөсүнө болгон кызыгуунун жогорулашы таза позитивдүү болсо да, бул тармактагы көптөгөн аналитиктер AI лабораторияларындагы "этика" ишинин көбү технологиялык компанияларды жакшы көрүүгө жана терс пиарларды болтурбоо үчүн иштелип чыккан коомчулук менен байланыш деп ойлошот. Бул адамдар этикалык өнүгүү практикасы жакын арада бул компаниялар үчүн артыкчылыктуу болуп калат деп күтүшпөйт.

    Бул байкоолор баалуулуктарды тегиздөө аракеттери үчүн дисциплиналар аралык мамилелердин маанилүүлүгүн баса белгилейт, анткени бул моралдык жана техникалык изилдөөнүн салыштырмалуу жаңы чөйрөсү. Билимдин ар кандай тармактары инклюзивдик изилдөө күн тартибинин бир бөлүгү болушу керек. Бул демилге ошондой эле AI системалары өнүккөнүнө карабастан, технологдор менен саясатчылардын социалдык контексттен жана кызыкдар тараптардан кабардар болуп туруу зарылдыгын көрсөтөт.

    AI тегиздөөнүн кесепеттери

    AI тегиздөөнүн кеңири кесепеттери төмөнкүлөрдү камтышы мүмкүн: 

    • Жасалма интеллект лабораториялары долбоорлорду көзөмөлдөө жана AIнын этикалык көрсөтмөлөрүн аткаруу үчүн түрдүү этикалык кеңештерди жалдайт. 
    • Өкмөттөр компаниялардан жоопкерчиликтүү AI алкактарын жана AI долбоорлорун андан ары кантип өнүктүрүүнү пландоону талап кылган мыйзамдарды түзүшөт.
    • Жумушка алууда, коомдук байкоо жүргүзүүдө жана укук коргоо органдарында алгоритмдерди колдонуу боюнча талаш-тартыштар көбөйдү.
    • Изилдөөчүлөр этика менен корпоративдик максаттардын ортосундагы кызыкчылыктардын кагылышуусунан улам ири AI лабораторияларынан бошотулууда.
    • Экөө тең укмуштуудай күчтүү, бирок адам укуктарын бузушу мүмкүн болгон өнүккөн AI системаларын жөнгө салуу үчүн өкмөттөр үчүн көбүрөөк басым.

    Комментарий берүү үчүн суроолор

    • Фирмалар өздөрү түзгөн AI тутумдары үчүн кантип жоопкерчиликтүү болушат?
    • AI туура эмес түзүлүшү болсо, дагы кандай коркунучтар болушу мүмкүн?

    Insight шилтемелер

    Бул түшүнүк үчүн төмөнкү популярдуу жана институционалдык шилтемелер колдонулган: