Франкен-Алгоритмдери: Алгоритмдер бузулуп кетти

Кредит сүрөтү:
Image кредит
iStock

Франкен-Алгоритмдери: Алгоритмдер бузулуп кетти

Франкен-Алгоритмдери: Алгоритмдер бузулуп кетти

Чакан теманын тексти
Жасалма интеллекттеги өнүгүүлөр менен алгоритмдер адамдар күткөндөн тезирээк өнүгүп жатат.
    • Author:
    • Жазуучу аты
      Quantumrun Foresight
    • April 12, 2023

    Машина үйрөнүү (ML) алгоритмдери өнүккөн сайын, алар чоң маалымат топтомдорундагы үлгүлөрдү өз алдынча үйрөнүп, ыңгайлаша алышат. Бул процесс "өз алдынча үйрөнүү" деп аталып, чечим кабыл алуу үчүн өзүнүн кодун же эрежелерин иштеп чыгуу алгоритмин алып келиши мүмкүн. Бул маселе алгоритм тарабынан түзүлгөн код адамдар үчүн түшүнүү кыйын же мүмкүн эмес болушу мүмкүн, аны бир жактуу аныктоо кыйынга турат. 

    Франкен-Алгоритмдердин контексти

    Франкен-Алгоритмдер алгоритмдерди (маалыматтарды иштеп чыгууда жана буйруктарга жооп берүүдө компьютерлер карманган эрежелер) билдирет, алар ушунчалык татаал жана бири-бирине чырмалышып калгандыктан, адамдар аларды чече албай калышат. Бул термин Мэри Шеллинин жинди илимпоз доктор Франкенштейн жараткан "желмогуз" жөнүндөгү фантастикасына баш ийет. Алгоритмдер жана коддор чоң технологиянын курулуш материалы болуп саналса да, Facebook менен Google азыр таасирдүү компаниялар болууга мүмкүндүк бергени менен, адамдар билбеген технология жөнүндө дагы эле көп нерселер бар. 

    Программисттер коддорду түзүп, аларды программалык камсыздоо аркылуу иштеткенде, ML компьютерлерге үлгүлөрдү түшүнүүгө жана алдын ала айтууга мүмкүндүк берет. Чоң технология алгоритмдер объективдүү, анткени адамдын эмоциялары жана күтүүсүз таасири тийбейт деп ырастаса да, бул алгоритмдер эволюцияланып, өз эрежелерин жазып, каргашалуу натыйжаларга алып келиши мүмкүн. Бул алгоритмдер тарабынан түзүлгөн код көбүнчө татаал жана бүдөмүк болгондуктан, изилдөөчүлөргө же практиктерге алгоритмдин чечимдерин чечмелөө же алгоритмдин чечим кабыл алуу процессинде болушу мүмкүн болгон ар кандай бурмалоолорду аныктоо кыйынга турат. Бул жол тосуу чечимдерди кабыл алууда ушул алгоритмдерге таянган ишканалар үчүн олуттуу кыйынчылыктарды жаратышы мүмкүн, анткени алар ал чечимдердин себебин түшүнө албай же түшүндүрө алышпайт.

    Бузуучу таасир

    Franken-Алгоритмдери шылуун болуп кеткенде, бул өмүр менен өлүм маселеси болушу мүмкүн. Мисал катары 2018-жылы Аризона штатында өзүн-өзү башкарган унаа велосипед тээп бара жаткан аялды сүзүп, каза болгон кырсык болгон. Машинанын алгоритмдери анын адам экенин туура аныктай алган эмес. Эксперттер кырсыктын негизги себебин аныкташты — машина туура эмес программаланганбы жана алгоритм өз кызыкчылыгы үчүн өтө татаал болуп калганбы? Программисттер эмнеге макул боло алышат, бирок программалык камсыздоо компаниялары үчүн көзөмөл системасы — этика кодекси болушу керек. 

    Бирок, бул этика кодекси чоң технологиядан бир аз артка чегинүү менен келет, анткени алар маалыматтарды жана алгоритмдерди сатуу бизнеси менен алектенишет жана жөнгө салынууга же ачык-айкын болушун талап кыла алышпайт. Кошумчалай кетсек, ири технологиялык кызматкерлерди тынчсыздандырган акыркы окуя - бул, мисалы, Google менен АКШнын Коргоо министрлиги менен аскердик технологияга алгоритмдерди киргизүү үчүн, автономдуу учкучсуз учактар ​​сыяктуу, армияда алгоритмдердин көбөйүшү. Бул колдонмо кээ бир кызматкерлердин отставкага кетишине алып келди жана эксперттер алгоритмдерди өлтүрүүчү машиналар катары колдонуу үчүн дагы эле күтүүсүз болуп саналат деген кооптонуусун айтышты. 

    Дагы бир кооптонуу - Франкен-Алгоритмдери алар үйрөтүлгөн маалымат топтомдорунун аркасында бир тараптуулуктарды улантып, ал тургай күчөтүшү мүмкүн. Бул процесс ар кандай коомдук көйгөйлөргө, анын ичинде дискриминацияга, теңсиздикке жана мыйзамсыз камакка алууларга алып келиши мүмкүн. Бул жогорулаган тобокелдиктерден улам, көптөгөн технологиялык компаниялар алгоритмдерин кантип иштеп чыгуу, колдонуу жана көзөмөлдөө боюнча ачык-айкын болуу үчүн AI боюнча этикалык көрсөтмөлөрүн жарыялай башташты.

    Franken-Алгоритмдер үчүн кененирээк натыйжалар

    Franken-Алгоритмдер үчүн потенциалдуу кесепеттер төмөнкүлөрдү камтышы мүмкүн:

    • Чечимдерди кабыл ала турган жана адамдардын көзөмөлүсүз иш-аракеттерди жасай алган автономдуу системаларды өнүктүрүү, жоопкерчилик жана коопсуздук жөнүндө тынчсызданууну жаратат. Бирок, мындай алгоритмдер көпчүлүк тармактарда адамдын эмгегин автоматташтыра турган программалык камсыздоону жана робототехниканы иштеп чыгууга кеткен чыгымдарды азайтышы мүмкүн. 
    • Алгоритмдердин аскердик технологияны автоматташтыруу жана автономдуу курал-жарактарды жана транспорт каражаттарын кантип колдой аларын көбүрөөк карап чыгуу.
    • Алгоритмдин этика кодексин жана эрежелерин ишке ашыруу үчүн өкмөттөр жана тармактык лидерлер үчүн кысым күчөдү.
    • Franken-Алгоритмдери кээ бир демографиялык топторго, мисалы, аз камсыз болгон жамааттарга же азчылыктарга пропорционалдуу эмес таасир этет.
    • Франкен-Алгоритмдери чечим кабыл алууда дискриминацияны жана бир жактуулукту, мисалы, жалдоо жана кредиттөө чечимдерин улантып, күчөтүшү мүмкүн.
    • Бул алгоритмдер киберкылмышкерлер тарабынан системалардагы, өзгөчө каржы институттарындагы алсыздыктарды көзөмөлдөө жана пайдалануу үчүн колдонулат.
    • Саясий актерлор генеративдик AI системаларын колдонуу менен маркетинг кампанияларын автоматташтыруу үчүн жалган алгоритмдерди колдонуп, коомдук пикирге таасирин тийгизип, шайлоолорго таасир эте алат.

    Карала турган суроолор

    • Алгоритмдер келечекте кантип өнүгөт деп ойлойсуз?
    • Өкмөттөр жана компаниялар Franken-Алгоритмдерин көзөмөлдөө үчүн эмне кыла алышат?

    Insight шилтемелер

    Бул түшүнүк үчүн төмөнкү популярдуу жана институционалдык шилтемелер колдонулган: