AI TRiSM: забеспячэнне таго, каб AI заставаўся этычным

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

AI TRiSM: забеспячэнне таго, каб AI заставаўся этычным

AI TRiSM: забеспячэнне таго, каб AI заставаўся этычным

Тэкст падзагалоўка
Кампаніям прапануецца стварыць стандарты і палітыку, якія дакладна вызначаюць межы штучнага інтэлекту.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Кастрычнік 20, 2023

    Кароткі агляд

    У 2022 годзе даследчая кампанія Gartner прадставіла AI TRiSM, што азначае AI Trust, Risk і Security Management, каб забяспечыць кіраванне і надзейнасць мадэляў AI. Фреймворк складаецца з пяці слупоў: тлумачальнасці, аперацый з мадэллю, выяўлення анамалій дадзеных, устойлівасці да нападаў суперніка і абароны даных. У справаздачы падкрэсліваецца, што дрэннае кіраванне рызыкамі штучнага інтэлекту можа прывесці да значных страт і парушэнняў бяспекі. Для ўкаранення AI TRiSM патрэбна шматфункцыянальная каманда з юрыдычных, аддзелаў адпаведнасці, ІТ і аналітыкі даных. Рамка накіравана на стварэнне культуры «адказнага штучнага інтэлекту» з упорам на этычныя і прававыя праблемы і, верагодна, паўплывае на тэндэнцыі найму, дзяржаўныя пастановы і этычныя меркаванні ў сферы штучнага інтэлекту.

    Кантэкст AI TRiSM

    Па словах Gartner, у AI TriSM ёсць пяць слупоў: тлумачальнасць, аперацыя мадэляў (ModelOps), выяўленне анамалій дадзеных, устойлівасць да спаборніцкіх атак і абарона даных. Згодна з прагнозамі Gartner, да 50 года арганізацыі, якія ўкараняюць гэтыя асноўныя прынцыпы, павялічаць прадукцыйнасць сваёй мадэлі штучнага інтэлекту на 2026 працэнтаў у залежнасці ад прыняцця, бізнес-мэтаў і прыняцця карыстальнікамі. Акрамя таго, машыны на базе штучнага інтэлекту будуць складаць 20 працэнтаў сусветнай працоўнай сілы. і ўнесці 40 працэнтаў у агульную прадукцыйнасць эканомікі да 2028 года.

    Вынікі апытання Gartner паказваюць, што многія арганізацыі ўкаранілі сотні ці тысячы мадэляў штучнага інтэлекту, якія ІТ-кіраўнікі не могуць зразумець або інтэрпрэтаваць. Арганізацыі, якія неадэкватна кіруюць рызыкамі, звязанымі з штучным інтэлектам, значна больш схільныя сутыкацца з неспрыяльнымі вынікамі і парушэннямі. Мадэлі могуць не працаваць належным чынам, што прывядзе да парушэнняў бяспекі і прыватнасці, а таксама да фінансавай, індывідуальнай і рэпутацыйнай шкоды. Недакладнае ўкараненне штучнага інтэлекту таксама можа прымусіць арганізацыі прымаць памылковыя бізнес-рашэнні.

    Для паспяховага ўкаранення AI TRiSM патрабуецца шматфункцыянальная каманда спецыялістаў па прававых пытаннях, адпаведнасці, бяспекі, ІТ і аналітыкі даных. Стварэнне спецыяльнай каманды або аператыўнай групы з належным прадстаўніцтвам кожнай сферы бізнесу, задзейнічанай у праекце штучнага інтэлекту, таксама дасць аптымальныя вынікі. Таксама важна пераканацца, што кожны член каманды дакладна разумее свае ролі і абавязкі, а таксама мэты і задачы ініцыятывы AI TRiSM.

    Разбуральнае ўздзеянне

    Каб зрабіць штучны інтэлект бяспечным, Gartner рэкамендуе некалькі жыццёва важных крокаў. Па-першае, арганізацыі павінны разумець патэнцыйныя рызыкі, звязаныя з штучным інтэлектам, і спосабы іх змякчэння. Гэтыя намаганні патрабуюць комплекснай ацэнкі рызыкі, якая ўлічвае не толькі саму тэхналогію, але і яе ўплыў на людзей, працэсы і навакольнае асяроддзе.

    Па-другое, арганізацыі павінны інвеставаць у кіраванне ІІ, якое ўключае палітыку, працэдуры і сродкі кантролю для кіравання рызыкамі ІІ. Гэтая стратэгія ўключае забеспячэнне таго, каб сістэмы штучнага інтэлекту былі празрыстымі, вытлумачальнымі, падсправаздачнымі і адпавядалі адпаведным законам і правілам. Акрамя таго, пастаянны маніторынг і аўдыт мадэляў штучнага інтэлекту маюць вырашальнае значэнне для выяўлення і змякчэння любых патэнцыйных рызык, якія могуць узнікнуць з часам. Нарэшце, арганізацыі павінны развіваць культуру бяспекі штучнага інтэлекту, прасоўваючы інфармаванасць, адукацыю і навучанне сярод супрацоўнікаў і зацікаўленых бакоў. Гэтыя крокі ўключаюць навучанне этычнаму выкарыстанню штучнага інтэлекту, рызыкі, звязаныя з штучным інтэлектам, а таксама тое, як выяўляць праблемы і праблемы і паведамляць пра іх. 

    Гэтыя намаганні, хутчэй за ўсё, прывядуць да таго, што больш кампаній будуць ствараць аддзелы адказнага штучнага інтэлекту. Гэтая новая структура кіравання вырашае прававыя і этычныя перашкоды, звязаныя з штучным інтэлектам, дакументуючы, як арганізацыі падыходзяць да іх. Структура і звязаныя з ёй ініцыятывы хочуць ліквідаваць двухсэнсоўнасць, каб прадухіліць непрадбачаныя негатыўныя наступствы. Прынцыпы структуры адказнага штучнага інтэлекту сканцэнтраваны на распрацоўцы, распрацоўцы і выкарыстанні штучнага інтэлекту такім чынам, каб прынесці карысць супрацоўнікам, забяспечыць каштоўнасць кліентам і станоўча паўплываць на грамадства.

    Наступствы AI TRiSM

    Больш шырокія наступствы AI TRiSM могуць уключаць: 

    • Паколькі AI TRiSM становіцца ўсё больш важным, кампаніям трэба будзе наймаць больш кваліфікаваных работнікаў, дасведчаных у гэтай галіне, такіх як аналітыкі бяспекі AI, менеджэры па рызыцы і спецыялісты па этыцы.
    • Новыя этычныя і маральныя меркаванні, такія як неабходнасць празрыстасці, справядлівасці і падсправаздачнасці пры выкарыстанні сістэм штучнага інтэлекту.
    • Бяспечныя, надзейныя і надзейныя інавацыі з дапаўненнем штучнага інтэлекту.
    • Узмацненне ціску з боку дзяржаўнага рэгулявання для абароны асоб і арганізацый ад рызык, звязаных з сістэмамі штучнага інтэлекту.
    • Большы акцэнт на забеспячэнні таго, каб сістэмы штучнага інтэлекту не прадузята ставіліся да пэўных груп або асоб.
    • Новыя магчымасці для тых, хто валодае навыкамі штучнага інтэлекту і патэнцыйна выцесняць тых, хто яго не мае.
    • Павялічанае спажыванне энергіі і ёмістасць захоўвання дадзеных для пастаянна абнаўляемых даных навучання.
    • Больш кампаній штрафуюць за непрыняцце глабальных стандартаў адказнага штучнага інтэлекту.

    Пытанні для разгляду

    • Калі вы працуеце ў сферы штучнага інтэлекту, як ваша кампанія навучае свае алгарытмы этыцы?
    • Якія праблемы ўзнікаюць пры стварэнні сістэм адказнага штучнага інтэлекту?