AI TRiSM: Sigurimi që AI të mbetet etike

KREDI I IMAZHIT:
Kredia Image
iStock

AI TRiSM: Sigurimi që AI të mbetet etike

AI TRiSM: Sigurimi që AI të mbetet etike

Teksti i nëntitullit
Kompanive u kërkohet të krijojnë standarde dhe politika që përcaktojnë qartë kufijtë e inteligjencës artificiale.
    • Author:
    • Emri i autorit
      Parashikimi Kuantumrun
    • Tetor 20, 2023

    Përmbledhje e pasqyrës

    Në vitin 2022, firma kërkimore Gartner prezantoi AI TRiSM, që përfaqëson besimin, rrezikun dhe menaxhimin e sigurisë AI, për të siguruar qeverisjen dhe besueshmërinë e modeleve të AI. Korniza përbëhet nga pesë shtylla: shpjegueshmëria, operacionet e modelit, zbulimi i anomalive të të dhënave, rezistenca ndaj sulmeve kundërshtare dhe mbrojtja e të dhënave. Raporti thekson se menaxhimi i dobët i rreziqeve të AI mund të çojë në humbje të konsiderueshme dhe shkelje të sigurisë. Zbatimi i AI TRiSM kërkon një ekip ndërfunksional nga analitika ligjore, e pajtueshmërisë, IT dhe e të dhënave. Kuadri synon të ndërtojë një kulturë të "Inteligjencës Artificiale të Përgjegjshme", duke u fokusuar në shqetësimet etike dhe ligjore, dhe ka të ngjarë të ndikojë në tendencat e punësimit, rregulloret e qeverisë dhe konsideratat etike në AI.

    Konteksti i AI TRiSM

    Sipas Gartner, ekzistojnë pesë shtylla për AI TriSM: shpjegueshmëria, Operacionet e Modelit (ModelOps), zbulimi i anomalive të të dhënave, rezistenca ndaj sulmeve kundërshtare dhe mbrojtja e të dhënave. Bazuar në parashikimet e Gartner, organizatat që zbatojnë këto shtylla do të dëshmojnë një rritje prej 50 për qind në performancën e modelit të tyre të AI në lidhje me miratimin, objektivat e biznesit dhe pranimin e përdoruesve deri në vitin 2026. Për më tepër, makinat e fuqizuara nga AI do të përbëjnë 20 për qind të fuqisë punëtore në botë dhe të kontribuojë me 40 për qind të produktivitetit të përgjithshëm ekonomik deri në vitin 2028.

    Gjetjet e sondazhit të Gartner sugjerojnë se shumë organizata kanë zbatuar qindra ose mijëra modele të AI që drejtuesit e IT nuk mund t'i kuptojnë ose interpretojnë. Organizatat që nuk menaxhojnë në mënyrë adekuate rreziqet e lidhura me AI janë dukshëm më të prirura për t'u përballur me rezultate dhe shkelje të pafavorshme. Modelet mund të mos funksionojnë siç synohet, duke çuar në shkelje të sigurisë dhe privatësisë, dhe dëmtime financiare, individuale dhe reputacionin. Zbatimi i pasaktë i AI mund të bëjë që organizatat të marrin vendime të gabuara biznesi.

    Për të zbatuar me sukses AI TRiSM, kërkohet një ekip ndërfunksional i personelit ligjor, të pajtueshmërisë, sigurisë, IT-së dhe analitikës së të dhënave. Krijimi i një ekipi ose task force të dedikuar me përfaqësim të duhur nga çdo fushë biznesi e përfshirë në projektin e AI do të japë gjithashtu rezultate optimale. Është gjithashtu thelbësore të sigurohet që çdo anëtar i ekipit të kuptojë qartë rolet dhe përgjegjësitë e tyre, si dhe qëllimet dhe objektivat e nismës AI TRiSM.

    Ndikim shkatërrues

    Për ta bërë AI të sigurt, Gartner rekomandon disa hapa jetik. Së pari, organizatat duhet të kuptojnë rreziqet e mundshme që lidhen me AI dhe si t'i zbusin ato. Kjo përpjekje kërkon një vlerësim gjithëpërfshirës të rrezikut që merr parasysh jo vetëm vetë teknologjinë, por edhe ndikimin e saj te njerëzit, proceset dhe mjedisin.

    Së dyti, organizatat duhet të investojnë në qeverisjen e AI, e cila përfshin politika, procedura dhe kontrolle për menaxhimin e rreziqeve të AI. Kjo strategji përfshin sigurimin që sistemet e AI janë transparente, të shpjegueshme, të përgjegjshme dhe të jenë në përputhje me ligjet dhe rregulloret përkatëse. Për më tepër, monitorimi dhe auditimi i vazhdueshëm i modeleve të AI janë thelbësore për të identifikuar dhe zbutur çdo rrezik të mundshëm që mund të lindë me kalimin e kohës. Së fundi, organizatat duhet të zhvillojnë një kulturë të sigurisë së AI, duke promovuar ndërgjegjësimin, edukimin dhe trajnimin midis punonjësve dhe palëve të interesuara. Këta hapa përfshijnë trajnimin mbi përdorimin etik të AI, rreziqet që lidhen me AI dhe mënyrën e identifikimit dhe raportimit të çështjeve ose shqetësimeve. 

    Këto përpjekje ka të ngjarë të rezultojnë në më shumë kompani që të ndërtojnë departamentet e tyre Përgjegjëse të AI. Ky kuadër i qeverisjes në zhvillim trajton pengesat ligjore dhe etike që lidhen me AI duke dokumentuar se si organizatat i qasen atyre. Korniza dhe iniciativat e lidhura me të duan të eliminojnë paqartësitë për të parandaluar pasojat e padëshiruara negative. Parimet e një kuadri të përgjegjshëm të AI fokusohen në hartimin, zhvillimin dhe përdorimin e AI në mënyra që përfitojnë punonjësit, ofrojnë vlerë për klientët dhe ndikojnë pozitivisht në shoqëri.

    Implikimet e AI TRiSM

    Implikimet më të gjera të AI TRiSM mund të përfshijnë: 

    • Ndërsa AI TRiSM bëhet gjithnjë e më i rëndësishëm, kompanitë do të duhet të punësojnë punëtorë më të aftë që kanë njohuri në këtë fushë, siç janë analistët e sigurisë së AI, menaxherët e rrezikut dhe etikët.
    • Konsiderata të reja etike dhe morale, të tilla si nevoja për transparencë, drejtësi dhe llogaridhënie në përdorimin e sistemeve të AI.
    • Inovacione të shtuara me AI që janë të sigurta, të besueshme dhe të besueshme.
    • Rritja e presionit për rregullimin e qeverisë për të mbrojtur individët dhe organizatat nga rreziqet që lidhen me sistemet e AI.
    • Një fokus më i madh në sigurimin që sistemet e AI nuk janë të njëanshme ndaj grupeve ose individëve të veçantë.
    • Mundësi të reja për ata me aftësi të AI dhe potencialisht zhvendosje të atyre pa to.
    • Rritja e konsumit të energjisë dhe kapaciteti i ruajtjes së të dhënave për të dhënat e trajnimit të përditësuara vazhdimisht.
    • Më shumë kompani po gjobiten për mos adoptimin e standardeve globale të AI.

    Pyetje që duhen marrë parasysh

    • Nëse punoni në AI, si po i trajnon kompania juaj algoritmet e saj për të qenë etikë?
    • Cilat janë sfidat e ndërtimit të sistemeve të përgjegjshme të AI?

    Referencat e njohurive

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë pasqyrë: