Sigurimi i përgjegjësisë nga inteligjenca artificiale: Kush duhet të jetë përgjegjës kur AI dështon?

KREDI I IMAZHIT:
Kredia Image
iStock

Sigurimi i përgjegjësisë nga inteligjenca artificiale: Kush duhet të jetë përgjegjës kur AI dështon?

Sigurimi i përgjegjësisë nga inteligjenca artificiale: Kush duhet të jetë përgjegjës kur AI dështon?

Teksti i nëntitullit
Ndërsa teknologjia e AI bëhet më e sofistikuar, bizneset janë gjithnjë e më në rrezik për dëmet e shkaktuara nga dështimet e mësimit të makinerive.
    • Author:
    • Emri i autorit
      Parashikimi Kuantumrun
    • Gusht 5, 2022

    Përmbledhje e pasqyrës

    Ndërsa bizneset integrojnë inteligjencën artificiale dhe mësimin e makinerive (AI/ML), po shfaqen politika të specializuara sigurimi për të adresuar rreziqe unike si korrupsioni i të dhënave dhe vjedhja e modeleve. Këto politika specifike të AI/ML ndryshojnë nga sigurimet tradicionale kibernetike, duke synuar çështje përtej dështimeve të sistemit dixhital, siç është dëmtimi fizik i shkaktuar nga AI. Përdorimi në rritje i AI po nxit korniza të reja ligjore, role të specializuara të punës dhe standarde ndër-industriale, duke ndikuar në gjithçka, nga mbrojtja e konsumatorit deri te prioritetet e kërkimit të AI.

    Konteksti i sigurimit të përgjegjësisë së UA

    Bizneset po integrojnë gjithnjë e më shumë AI/ML në operacionet e tyre, duke çuar në shfaqjen e policave të specializuara të sigurimit. Këto politika janë krijuar për të zbutur rreziqet unike për aplikacionet e AI dhe ML. Ndërsa janë ende në fazat fillestare, këto politika sigurime specifike për AI/ML po bëhen thelbësore ndërsa bizneset zgjerojnë përdorimin e këtyre teknologjive. Mbulimi i saktë i këtyre politikave nuk është përcaktuar ende plotësisht, por ato pritet të trajtojnë çështje të tilla si korrupsioni i të dhënave, vjedhja e pronës intelektuale që lidhet me modelet e AI dhe humbjet nga sulmet kundërshtare.

    Ekziston një ndryshim i veçantë midis sigurimit të përgjithshëm kibernetik dhe sigurimit specifik të AI/ML. Sigurimi tradicional kibernetik zakonisht trajton dështimet e sistemit dixhital, duke përfshirë aspekte si ndërprerjet e funksionimit të biznesit dhe detyrimet që lidhen me sigurinë e informacionit dhe shkeljet e privatësisë. Megjithatë, sigurimi specifik për AI/ML fokusohet në rreziqet unike të paraqitura nga përdorimi i teknologjive të AI. Për shembull, sigurimi i përgjithshëm kibernetik mund të mos mbulojë dëmet nga dështimet e sistemit AI që shkaktojnë dëme fizike ose dëmtime të konsiderueshme të markës.

    Raste si aksidenti që përfshin makinën vetë-drejtuese të Uber në Arizona, i cili rezultoi në vdekjen e një këmbësori, nxjerr në pah nevojën për mbulim specifik të AI. Sigurimi tradicional kibernetik, i rrënjosur në sigurimin e linjës financiare, shpesh i përjashton këto detyrime. Në mënyrë të ngjashme, kur motori antivirus i bazuar në AI i Blackberry Security identifikoi gabimisht një ransomware të dëmshëm si të mirë, dëmtimi i mundshëm i markës nga një incident i tillë zakonisht nuk do të mbulohej nga sigurimet konvencionale kibernetike. 

    Ndikim shkatërrues

    Sistemet e inteligjencës artificiale nuk janë perfekte. Për shembull, ata mund të identifikojnë gabimisht një fytyrë ose të shkaktojnë që një automjet autonom të përplaset me një makinë tjetër. Kur kjo ndodh, mund të thuhet se sistemi i AI është "i njëanshëm" ose "i prirur ndaj gabimeve". Gabime të tilla të mundshme janë arsyeja pse është thelbësore të kuptohet se si funksionon AI. Kur diçka nuk shkon me një sistem AI, kush është përgjegjës? A janë njerëzit që krijuan sistemin AI apo ata që e përdorën atë? Raste të tilla paraqesin një pyetje sfiduese në një fushë të së drejtës në zhvillim. Ndonjëherë është e qartë se kush është përgjegjës, dhe ndonjëherë nuk është. Për shembull, kush është përgjegjës nëse një sistem AI përdoret për të marrë një vendim financiar dhe ai humbet para? Raste të tilla janë kur sigurimi i AI/ML mund të ndihmojë në identifikimin ose qartësimin e detyrimeve.

    Ka shumë diskutime se si AI do të mbahet përgjegjëse për veprimet e saj. Disa analistë të industrisë sugjerojnë që AI duhet t'i jepet person juridik në mënyrë që të mund të zotërojë gjëra dhe të paditet në gjykatë. Një propozim tjetër është që qeveria të ketë një sistem ku ekspertët miratojnë algoritme (të një shkalle të caktuar) përpara se ato të përdoren publikisht. Këto ekipe mbikëqyrëse mund të sigurojnë potencialisht që algoritmet e reja komerciale ose të sektorit publik të përmbushin standardet specifike. 

    Disa juridiksione, të tilla si SHBA dhe Evropa, kanë nxjerrë rregulloret e tyre specifike për AI që mbikëqyrin se si AI mund të bëhet përgjegjëse. SHBA ka Aktin e Raportimit të Drejtë të Kredisë dhe Aktin e Mundësive të Barabarta të Kredisë, të cilat tani ndalojnë aktivitetet mashtruese dhe mashtruese të lidhura me vendimmarrjen e automatizuar të fuqizuar nga AI. Ndërkohë, Bashkimi Evropian lëshoi ​​një propozim për Aktin e Inteligjencës Artificiale në 2021, një kuadër ligjor gjithëpërfshirës që fokusohet në mbikëqyrjen e aplikacioneve të AI me rrezik të lartë. Për më tepër, sigurimi i përgjegjësisë së AI kërkohet për të ruajtur besimin e publikut dhe mund të kërkohet nga operatorët e sistemeve të AI me rrezik të lartë.

    Implikimet e sigurimit të përgjegjësisë së AI 

    Implikimet më të gjera të sigurimit të përgjegjësisë së AI mund të përfshijnë:

    • Kompanitë e sigurimeve që ofrojnë plane të gjera sigurimi të përgjegjësisë AI/ML, duke çuar në përmirësimin e menaxhimit të rrezikut për teknologjitë në zhvillim si makinat vetëdrejtuese, AI në kujdesin shëndetësor dhe sistemet e automatizuara financiare.
    • Qeveritë miratojnë ligje të sakta për përgjegjësinë e AI, duke rezultuar në rregullore më të rrepta për ofruesit e huaj të shërbimeve të AI dhe gjoba potencialisht të majme për kompanitë shumëkombëshe në rast incidentesh të lidhura me AI.
    • Bizneset që krijojnë ekipe të dedikuara për mbikëqyrjen e AI, duke rritur përgjegjshmërinë dhe sigurinë në vendosjet e AI përmes përfshirjes së shkencëtarëve të të dhënave, ekspertëve të sigurisë dhe menaxherëve të rrezikut.
    • Formimi i shoqatave ndër-industriale për të vendosur standardet e përgjegjësisë së AI, duke kontribuar në përdorimin e përgjegjshëm të AI dhe duke ndikuar në metrikat mjedisore, sociale dhe të qeverisjes (ESG) për udhëzimin e investitorëve.
    • Rritja e skepticizmit publik ndaj AI, i nxitur nga dështimet e profilit të lartë të AI, duke çuar në një qasje të kujdesshme ndaj adoptimit të AI dhe kërkesës për transparencë më të madhe në operacionet e AI.
    • Një rritje e praktikave ligjore të specializuara të fokusuara në rastet e lidhura me AI, duke ofruar ekspertizë në navigimin e kompleksitetit të teknologjisë së AI dhe ndikimet e saj shoqërore.
    • Korniza të përmirësuara të mbrojtjes së konsumatorit për të adresuar dëmet e lidhura me AI, duke siguruar kompensim dhe të drejta të drejta për individët e prekur nga gabimet ose keqfunksionimet e AI.
    • Një evolucion në rolet e punës dhe kërkesat për aftësi, me një nevojë në rritje për profesionistë të trajnuar në etikën e AI, vlerësimin e rrezikut dhe pajtueshmërinë ligjore.
    • Një ndryshim në prioritetet e kërkimit të AI, duke theksuar zhvillimin e sistemeve më të sigurta dhe më të besueshme të AI në përgjigje të shqetësimeve në rritje të përgjegjësisë dhe kërkesave të sigurimit.
    • Ndryshimet në programet e edukimit dhe trajnimit të AI, duke u fokusuar në zhvillimin etik të AI dhe menaxhimin e rrezikut për të përgatitur profesionistët e ardhshëm për peizazhin në zhvillim të AI dhe implikimet e tij.

    Pyetje që duhen marrë parasysh

    • Kush mendoni se duhet të mbahet përgjegjës për dështimet e sistemit AI?
    • Si mendoni se industria e sigurimeve do të përshtatej me rritjen e detyrimeve të AI?

    Referencat e njohurive

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë pasqyrë:

    Ligji i Biznesit në Harvard Rasti për Sigurimin e AI