Assicuranza di responsabilità per l'Intelligenza Artificiale: Quale deve esse rispunsevule quandu l'AI fallisce?

CREDITU IMAGE:
Image credit
iStock

Assicuranza di responsabilità per l'Intelligenza Artificiale: Quale deve esse rispunsevule quandu l'AI fallisce?

Assicuranza di responsabilità per l'Intelligenza Artificiale: Quale deve esse rispunsevule quandu l'AI fallisce?

Testu di sottotitulu
Siccomu a tecnulugia AI diventa più sofisticata, l'imprese sò sempre più in risicu di danni causati da fallimenti di l'apprendimentu automaticu.
    • Author:
    • Nome di l'autore
      Quantumrun Foresight
    • August 5, 2022

    Riassuntu insight

    Cume l'imprese integranu l'intelligenza artificiale è l'apprendimentu automaticu (AI / ML), emergenu polizze d'assicuranza specializate per affruntà risichi unichi cum'è a corruzzione di dati è u furtu di mudelli. Queste pulitiche specifiche AI ​​/ ML differiscenu da l'assicuranza cibernetica tradiziunale, chì miranu à prublemi oltre i fallimenti di u sistema digitale, cum'è u dannu fisicu indottu da l'AI. L'usu crescente di l'IA induce novi quadri legali, ruoli di travagliu specializati è standard intersettoriali, influenzendu tuttu, da a prutezzione di i cunsumatori à e priorità di ricerca AI.

    Cuntestu di l'assicuranza di responsabilità AI

    L'imprese integranu sempre più l'AI / ML in e so operazioni, purtendu à l'emergenza di polizze d'assicuranza specializate. Queste pulitiche sò pensate per mitigà i risichi unichi per l'applicazioni AI è ML. Mentre sò sempre in fasi nascenti, queste polizze d'assicuranza specifiche à l'AI / ML sò diventate essenziali cum'è l'imprese allarganu u so usu di sti tecnulugia. A cobertura esatta di sti pulitiche ùn hè micca definitu cumplettamente, ma sò previsti per affruntà prublemi cum'è a corruzzione di dati, u furtu di pruprietà intellettuale in relazione à i mudelli AI, è pèrdite da attacchi avversari.

    Il y a une différence distincte entre l'assurance cibernétique générale et l'assurance spécifique à l'IA/ML. L'assicuranza cibernetica tradiziunale tipicamente affronta i fallimenti di u sistema digitale, cumprendendu aspetti cum'è l'interruzioni di l'operazione di l'affari, è i passivi ligati à a sicurezza di l'infurmazioni è a violazione di a privacy. Tuttavia, l'assicuranza specifica AI/ML si focalizeghja nantu à i risichi unichi posti da l'usu di e tecnulugia AI. Per esempiu, l'assicuranza cibernetica generale ùn pò micca copre i danni da i fallimenti di u sistema AI chì causanu dannu fisicu o dannu significativu di marca.

    Casi cum'è l'accidentu chì implicava a vittura autònuma di Uber in Arizona, chì hà risultatu in a morte di un pedone, mette in risaltu a necessità di una cobertura specifica per l'IA. L'assicuranza cibernetica tradiziunale, arradicata in l'assicuranza di linea finanziaria, spessu esclude tali passività. In listessu modu, quandu u mutore antivirus basatu in AI di Blackberry Security hà identificatu erroneamente un ransomware dannosu cum'è benignu, u dannu potenziale di a marca da un tali incidente ùn hè micca tipicamente coperto da l'assicuranza cibernetica convenzionale. 

    Impact disruptive

    I sistemi di intelligenza artificiale ùn sò micca perfetti. Per esempiu, puderanu misidentificà una faccia o pruvucà un veiculu autonomu à sbattà in un altru vittura. Quandu succede questu, si pò dì chì u sistema AI hè "biased" o "propensu à l'errore". Tali errori potenziali sò per quessa chì hè cruciale per capisce cumu funziona l'AI. Quandu qualcosa va male cù un sistema AI, quale hè rispunsevule? Hè a ghjente chì hà fattu u sistema AI o quelli chì l'anu utilizatu? Tali casi rapprisentanu una quistione sfida in un campu emergente di u dirittu. A volte hè chjaru quale hè rispunsevuli, è à volte ùn hè micca. Per esempiu, quale hè rispunsevule se un sistema AI hè utilizatu per piglià una decisione finanziaria è perde soldi? Tali casi sò induve l'assicuranza AI / ML pò aiutà à identificà o chjarificà i passivi.

    Ci hè assai discussione nantu à cumu l'AI serà rispunsevuli di e so azzioni. Certi analisti di l'industria suggerenu chì l'AI deve esse datu a persona giuridica per pudè pussede e cose è esse demandatu in tribunale. Una altra pruposta hè per u guvernu per avè un sistema induve l'esperti appruvanu algoritmi (di una scala particulare) prima ch'elli sò usati publicamente. Queste squadre di sorveglianza puderanu assicurà chì i novi algoritmi di u settore cummerciale o publicu rispondenu à standard specifichi. 

    Alcune ghjuridizione, cum'è i Stati Uniti è l'Europa, anu liberatu i so propri regulamenti specifichi di l'AI chì surveghjanu cumu l'AI pò esse rispunsevuli. I Stati Uniti anu u Fair Credit Reporting Act è l'Equal Credit Opportunity Act, chì avà pruibisce l'attività ingannevoli è fraudulente cunnesse à a decisione automatizata alimentata da AI. Intantu, l'Unione Europea hà publicatu una pruposta per l'Attu di l'Intelligenza Artificiale in 2021, un quadru legale cumpletu focalizatu in a supervisione di l'applicazioni AI à altu risicu. Inoltre, l'assicuranza di responsabilità AI hè necessaria per mantene a fiducia di u publicu è pò esse dumandata da l'operatori di sistemi AI à altu risicu.

    Implicazioni di l'assicuranza di responsabilità AI 

    Implicazioni più larghe di l'assicuranza di responsabilità AI pò include:

    • Cumpagnie d'assicuranza chì offrenu piani d'assicuranza di responsabilità AI / ML estensivi, chì portanu à una gestione di risichi migliurati per e tecnulugia emergenti cum'è e vitture autònuma, l'AI in a salute è i sistemi finanziarii automatizati.
    • Les gouvernements promulguent des lois précises sur la responsabilité de l'IA, ce qui se traduit par des réglementations plus rigoureuses pour les fournisseurs de services d'IA étrangers et des amendes potentiellement lourdes pour les entreprises multinationales en cas d'incidents liés à l'IA.
    • L'imprese chì stabiliscenu squadre dedicate per a supervisione di l'IA, rinfurzendu a responsabilità è a sicurità in l'implementazione di l'IA attraversu l'implicazione di scientifichi di dati, esperti di sicurezza è gestori di risichi.
    • A furmazione di associazioni intersettoriali per stabilisce norme di responsabilità AI, cuntribuiscenu à l'usu rispunsevule di l'AI è influenzendu e metriche ambientali, suciale è di guvernanza (ESG) per a guida di l'investitori.
    • Un scepticisme public accru à l'égard de l'IA, motivé par des échecs de l'IA de haut niveau, qui conduit à une approche prudente vers l'adoption de l'IA et à la demande d'une plus grande trasparenza dans les opérations d'IA.
    • Un aumentu di e pratiche legali specializate cuncentrate nantu à i casi ligati à l'IA, chì offre una sperienza in a navigazione in e cumplessità di a tecnulugia AI è i so impatti suciali.
    • Quadri di prutezzione di i cunsumatori rinfurzati per affruntà i danni legati à l'IA, assicurendu una compensazione giusta è i diritti per l'individui affettati da errori o malfunzionamenti di l'IA.
    • Un'evoluzione in i ruoli di u travagliu è i requisiti di cumpetenze, cù una esigenza crescente di prufessiunali furmati in l'etica di l'IA, a valutazione di risichi è u rispettu legale.
    • Un cambiamentu in e priorità di ricerca di l'AI, enfatizendu u sviluppu di sistemi AI più sicuri è più affidabili in risposta à l'aumentu di i prublemi di responsabilità è di i requisiti d'assicuranza.
    • Cambiamenti in i prugrammi di educazione è furmazione in AI, cuncintrati in u sviluppu eticu di l'IA è a gestione di i risichi per preparà futuri prufessiunali per u paisaghju in evoluzione di l'IA è e so implicazioni.

    Dumande da cunsiderà

    • Quale pensate chì deve esse ritenutu rispunsevule per i fallimenti di u sistema AI?
    • Cumu pensate chì l'industria di l'assicuranza s'adattà à l'aumentu di i passivi AI?

    Referenze insight

    I seguenti ligami populari è istituzionali sò stati riferiti per questa intuizione:

    Legge di l'affari di Harvard U casu per l'assicuranza AI