Ansvarsforsikring for kunstig intelligens: Hvem skal være ansvarlig, når AI svigter?

BILLEDKREDIT:
Image credit
iStock

Ansvarsforsikring for kunstig intelligens: Hvem skal være ansvarlig, når AI svigter?

Ansvarsforsikring for kunstig intelligens: Hvem skal være ansvarlig, når AI svigter?

Underoverskriftstekst
Efterhånden som AI-teknologien bliver mere sofistikeret, er virksomheder i stigende grad udsat for skader forårsaget af maskinlæringsfejl.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • August 5, 2022

    Oversigt over indsigt

    Efterhånden som virksomheder integrerer kunstig intelligens og maskinlæring (AI/ML), opstår der specialiserede forsikringspolicer for at imødegå unikke risici som datakorruption og modeltyveri. Disse AI/ML-specifikke politikker adskiller sig fra traditionelle cyberforsikringer, der er rettet mod problemer ud over digitale systemfejl, såsom AI-induceret fysisk skade. Den voksende brug af kunstig intelligens foranlediger nye juridiske rammer, specialiserede jobroller og standarder på tværs af brancher, hvilket påvirker alt fra forbrugerbeskyttelse til AI-forskningsprioriteter.

    AI-ansvarsforsikringssammenhæng

    Virksomheder integrerer i stigende grad AI/ML i deres drift, hvilket fører til fremkomsten af ​​specialiserede forsikringspolicer. Disse politikker er designet til at mindske risici, der er unikke for AI- og ML-applikationer. Mens de stadig er i begyndende stadier, bliver disse AI/ML-specifikke forsikringer essentielle, efterhånden som virksomheder udvider deres brug af disse teknologier. Den nøjagtige dækning af disse politikker er ikke fuldt defineret endnu, men de forventes at løse problemer som datakorruption, intellektuel ejendomstyveri relateret til AI-modeller og tab fra modstridende angreb.

    Der er en klar forskel mellem generel cyberforsikring og AI/ML-specifik forsikring. Traditionel cyberforsikring adresserer typisk digitale systemfejl, og omfatter aspekter som forretningsdriftsforstyrrelser og ansvar relateret til informationssikkerhed og brud på privatlivets fred. AI/ML-specifik forsikring fokuserer dog på de unikke risici, der er forbundet med brugen af ​​AI-teknologier. For eksempel dækker generel cyberforsikring muligvis ikke skader fra AI-systemfejl, der forårsager fysisk skade eller betydelig brandskade.

    Tilfælde som ulykken med Ubers selvkørende bil i Arizona, som resulterede i en fodgængers død, fremhæver behovet for AI-specifik dækning. Traditionel cyberforsikring, der er forankret i finansiel linjeforsikring, udelukker ofte sådanne forpligtelser. Tilsvarende, når Blackberry Securitys AI-baserede antivirusmotor fejlagtigt identificerede en skadelig ransomware som godartet, ville den potentielle brandskade fra en sådan hændelse typisk ikke være dækket af konventionel cyberforsikring. 

    Forstyrrende påvirkning

    Kunstige intelligenssystemer er ikke perfekte. For eksempel kan de fejlidentificere et ansigt eller få et selvkørende køretøj til at køre ind i en anden bil. Når dette sker, kan det siges, at AI-systemet er "biased" eller "fejltilbøjeligt." Sådanne potentielle fejl er grunden til, at det er afgørende at forstå, hvordan AI fungerer. Når noget går galt med et AI-system, hvem er så ansvarlig? Er det dem, der har lavet AI-systemet, eller dem, der brugte det? Sådanne sager repræsenterer et udfordrende spørgsmål inden for et spirende retsområde. Nogle gange er det klart, hvem der har ansvaret, og nogle gange er det ikke. For eksempel, hvem er ansvarlig, hvis et AI-system bruges til at træffe en økonomisk beslutning, og det taber penge? Sådanne tilfælde er, hvor AI/ML-forsikring kan hjælpe med at identificere eller afklare forpligtelser.

    Der er en masse diskussion om, hvordan AI vil blive holdt ansvarlig for sine handlinger. Nogle brancheanalytikere foreslår, at AI skal have status som juridisk person, så den kan eje ting og blive sagsøgt i retten. Et andet forslag er, at regeringen skal have et system, hvor eksperter godkender algoritmer (af en særlig skala), før de bruges offentligt. Disse tilsynshold kan potentielt sikre, at nye kommercielle eller offentlige algoritmer opfylder specifikke standarder. 

    Nogle jurisdiktioner, såsom USA og Europa, har udgivet deres egne AI-specifikke regler, der fører tilsyn med, hvordan AI kan gøres ansvarlig. USA har Fair Credit Reporting Act og Equal Credit Opportunity Act, som nu forbyder vildledende og svigagtige aktiviteter forbundet med AI-drevet automatiseret beslutningstagning. I mellemtiden udgav EU et forslag til Artificial Intelligence Act i 2021, en omfattende juridisk ramme, der fokuserer på tilsyn med højrisiko AI-applikationer. Derudover er AI-ansvarsforsikring påkrævet for at bevare offentlighedens tillid og kan være påkrævet af operatører af højrisiko AI-systemer.

    Implikationer af AI-ansvarsforsikring 

    Bredere konsekvenser af AI-ansvarsforsikring kan omfatte:

    • Forsikringsselskaber, der tilbyder omfattende AI/ML-ansvarsforsikringsplaner, hvilket fører til forbedret risikostyring for nye teknologier som selvkørende biler, AI i sundhedsvæsenet og automatiserede finansielle systemer.
    • Regeringer vedtager præcise AI-ansvarslove, hvilket resulterer i strengere regler for udenlandske AI-tjenesteudbydere og potentielt store bøder til multinationale virksomheder i tilfælde af AI-relaterede hændelser.
    • Virksomheder, der etablerer dedikerede teams til AI-tilsyn, øger ansvarlighed og sikkerhed i AI-implementeringer gennem inddragelse af dataforskere, sikkerhedseksperter og risikomanagere.
    • Dannelsen af ​​tværindustrielle foreninger for at fastsætte AI-ansvarsstandarder, der bidrager til ansvarlig AI-brug og påvirker miljømæssige, sociale og ledelsesmæssige (ESG)-metrikker til investorvejledning.
    • Øget offentlig skepsis over for AI, drevet af højprofilerede AI-fejl, hvilket fører til en forsigtig tilgang til AI-adoption og krav om større gennemsigtighed i AI-operationer.
    • En stigning i specialiseret juridisk praksis fokuseret på AI-relaterede sager, der tilbyder ekspertise i at navigere i kompleksiteten af ​​AI-teknologi og dens samfundsmæssige konsekvenser.
    • Forbedrede rammer for forbrugerbeskyttelse for at imødegå AI-relaterede skader, der sikrer rimelig kompensation og rettigheder til personer, der er berørt af AI-fejl eller -fejl.
    • En udvikling i jobroller og kvalifikationskrav med et voksende behov for fagfolk, der er uddannet i AI-etik, risikovurdering og lovoverholdelse.
    • Et skift i AI-forskningsprioriteter, der lægger vægt på udviklingen af ​​sikrere og mere pålidelige AI-systemer som reaktion på øgede ansvarsproblemer og forsikringskrav.
    • Ændringer i AI-uddannelses- og træningsprogrammer med fokus på etisk AI-udvikling og risikostyring for at forberede fremtidige fagfolk til det udviklende landskab af AI og dets implikationer.

    Spørgsmål at overveje

    • Hvem synes du skal holdes ansvarlig for AI-systemfejl?
    • Hvordan tror du, at forsikringsbranchen ville tilpasse sig stigende AI-forpligtelser?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt:

    Harvard erhvervsret Sagen om AI-forsikring