Pojištění odpovědnosti za škodu způsobenou umělou inteligencí: Kdo by měl nést odpovědnost, když AI selže?

KREDIT OBRAZU:
Kredit
iStock

Pojištění odpovědnosti za škodu způsobenou umělou inteligencí: Kdo by měl nést odpovědnost, když AI selže?

POSTAVEN PRO FUTURISTU ZÍTRA

Quantumrun Trends Platform vám poskytne postřehy, nástroje a komunitu, abyste mohli prozkoumávat budoucí trendy a prosperovat z nich.

SPECIÁLNÍ NABÍDKA

5 USD ZA MĚSÍC

Pojištění odpovědnosti za škodu způsobenou umělou inteligencí: Kdo by měl nést odpovědnost, když AI selže?

Text podnadpisu
S tím, jak se technologie umělé inteligence stává sofistikovanější, jsou podniky stále více vystaveny riziku škod způsobených selháním strojového učení.
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • Srpna 5, 2022

    Shrnutí statistik

    Jak podniky integrují umělou inteligenci a strojové učení (AI/ML), objevují se specializované pojistné smlouvy, které řeší jedinečná rizika, jako je poškození dat a krádež modelů. Tyto zásady specifické pro AI/ML se liší od tradičního kybernetického pojištění a zaměřují se na problémy mimo selhání digitálního systému, jako je fyzické poškození způsobené umělou inteligencí. Rostoucí využívání umělé inteligence podněcuje nové právní rámce, specializované pracovní role a meziodvětvové standardy, které ovlivňují vše od ochrany spotřebitele po priority výzkumu umělé inteligence.

    Souvislosti pojištění odpovědnosti AI

    Firmy stále více integrují AI/ML do svých operací, což vede ke vzniku specializovaných pojistných smluv. Tyto zásady jsou navrženy tak, aby zmírnily rizika jedinečná pro aplikace AI a ML. I když jsou tato pojištění specifická pro AI/ML stále v počáteční fázi, stávají se nezbytnými, protože podniky rozšiřují používání těchto technologií. Přesné pokrytí těchto zásad ještě není plně definováno, ale očekává se, že budou řešit problémy, jako je poškození dat, krádeže duševního vlastnictví související s modely AI a ztráty způsobené nepřátelskými útoky.

    Mezi obecným kybernetickým pojištěním a pojištěním specifickým pro AI/ML je výrazný rozdíl. Tradiční kybernetické pojištění obvykle řeší selhání digitálního systému a zahrnuje aspekty, jako je narušení obchodní činnosti a závazky související s bezpečností informací a porušením soukromí. Pojištění specifické pro AI/ML se však zaměřuje na jedinečná rizika, která představuje používání technologií AI. Například obecné kybernetické pojištění nemusí pokrývat škody způsobené selháním systému AI, které způsobí fyzickou újmu nebo významné poškození značky.

    Případy, jako je nehoda samořídícího auta Uberu v Arizoně, která měla za následek smrt chodce, zdůrazňují potřebu specifického pokrytí AI. Tradiční kybernetické pojištění, které má kořeny v pojištění finančních linií, takové závazky často vylučuje. Podobně, když antivirový modul Blackberry Security založený na AI omylem identifikoval škodlivý ransomware jako neškodný, potenciální poškození značky z takového incidentu by obvykle nebylo kryto běžným kybernetickým pojištěním. 

    Rušivý dopad

    Systémy umělé inteligence nejsou dokonalé. Mohou například špatně identifikovat obličej nebo způsobit, že autonomní vozidlo narazí do jiného auta. Když k tomu dojde, lze říci, že systém AI je „zaujatý“ nebo „náchylný k chybám“. Takové potenciální chyby jsou důvodem, proč je důležité pochopit, jak AI funguje. Když se něco pokazí v systému AI, kdo je zodpovědný? Jsou to lidé, kteří vytvořili systém AI, nebo ti, kteří jej používali? Takové případy představují náročnou otázku v nově vznikající oblasti práva. Někdy je jasné, kdo za to může, a někdy ne. Kdo je například odpovědný za to, když je systém umělé inteligence použit k finančnímu rozhodnutí a přijde o peníze? Takové případy jsou případy, kdy pojištění AI/ML může pomoci identifikovat nebo objasnit závazky.

    Hodně se diskutuje o tom, jak bude AI zodpovědná za své činy. Někteří průmysloví analytici navrhují, aby AI získala právnickou osobu, aby mohla vlastnit věci a být žalována u soudu. Dalším návrhem je, aby vláda měla systém, v němž odborníci schvalují algoritmy (určitého rozsahu) před jejich veřejným použitím. Tyto týmy dohledu by mohly potenciálně zajistit, aby nové algoritmy komerčního nebo veřejného sektoru splňovaly specifické standardy. 

    Některé jurisdikce, jako jsou USA a Evropa, vydaly své vlastní předpisy specifické pro AI, které dohlížejí na to, jak může být AI zodpovědná. V USA platí zákon Fair Credit Reporting Act a Equal Credit Opportunity Act, které nyní zakazují klamavé a podvodné aktivity spojené s automatizovaným rozhodováním založeným na AI. Mezitím Evropská unie vydala v roce 2021 návrh zákona o umělé inteligenci, komplexního právního rámce zaměřeného na dohled nad vysoce rizikovými aplikacemi umělé inteligence. K udržení důvěry veřejnosti je navíc vyžadováno pojištění odpovědnosti za škodu způsobenou umělou inteligencí a může být vyžadováno provozovateli vysoce rizikových systémů umělé inteligence.

    Důsledky pojištění odpovědnosti AI 

    Širší důsledky pojištění odpovědnosti AI mohou zahrnovat:

    • Pojišťovny, které nabízejí rozsáhlé plány pojištění odpovědnosti za škodu způsobenou umělou inteligencí a mlčenlivostí, což vede k lepšímu řízení rizik pro vznikající technologie, jako jsou samořídící auta, umělá inteligence ve zdravotnictví a automatizované finanční systémy.
    • Vlády přijímají přesné zákony o odpovědnosti za AI, což má za následek přísnější předpisy pro zahraniční poskytovatele služeb AI a potenciálně vysoké pokuty pro nadnárodní společnosti v případě incidentů souvisejících s AI.
    • Firmy vytvářející specializované týmy pro dohled nad umělou inteligencí, zvyšující odpovědnost a bezpečnost při zavádění umělé inteligence prostřednictvím zapojení datových vědců, bezpečnostních expertů a manažerů rizik.
    • Vytváření meziodvětvových asociací za účelem stanovení standardů odpovědnosti za umělou inteligenci, přispívání k odpovědnému používání umělé inteligence a ovlivňování metrik životního prostředí, sociálních věcí a řízení (ESG) pro vedení investorů.
    • Větší skepse veřejnosti vůči AI, tažená významnými selháními AI, vedoucí k opatrnému přístupu k přijetí AI a požadavku na větší transparentnost operací AI.
    • Nárůst specializovaných právních praxí zaměřených na případy související s umělou inteligencí, které nabízejí odborné znalosti v orientaci ve složitosti technologie umělé inteligence a jejích dopadů na společnost.
    • Posílené rámce ochrany spotřebitelů pro řešení škod souvisejících s umělou inteligencí, zajištění spravedlivé kompenzace a práv pro jednotlivce postižené chybami nebo poruchami umělé inteligence.
    • Vývoj pracovních rolí a požadavků na dovednosti s rostoucí potřebou odborníků vyškolených v etice umělé inteligence, hodnocení rizik a dodržování právních předpisů.
    • Posun v prioritách výzkumu AI s důrazem na vývoj bezpečnějších a spolehlivějších systémů AI v reakci na zvýšené obavy z odpovědnosti a požadavky na pojištění.
    • Změny ve vzdělávacích a školicích programech umělé inteligence se zaměřením na etický vývoj umělé inteligence a řízení rizik s cílem připravit budoucí profesionály na vyvíjející se prostředí umělé inteligence a její důsledky.

    Otázky k zamyšlení

    • Kdo by podle vás měl nést odpovědnost za selhání systému AI?
    • Jak si myslíte, že by se pojišťovnictví přizpůsobilo rostoucím závazkům AI?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled:

    Harvardské obchodní právo Případ pro pojištění AI