AI TRISM: Annak biztosítása, hogy a mesterséges intelligencia etikus maradjon

KÉP HITEL:
Kép hitel
iStock

AI TRISM: Annak biztosítása, hogy a mesterséges intelligencia etikus maradjon

AI TRISM: Annak biztosítása, hogy a mesterséges intelligencia etikus maradjon

Alcím szövege
A vállalatokat arra kérik, hogy hozzanak létre olyan szabványokat és irányelveket, amelyek egyértelműen meghatározzák a mesterséges intelligencia határait.
    • Szerző:
    • Szerző neve
      Quantumrun Foresight
    • Október 20, 2023

    Insight összefoglaló

    2022-ben a Gartner kutatócég bevezette az AI TRiSM-et, az AI Trust, Risk and Security Management rövidítése, hogy biztosítsa az AI-modellek irányítását és megbízhatóságát. A keretrendszer öt pillérből áll: magyarázhatóság, modellműveletek, adatrendellenességek észlelése, ellenséges támadásokkal szembeni ellenállás és adatvédelem. A jelentés kiemeli, hogy a mesterséges intelligencia kockázatainak rossz kezelése jelentős veszteségekhez és biztonsági megsértésekhez vezethet. Az AI TRISM megvalósításához többfunkciós, jogi, megfelelőségi, informatikai és adatelemzési csapatra van szükség. A keretrendszer célja a „Felelős AI” kultúrájának felépítése, amely az etikai és jogi szempontokra összpontosít, és valószínűleg befolyásolja a munkaerő-felvételi trendeket, a kormányzati szabályozásokat és az AI etikai szempontjait.

    AI TRISM kontextus

    A Gartner szerint az AI TriSM-nek öt pillére van: magyarázhatóság, modellműveletek (ModelOps), adatrendellenességek észlelése, ellenséges támadásokkal szembeni ellenállás és adatvédelem. A Gartner előrejelzései alapján az ezeket a pilléreket megvalósító szervezetek 50-ra 2026 százalékos növekedést fognak tapasztalni mesterséges intelligencia modelljeik teljesítményében az elfogadás, az üzleti célkitűzések és a felhasználók elfogadása tekintetében. Ezen túlmenően a mesterséges intelligencia által hajtott gépek a világ munkaerő-állományának 20 százalékát teszik ki. és 40-ra a teljes gazdasági termelékenység 2028 százalékával járul hozzá.

    A Gartner felmérésének eredményei arra utalnak, hogy sok szervezet több száz vagy több ezer mesterségesintelligencia-modellt implementált, amelyeket az IT-vezetők nem képesek felfogni vagy értelmezni. Azok a szervezetek, amelyek nem kezelik megfelelően az AI-val kapcsolatos kockázatokat, lényegesen hajlamosabbak a kedvezőtlen kimenetelekre és jogsértésekre. Előfordulhat, hogy a modellek nem működnek rendeltetésszerűen, ami a biztonság és az adatvédelem megsértéséhez, valamint pénzügyi, személyi és jó hírnévi károkhoz vezethet. Az AI pontatlan megvalósítása téves üzleti döntéseket is okozhat a szervezetekben.

    Az AI TRISM sikeres megvalósításához egy többfunkciós, jogi, megfelelőségi, biztonsági, informatikai és adatelemző személyzetből álló csapatra van szükség. Az AI-projektben részt vevő minden egyes üzleti terület megfelelő képviseletével rendelkező, dedikált csapat vagy munkacsoport létrehozása szintén optimális eredményeket hoz. Fontos annak biztosítása is, hogy minden csapattag világosan megértse szerepkörét és felelősségét, valamint az AI TRISM kezdeményezés céljait és célkitűzéseit.

    Bomlasztó hatás

    Az AI biztonságossá tétele érdekében a Gartner néhány létfontosságú lépést javasol. Először is, a szervezeteknek fel kell ismerniük az AI-val kapcsolatos lehetséges kockázatokat, és azt, hogyan mérsékelhetik azokat. Ez az erőfeszítés átfogó kockázatértékelést igényel, amely nemcsak magát a technológiát veszi figyelembe, hanem annak az emberekre, folyamatokra és a környezetre gyakorolt ​​hatását is.

    Másodszor, a szervezeteknek be kell fektetniük a mesterséges intelligencia irányításába, amely magában foglalja az AI-kockázatok kezelésére vonatkozó irányelveket, eljárásokat és ellenőrzéseket. Ez a stratégia magában foglalja annak biztosítását, hogy az AI-rendszerek átláthatóak, magyarázhatók, elszámoltathatók legyenek, és megfeleljenek a vonatkozó törvényeknek és előírásoknak. Ezenkívül az AI-modellek folyamatos nyomon követése és auditálása kulcsfontosságú az idő múlásával esetlegesen felmerülő esetleges kockázatok azonosításához és mérsékléséhez. Végül a szervezeteknek ki kell alakítaniuk a mesterséges intelligencia biztonságának kultúráját, előmozdítva a tudatosságot, az oktatást és a képzést az alkalmazottak és az érdekelt felek körében. Ezek a lépések magukban foglalják a mesterséges intelligencia etikus használatáról, az AI-val kapcsolatos kockázatokról, valamint a problémák vagy aggályok azonosításának és jelentésének módjáról szóló képzést. 

    Ezek az erőfeszítések valószínűleg azt eredményezik, hogy több vállalat építi fel a felelős AI részlegét. Ez a kialakulóban lévő irányítási keret az MI-vel kapcsolatos jogi és etikai akadályokat kezeli azáltal, hogy dokumentálja, hogyan viszonyulnak hozzájuk a szervezetek. A keretrendszer és a kapcsolódó kezdeményezések a kétértelműséget kívánják megszüntetni, hogy megelőzzék a nem kívánt negatív következményeket. A Responsible AI keretrendszer alapelvei a mesterséges intelligencia tervezésére, fejlesztésére és használatára összpontosítanak oly módon, hogy az előnyökkel járjon az alkalmazottaknak, értéket biztosítson az ügyfeleknek, és pozitív hatással legyen a társadalomra.

    Az AI TRISM következményei

    Az AI TRISM tágabb vonatkozásai a következők lehetnek: 

    • Ahogy az AI TRISM egyre fontosabbá válik, a vállalatoknak több, ezen a területen jártas szakembert kell alkalmazniuk, például AI biztonsági elemzőket, kockázatkezelőket és etikusokat.
    • Új etikai és morális megfontolások, mint például az átláthatóság, a méltányosság és az elszámoltathatóság szükségessége az AI-rendszerek használatában.
    • MI-vel kiegészített innovációk, amelyek biztonságosak, megbízhatóak és megbízhatóak.
    • Fokozott nyomás nehezedik a kormány szabályozására, hogy megvédje az egyéneket és a szervezeteket az AI-rendszerekkel kapcsolatos kockázatoktól.
    • Nagyobb hangsúly annak biztosítására, hogy az AI-rendszerek ne legyenek elfogultak bizonyos csoportokkal vagy egyénekkel szemben.
    • Új lehetőségek azok számára, akik rendelkeznek mesterséges intelligencia-készségekkel, és potenciálisan kiszoríthatják azokat, akik nem rendelkeznek ilyen ismeretekkel.
    • Megnövelt energiafogyasztás és adattárolási kapacitás a folyamatosan frissített edzésadatokhoz.
    • Egyre több vállalatot szabtak ki pénzbírságra azért, mert nem alkalmazzák a felelős mesterséges intelligencia globális szabványait.

    Megfontolandó kérdések

    • Ha Ön mesterséges intelligenciával foglalkozik, hogyan tanítja a vállalata az algoritmusait etikusra?
    • Milyen kihívások elé állítja a felelős AI-rendszereket?

    Insight hivatkozások

    A következő népszerű és intézményi hivatkozásokra hivatkoztunk ehhez a betekintéshez: