AI TRiSM៖ ធានាថា AI នៅតែមានក្រមសីលធម៌

ឥណទានរូបភាព៖
ឥណទានរូបភាព
iStock

AI TRiSM៖ ធានាថា AI នៅតែមានក្រមសីលធម៌

AI TRiSM៖ ធានាថា AI នៅតែមានក្រមសីលធម៌

អត្ថបទចំណងជើងរង
ក្រុមហ៊ុនត្រូវបានជំរុញឱ្យបង្កើតស្តង់ដារ និងគោលនយោបាយដែលកំណត់យ៉ាងច្បាស់នូវព្រំដែននៃបញ្ញាសិប្បនិម្មិត។
    • អ្នកនិពន្ធ:
    • ឈ្មោះអ្នកនិពន្ធ
      ការទស្សន៍ទាយ Quantumrun
    • ខែតុលា 20, 2023

    សង្ខេបការយល់ដឹង

    នៅឆ្នាំ 2022 ក្រុមហ៊ុនស្រាវជ្រាវ Gartner បានណែនាំ AI TRiSM ដែលឈរឈ្មោះឱ្យ AI Trust, Risk, and Security Management ដើម្បីធានាបាននូវអភិបាលកិច្ច និងភាពជឿជាក់នៃគំរូ AI ។ ក្របខ័ណ្ឌនេះមានសសរស្តម្ភចំនួនប្រាំ៖ ការពន្យល់ ប្រតិបត្តិការគំរូ ការរកឃើញភាពមិនប្រក្រតីនៃទិន្នន័យ ភាពធន់នឹងការវាយប្រហារពីសត្រូវ និងការការពារទិន្នន័យ។ របាយការណ៍នេះបានគូសបញ្ជាក់ថា ការគ្រប់គ្រងខ្សោយនៃហានិភ័យ AI អាចនាំឱ្យមានការខាតបង់យ៉ាងសំខាន់ និងការរំលោភលើសុវត្ថិភាព។ ការអនុវត្ត AI TRiSM តម្រូវឱ្យមានក្រុមឆ្លងមុខងារពីផ្នែកច្បាប់ ការអនុលោមតាម IT និងការវិភាគទិន្នន័យ។ ក្របខណ្ឌនេះមានគោលបំណងកសាងវប្បធម៌នៃ "AI ដែលមានទំនួលខុសត្រូវ" ដោយផ្តោតលើការបារម្ភអំពីក្រមសីលធម៌ និងផ្លូវច្បាប់ ហើយទំនងជាមានឥទ្ធិពលលើនិន្នាការជួល បទបញ្ជារបស់រដ្ឋាភិបាល និងការពិចារណាអំពីសីលធម៌នៅក្នុង AI ។

    បរិបទ AI TRiSM

    យោងតាមក្រុមហ៊ុន Gartner មានសសរស្តម្ភចំនួនប្រាំចំពោះ AI TriSM៖ ការពន្យល់ ប្រតិបត្តិការគំរូ (ModelOps) ការរកឃើញភាពមិនប្រក្រតីនៃទិន្នន័យ ការតស៊ូប្រឆាំងនឹងការវាយប្រហារ និងការការពារទិន្នន័យ។ ដោយផ្អែកលើការព្យាកររបស់ Gartner អង្គការដែលអនុវត្តសសរស្តម្ភទាំងនេះនឹងឃើញការជំរុញ 50 ភាគរយនៅក្នុងការអនុវត្តគំរូ AI របស់ពួកគេទាក់ទងនឹងការអនុម័ត គោលបំណងអាជីវកម្ម និងការទទួលយករបស់អ្នកប្រើប្រាស់នៅឆ្នាំ 2026។ លើសពីនេះ ម៉ាស៊ីនដែលដំណើរការដោយ AI នឹងបង្កើតបាន 20 ភាគរយនៃកម្លាំងការងាររបស់ពិភពលោក។ និងរួមចំណែក 40 ភាគរយនៃផលិតភាពសេដ្ឋកិច្ចសរុបនៅឆ្នាំ 2028 ។

    ការរកឃើញនៃការស្ទង់មតិរបស់ Gartner បង្ហាញថា អង្គការជាច្រើនបានអនុវត្តគំរូ AI រាប់រយ ឬរាប់ពាន់ ដែលនាយកប្រតិបត្តិ IT មិនអាចយល់ ឬបកស្រាយបាន។ អង្គការដែលមិនបានគ្រប់គ្រងឱ្យបានគ្រប់គ្រាន់នូវហានិភ័យដែលទាក់ទងនឹង AI គឺងាយនឹងជួបប្រទះនូវលទ្ធផលមិនអំណោយផល និងការបំពាន។ ម៉ូដែលអាចនឹងមិនដំណើរការដូចបំណង ដែលនាំឱ្យមានការបំពានលើសុវត្ថិភាព និងឯកជនភាព និងការខូចខាតផ្នែកហិរញ្ញវត្ថុ បុគ្គល និងកេរ្តិ៍ឈ្មោះ។ ការអនុវត្តមិនត្រឹមត្រូវនៃ AI ក៏អាចបណ្តាលឱ្យអង្គការធ្វើការសម្រេចចិត្តអាជីវកម្មខុសផងដែរ។

    ដើម្បីអនុវត្ត AI TRiSM ដោយជោគជ័យ ក្រុមឆ្លងមុខងារនៃផ្នែកច្បាប់ ការអនុលោមភាព សុវត្ថិភាព IT និងបុគ្គលិកវិភាគទិន្នន័យត្រូវបានទាមទារ។ ការបង្កើតក្រុមការងារ ឬក្រុមការងារដែលខិតខំប្រឹងប្រែងដោយមានតំណាងត្រឹមត្រូវពីផ្នែកអាជីវកម្មនីមួយៗដែលពាក់ព័ន្ធនឹងគម្រោង AI ក៏នឹងផ្តល់លទ្ធផលល្អបំផុតផងដែរ។ វាក៏ចាំបាច់ផងដែរក្នុងការធានាថាសមាជិកក្រុមនីមួយៗយល់យ៉ាងច្បាស់អំពីតួនាទី និងទំនួលខុសត្រូវរបស់ពួកគេ ក៏ដូចជាគោលដៅ និងគោលបំណងនៃគំនិតផ្តួចផ្តើម AI TRiSM ។

    ផលប៉ះពាល់រំខាន

    ដើម្បីធ្វើឱ្យ AI មានសុវត្ថិភាព Gartner ណែនាំជំហានសំខាន់ៗមួយចំនួន។ ទីមួយ អង្គការត្រូវស្វែងយល់ពីហានិភ័យដែលអាចកើតមានទាក់ទងនឹង AI និងវិធីកាត់បន្ថយពួកគេ។ កិច្ចខិតខំប្រឹងប្រែងនេះតម្រូវឱ្យមានការវាយតម្លៃហានិភ័យដ៏ទូលំទូលាយ ដែលគិតមិនត្រឹមតែពីបច្ចេកវិទ្យាខ្លួនឯងប៉ុណ្ណោះទេ ថែមទាំងប៉ះពាល់ដល់មនុស្ស ដំណើរការ និងបរិស្ថានផងដែរ។

    ទីពីរ អង្គការត្រូវវិនិយោគលើការគ្រប់គ្រង AI ដែលរួមមានគោលនយោបាយ នីតិវិធី និងការគ្រប់គ្រងសម្រាប់ការគ្រប់គ្រងហានិភ័យ AI ។ យុទ្ធសាស្ត្រនេះរួមបញ្ចូលទាំងការធានាថាប្រព័ន្ធ AI មានតម្លាភាព ពន្យល់បាន ទទួលខុសត្រូវ និងអនុលោមតាមច្បាប់ និងបទប្បញ្ញត្តិពាក់ព័ន្ធ។ លើសពីនេះ ការត្រួតពិនិត្យ និងសវនកម្មបន្តនៃគំរូ AI មានសារៈសំខាន់ណាស់ក្នុងការកំណត់អត្តសញ្ញាណ និងកាត់បន្ថយហានិភ័យដែលអាចកើតមានឡើងតាមពេលវេលា។ ជាចុងក្រោយ អង្គការត្រូវអភិវឌ្ឍវប្បធម៌នៃសុវត្ថិភាព AI ការលើកកម្ពស់ការយល់ដឹង ការអប់រំ និងការបណ្តុះបណ្តាលក្នុងចំណោមបុគ្គលិក និងអ្នកពាក់ព័ន្ធ។ ជំហានទាំងនេះរួមមានការបណ្តុះបណ្តាលលើការប្រើប្រាស់ប្រកបដោយក្រមសីលធម៌នៃ AI ហានិភ័យដែលទាក់ទងនឹង AI និងរបៀបកំណត់អត្តសញ្ញាណ និងរាយការណ៍អំពីបញ្ហា ឬកង្វល់។ 

    កិច្ចខិតខំប្រឹងប្រែងទាំងនេះទំនងជានឹងនាំឱ្យក្រុមហ៊ុនកាន់តែច្រើនបង្កើតនាយកដ្ឋាន AI ដែលមានទំនួលខុសត្រូវរបស់ពួកគេ។ ក្របខណ្ឌអភិបាលកិច្ចដែលកំពុងរីកចម្រើននេះដោះស្រាយឧបសគ្គផ្នែកច្បាប់ និងក្រមសីលធម៌ដែលទាក់ទងនឹង AI ដោយចងក្រងឯកសារអំពីរបៀបដែលអង្គការចូលទៅជិតពួកគេ។ ក្របខ័ណ្ឌ និងគំនិតផ្តួចផ្តើមដែលពាក់ព័ន្ធចង់លុបបំបាត់ភាពមិនច្បាស់លាស់ ដើម្បីការពារផលវិបាកអវិជ្ជមានដោយអចេតនា។ គោលការណ៍នៃក្របខ័ណ្ឌ AI ដែលមានទំនួលខុសត្រូវផ្តោតលើការរចនា ការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI តាមរបៀបដែលផ្តល់អត្ថប្រយោជន៍ដល់បុគ្គលិក ផ្តល់តម្លៃដល់អតិថិជន និងជះឥទ្ធិពលជាវិជ្ជមានដល់សង្គម។

    ផលប៉ះពាល់នៃ AI TRiSM

    ផលប៉ះពាល់កាន់តែទូលំទូលាយនៃ AI TRiSM អាចរួមមាន: 

    • នៅពេលដែល AI TRiSM កាន់តែមានសារៈសំខាន់ ក្រុមហ៊ុននឹងត្រូវជួលកម្មករដែលមានជំនាញបន្ថែមទៀតដែលមានចំណេះដឹងក្នុងវិស័យនេះ ដូចជាអ្នកវិភាគសុវត្ថិភាព AI អ្នកគ្រប់គ្រងហានិភ័យ និងអ្នកក្រមសីលធម៌។
    • ការពិចារណាអំពីសីលធម៌ និងសីលធម៌ថ្មី ដូចជាតម្រូវការសម្រាប់តម្លាភាព យុត្តិធម៌ និងគណនេយ្យភាពក្នុងការប្រើប្រាស់ប្រព័ន្ធ AI ។
    • ការច្នៃប្រឌិតបន្ថែមដោយ AI ដែលមានសុវត្ថិភាព គួរឱ្យទុកចិត្ត និងអាចទុកចិត្តបាន។
    • សម្ពាធកើនឡើងសម្រាប់បទប្បញ្ញត្តិរបស់រដ្ឋាភិបាលដើម្បីការពារបុគ្គល និងអង្គការពីហានិភ័យដែលទាក់ទងនឹងប្រព័ន្ធ AI ។
    • ការផ្តោតអារម្មណ៍កាន់តែខ្លាំងលើការធានាថាប្រព័ន្ធ AI មិនលំអៀងប្រឆាំងនឹងក្រុម ឬបុគ្គលជាក់លាក់។
    • ឱកាសថ្មីសម្រាប់អ្នកដែលមានជំនាញ AI និងសក្តានុពលក្នុងការផ្លាស់ទីលំនៅដោយគ្មានពួកគេ។
    • ការបង្កើនការប្រើប្រាស់ថាមពល និងសមត្ថភាពផ្ទុកទិន្នន័យសម្រាប់ទិន្នន័យបណ្តុះបណ្តាលដែលធ្វើបច្ចុប្បន្នភាពឥតឈប់ឈរ។
    • ក្រុមហ៊ុនជាច្រើនទៀតកំពុងត្រូវបានពិន័យសម្រាប់ការមិនទទួលយកស្តង់ដារ AI ដែលមានទំនួលខុសត្រូវជាសកល។

    សំណួរដែលត្រូវពិចារណា

    • ប្រសិនបើអ្នកធ្វើការនៅក្នុង AI តើក្រុមហ៊ុនរបស់អ្នកត្រូវបណ្តុះបណ្តាលក្បួនដោះស្រាយរបស់ខ្លួនយ៉ាងដូចម្តេច?
    • តើការកសាងប្រព័ន្ធ AI ដែលមានទំនួលខុសត្រូវមានអ្វីខ្លះ?