AI TRiSM: การรับรองว่า AI ยังคงมีจริยธรรม

เครดิตภาพ:
เครดิตภาพ
iStock

AI TRiSM: การรับรองว่า AI ยังคงมีจริยธรรม

AI TRiSM: การรับรองว่า AI ยังคงมีจริยธรรม

ข้อความหัวข้อย่อย
บริษัทต่างๆ ได้รับการกระตุ้นให้สร้างมาตรฐานและนโยบายที่กำหนดขอบเขตของปัญญาประดิษฐ์อย่างชัดเจน
    • เขียนโดย:
    • ชื่อผู้เขียน
      มองการณ์ไกลควอนตัมรัน
    • ตุลาคม 20, 2023

    สรุปข้อมูลเชิงลึก



    ในปี 2022 บริษัทวิจัย Gartner ได้เปิดตัว AI TRiSM ซึ่งย่อมาจาก AI Trust, Risk และ Security Management เพื่อให้มั่นใจในการกำกับดูแลและความน่าเชื่อถือของโมเดล AI กรอบงานประกอบด้วยห้าเสาหลัก: ความสามารถในการอธิบาย การดำเนินการของแบบจำลอง การตรวจจับความผิดปกติของข้อมูล การต้านทานการโจมตีของฝ่ายตรงข้าม และการปกป้องข้อมูล รายงานเน้นย้ำว่าการจัดการความเสี่ยงด้าน AI ที่ไม่ดีอาจนำไปสู่ความสูญเสียและการละเมิดความปลอดภัยได้อย่างมาก การใช้ AI TRiSM ต้องใช้ทีมงานข้ามสายงานจากฝ่ายกฎหมาย การปฏิบัติตามกฎระเบียบ ไอที และการวิเคราะห์ข้อมูล กรอบการทำงานนี้มีจุดมุ่งหมายเพื่อสร้างวัฒนธรรมของ "AI ที่มีความรับผิดชอบ" โดยมุ่งเน้นไปที่ข้อกังวลด้านจริยธรรมและกฎหมาย และมีแนวโน้มที่จะมีอิทธิพลต่อแนวโน้มการจ้างงาน กฎระเบียบของรัฐบาล และการพิจารณาด้านจริยธรรมใน AI



    บริบท AI TRiSM



    ตามข้อมูลของ Gartner AI TriSM มีห้าเสาหลัก ได้แก่ ความสามารถในการอธิบาย การดำเนินการของโมเดล (ModelOps) การตรวจจับความผิดปกติของข้อมูล การต้านทานการโจมตีของฝ่ายตรงข้าม และการปกป้องข้อมูล ตามการคาดการณ์ของ Gartner องค์กรต่างๆ ที่นำเสาหลักเหล่านี้ไปใช้จะเห็นการเพิ่มขึ้น 50 เปอร์เซ็นต์ในประสิทธิภาพของโมเดล AI ซึ่งเกี่ยวข้องกับการนำไปใช้ วัตถุประสงค์ทางธุรกิจ และการยอมรับของผู้ใช้ภายในปี 2026 นอกจากนี้ เครื่องจักรที่ขับเคลื่อนด้วย AI จะคิดเป็น 20 เปอร์เซ็นต์ของพนักงานทั่วโลก และมีส่วนสนับสนุนร้อยละ 40 ของผลิตภาพทางเศรษฐกิจโดยรวมภายในปี 2028



    ข้อค้นพบจากการสำรวจของ Gartner ชี้ให้เห็นว่าหลายองค์กรได้นำโมเดล AI นับร้อยหรือนับพันไปใช้ ซึ่งผู้บริหารด้านไอทีไม่สามารถเข้าใจหรือตีความได้ องค์กรที่ไม่ได้จัดการความเสี่ยงที่เกี่ยวข้องกับ AI อย่างเพียงพอ มีแนวโน้มที่จะเผชิญกับผลลัพธ์และการละเมิดที่ไม่เอื้ออำนวยอย่างมีนัยสำคัญ โมเดลอาจไม่ทำงานตามที่ตั้งใจ นำไปสู่การละเมิดความปลอดภัยและความเป็นส่วนตัว และความเสียหายทางการเงิน ส่วนบุคคล และชื่อเสียง การใช้งาน AI ที่ไม่ถูกต้องอาจทำให้องค์กรตัดสินใจทางธุรกิจผิดพลาดได้



    เพื่อให้การนำ AI TRiSM ไปใช้ได้อย่างประสบความสำเร็จนั้น จำเป็นต้องมีทีมงานข้ามสายงานซึ่งประกอบด้วยบุคลากรด้านกฎหมาย การปฏิบัติตามกฎระเบียบ ความปลอดภัย ไอที และการวิเคราะห์ข้อมูล การสร้างทีมหรือหน่วยงานเฉพาะกิจโดยมีตัวแทนที่เหมาะสมจากแต่ละพื้นที่ธุรกิจที่เกี่ยวข้องกับโครงการ AI จะให้ผลลัพธ์ที่ดีที่สุดเช่นกัน สิ่งสำคัญคือต้องแน่ใจว่าสมาชิกในทีมแต่ละคนเข้าใจบทบาทและความรับผิดชอบของตนอย่างชัดเจน รวมถึงเป้าหมายและวัตถุประสงค์ของโครงการริเริ่ม AI TRiSM



    ผลกระทบก่อกวน



    เพื่อให้ AI ปลอดภัย Gartner แนะนำขั้นตอนสำคัญหลายประการ ประการแรก องค์กรต่างๆ จำเป็นต้องเข้าใจความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับ AI และวิธีบรรเทาความเสี่ยงเหล่านั้น ความพยายามนี้จำเป็นต้องมีการประเมินความเสี่ยงที่ครอบคลุม ซึ่งไม่เพียงแต่พิจารณาถึงตัวเทคโนโลยีเท่านั้น แต่ยังรวมถึงผลกระทบต่อผู้คน กระบวนการ และสิ่งแวดล้อมด้วย



    ประการที่สอง องค์กรจำเป็นต้องลงทุนในการกำกับดูแลด้าน AI ซึ่งรวมถึงนโยบาย ขั้นตอน และการควบคุมเพื่อจัดการความเสี่ยงด้าน AI กลยุทธ์นี้รวมถึงการสร้างความมั่นใจว่าระบบ AI มีความโปร่งใส อธิบายได้ รับผิดชอบ และปฏิบัติตามกฎหมายและข้อบังคับที่เกี่ยวข้อง นอกจากนี้ การติดตามและตรวจสอบโมเดล AI อย่างต่อเนื่องยังมีความสำคัญอย่างยิ่งในการระบุและลดความเสี่ยงที่อาจเกิดขึ้นเมื่อเวลาผ่านไป สุดท้ายนี้ องค์กรจำเป็นต้องพัฒนาวัฒนธรรมด้านความปลอดภัยของ AI ส่งเสริมความตระหนักรู้ การศึกษา และการฝึกอบรมระหว่างพนักงานและผู้มีส่วนได้ส่วนเสีย ขั้นตอนเหล่านี้รวมถึงการฝึกอบรมเกี่ยวกับการใช้ AI อย่างมีจริยธรรม ความเสี่ยงที่เกี่ยวข้องกับ AI และวิธีการระบุและรายงานปัญหาหรือข้อกังวล 



    ความพยายามเหล่านี้มีแนวโน้มที่จะส่งผลให้บริษัทต่างๆ จำนวนมากสร้างแผนก AI ที่รับผิดชอบของตน กรอบการกำกับดูแลที่เกิดขึ้นใหม่นี้จัดการกับอุปสรรคทางกฎหมายและจริยธรรมที่เกี่ยวข้องกับ AI โดยบันทึกว่าองค์กรต่างๆ จัดการกับอุปสรรคเหล่านี้อย่างไร กรอบการทำงานและความคิดริเริ่มที่เกี่ยวข้องต้องการขจัดความคลุมเครือเพื่อป้องกันผลกระทบด้านลบที่ไม่ได้ตั้งใจ หลักการของกรอบงาน AI ที่มีความรับผิดชอบมุ่งเน้นไปที่การออกแบบ การพัฒนา และการใช้ AI ในรูปแบบที่เป็นประโยชน์ต่อพนักงาน ให้คุณค่าแก่ลูกค้า และสร้างผลกระทบเชิงบวกต่อสังคม



    ผลกระทบของ AI TRiSM



    ผลกระทบที่กว้างขึ้นของ AI TRiSM อาจรวมถึง: 




    • เนื่องจาก AI TRiSM มีความสำคัญมากขึ้น บริษัทต่างๆ จะต้องจ้างพนักงานที่มีทักษะและมีความรู้ในสาขานี้มากขึ้น เช่น นักวิเคราะห์ความปลอดภัยของ AI ผู้จัดการความเสี่ยง และนักจริยธรรม

    • ข้อควรพิจารณาใหม่ๆ ด้านจริยธรรมและศีลธรรม เช่น ความต้องการความโปร่งใส ความยุติธรรม และความรับผิดชอบในการใช้ระบบ AI

    • นวัตกรรมเสริม AI ที่ปลอดภัย เชื่อถือได้ และเชื่อถือได้

    • เพิ่มแรงกดดันต่อกฎระเบียบของรัฐบาลเพื่อปกป้องบุคคลและองค์กรจากความเสี่ยงที่เกี่ยวข้องกับระบบ AI

    • การมุ่งเน้นที่มากขึ้นในการรับรองว่าระบบ AI จะไม่ลำเอียงต่อกลุ่มหรือบุคคลใดกลุ่มหนึ่งโดยเฉพาะ

    • โอกาสใหม่สำหรับผู้ที่มีทักษะด้าน AI และอาจเข้ามาแทนที่ผู้ที่ไม่มีทักษะเหล่านี้

    • เพิ่มการใช้พลังงานและความจุในการจัดเก็บข้อมูลสำหรับข้อมูลการฝึกอบรมที่อัปเดตอย่างต่อเนื่อง

    • บริษัทหลายแห่งถูกปรับเนื่องจากไม่นำมาตรฐาน Responsible AI ระดับโลกมาใช้



    คำถามที่ต้องพิจารณา




    • หากคุณทำงานใน AI บริษัทของคุณจะฝึกอบรมอัลกอริธึมให้มีจริยธรรมอย่างไร

    • อะไรคือความท้าทายในการสร้างระบบ AI ที่มีความรับผิดชอบ?