การจัดตำแหน่ง AI: การจับคู่เป้าหมายปัญญาประดิษฐ์ให้ตรงกับคุณค่าของมนุษย์

เครดิตภาพ:
เครดิตภาพ
iStock

การจัดตำแหน่ง AI: การจับคู่เป้าหมายปัญญาประดิษฐ์ให้ตรงกับคุณค่าของมนุษย์

การจัดตำแหน่ง AI: การจับคู่เป้าหมายปัญญาประดิษฐ์ให้ตรงกับคุณค่าของมนุษย์

ข้อความหัวข้อย่อย
นักวิจัยบางคนเชื่อว่าควรใช้มาตรการเพื่อให้แน่ใจว่าปัญญาประดิษฐ์ไม่เป็นอันตรายต่อสังคม
    • เขียนโดย:
    • ชื่อผู้เขียน
      มองการณ์ไกลควอนตัมรัน
    • January 25, 2023

    การจัดตำแหน่งปัญญาประดิษฐ์ (AI) คือเมื่อเป้าหมายของระบบ AI ตรงกับคุณค่าของมนุษย์ บริษัทต่างๆ เช่น OpenAI, DeepMind และ Anthropic มีทีมนักวิจัยที่มุ่งเน้นศึกษาแนวป้องกันสำหรับสถานการณ์ต่างๆ ที่อาจเกิดขึ้น

    บริบทการจัดตำแหน่ง AI

    จากการศึกษาวิจัยของมหาวิทยาลัยคอร์เนลในปี 2021 งานวิจัยหลายชิ้นแสดงให้เห็นว่าเครื่องมือหรือแบบจำลองที่สร้างขึ้นโดยอัลกอริทึมแสดงอคติที่มาจากข้อมูลที่ได้รับการฝึกฝน ตัวอย่างเช่น ในการประมวลผลภาษาธรรมชาติ (NLP) แบบจำลอง NLP ที่ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลที่จำกัดได้รับการจัดทำเป็นเอกสารเพื่อคาดคะเนโดยอิงจากแบบแผนทางเพศที่เป็นอันตรายต่อผู้หญิง ในทำนองเดียวกัน การศึกษาอื่น ๆ พบว่าอัลกอริทึมที่ได้รับการฝึกฝนในชุดข้อมูลที่ถูกดัดแปลงส่งผลให้เกิดคำแนะนำที่มีอคติทางเชื้อชาติ โดยเฉพาะอย่างยิ่งในการตรวจรักษา

    มีตัวอย่างมากมายที่ระบบแมชชีนเลิร์นนิงทำได้แย่กว่าสำหรับชนกลุ่มน้อยหรือกลุ่มที่เสียเปรียบหลายประการ โดยเฉพาะอย่างยิ่ง การวิเคราะห์ใบหน้าแบบอัตโนมัติและการวินิจฉัยด้านสุขภาพมักจะไม่ได้ผลดีนักสำหรับผู้หญิงและคนผิวสี เมื่อระบบที่สำคัญซึ่งควรอิงตามข้อเท็จจริงและตรรกะแทนที่จะใช้อารมณ์ถูกนำมาใช้ในบริบทต่างๆ เช่น การจัดสรรการรักษาพยาบาลหรือการศึกษา ระบบเหล่านี้สามารถสร้างความเสียหายได้มากขึ้นโดยทำให้ยากต่อการระบุเหตุผลที่อยู่เบื้องหลังคำแนะนำเหล่านี้

    ด้วยเหตุนี้ บริษัทเทคโนโลยีจึงสร้างทีมจัดแนว AI เพื่อมุ่งเน้นการรักษาอัลกอริทึมอย่างยุติธรรมและมีมนุษยธรรม การวิจัยมีความสำคัญต่อการทำความเข้าใจทิศทางของระบบ AI ขั้นสูง รวมถึงความท้าทายที่เราอาจเผชิญเมื่อความสามารถของ AI เติบโตขึ้น

    ผลกระทบก่อกวน

    Jan Leike หัวหน้าฝ่ายจัดตำแหน่ง AI ของ OpenAI (2021) กล่าวว่า เนื่องจากระบบ AI มีความสามารถเฉพาะในช่วงปี 2010 เท่านั้น จึงเข้าใจได้ว่าการวิจัยการจัดตำแหน่ง AI ส่วนใหญ่นั้นเน้นทฤษฎีเป็นหลัก เมื่อระบบ AI ที่ทรงพลังมหาศาลถูกจัดวางให้สอดคล้องกัน หนึ่งในความท้าทายที่มนุษย์เผชิญก็คือเครื่องจักรเหล่านี้อาจสร้างโซลูชันที่ซับซ้อนเกินกว่าจะตรวจสอบและประเมินได้หากสมเหตุสมผลตามหลักจริยธรรม

    Leike ได้คิดค้นกลยุทธ์ Recursive Reward Modeling (RRM) เพื่อแก้ไขปัญหานี้ ด้วย RRM AI "ผู้ช่วยเหลือ" หลายตัวได้รับการสอนให้ช่วยมนุษย์ประเมินว่า AI ที่ซับซ้อนทำงานได้ดีเพียงใด เขามองโลกในแง่ดีเกี่ยวกับความเป็นไปได้ในการสร้างสิ่งที่เขาเรียกว่า "การจัดตำแหน่ง MVP" ในแง่ของการเริ่มต้น MVP (หรือผลิตภัณฑ์ที่มีศักยภาพขั้นต่ำ) เป็นผลิตภัณฑ์ที่ง่ายที่สุดเท่าที่เป็นไปได้ที่บริษัทสามารถสร้างขึ้นเพื่อทดสอบแนวคิด ความหวังคือสักวันหนึ่ง AI จะจับคู่กับประสิทธิภาพของมนุษย์ในการวิจัย AI และสอดคล้องกับค่านิยมในขณะเดียวกันก็ใช้งานได้ด้วย

    ในขณะที่ความสนใจที่เพิ่มขึ้นในการปรับแนว AI นั้นเป็นผลบวกสุทธิ นักวิเคราะห์หลายคนในสาขานี้คิดว่างาน "จริยธรรม" ส่วนใหญ่ในห้องปฏิบัติการ AI ชั้นนำเป็นเพียงการประชาสัมพันธ์ที่ออกแบบมาเพื่อทำให้บริษัทเทคโนโลยีดูดีและหลีกเลี่ยงการประชาสัมพันธ์เชิงลบ บุคคลเหล่านี้ไม่คาดหวังว่าแนวทางการพัฒนาด้านจริยธรรมจะกลายเป็นสิ่งสำคัญสำหรับบริษัทเหล่านี้ในเร็วๆ นี้

    ข้อสังเกตเหล่านี้เน้นย้ำถึงความสำคัญของแนวทางแบบสหวิทยาการสำหรับความพยายามในการปรับค่านิยม เนื่องจากเป็นพื้นที่ที่ค่อนข้างใหม่สำหรับการสอบถามทางศีลธรรมและทางเทคนิค ความรู้สาขาต่าง ๆ ควรเป็นส่วนหนึ่งของวาระการวิจัยที่ครอบคลุม ความคิดริเริ่มนี้ยังชี้ให้เห็นถึงความจำเป็นที่นักเทคโนโลยีและผู้กำหนดนโยบายยังคงตระหนักถึงบริบททางสังคมและผู้มีส่วนได้เสีย แม้ว่าระบบ AI จะก้าวหน้ามากขึ้นก็ตาม

    ผลกระทบของการจัดตำแหน่ง AI

    ความหมายที่กว้างขึ้นของการจัดตำแหน่ง AI อาจรวมถึง: 

    • ห้องปฏิบัติการปัญญาประดิษฐ์จ้างคณะกรรมการจริยธรรมที่หลากหลายเพื่อดูแลโครงการและปฏิบัติตามหลักเกณฑ์ด้านจริยธรรมของ AI 
    • รัฐบาลสร้างกฎหมายที่กำหนดให้บริษัทต่างๆ ส่งกรอบงาน AI ที่มีความรับผิดชอบและแผนการพัฒนาโครงการ AI ของตนต่อไป
    • การโต้เถียงที่เพิ่มขึ้นเกี่ยวกับการใช้อัลกอริทึมในการรับสมัคร การสอดแนมในที่สาธารณะ และการบังคับใช้กฎหมาย
    • นักวิจัยถูกไล่ออกจากแล็บ AI ขนาดใหญ่เนื่องจากความขัดแย้งทางผลประโยชน์ระหว่างจริยธรรมและเป้าหมายขององค์กร
    • แรงกดดันมากขึ้นสำหรับรัฐบาลในการควบคุมระบบ AI ขั้นสูงที่ทั้งทรงพลังอย่างไม่น่าเชื่อ แต่อาจละเมิดสิทธิมนุษยชนได้

    คำถามที่จะแสดงความคิดเห็นเกี่ยวกับ

    • บริษัทต่างๆ จะรับผิดชอบต่อระบบ AI ที่พวกเขาสร้างขึ้นได้อย่างไร
    • อันตรายอื่น ๆ ที่อาจเกิดขึ้นคืออะไรหาก AI อยู่ผิดที่?