การจัดตำแหน่ง AI: การจับคู่เป้าหมายปัญญาประดิษฐ์ให้ตรงกับคุณค่าของมนุษย์
การจัดตำแหน่ง AI: การจับคู่เป้าหมายปัญญาประดิษฐ์ให้ตรงกับคุณค่าของมนุษย์
การจัดตำแหน่ง AI: การจับคู่เป้าหมายปัญญาประดิษฐ์ให้ตรงกับคุณค่าของมนุษย์
- เขียนโดย:
- January 25, 2023
การจัดตำแหน่งปัญญาประดิษฐ์ (AI) คือเมื่อเป้าหมายของระบบ AI ตรงกับคุณค่าของมนุษย์ บริษัทต่างๆ เช่น OpenAI, DeepMind และ Anthropic มีทีมนักวิจัยที่มุ่งเน้นศึกษาแนวป้องกันสำหรับสถานการณ์ต่างๆ ที่อาจเกิดขึ้น
บริบทการจัดตำแหน่ง AI
จากการศึกษาวิจัยของมหาวิทยาลัยคอร์เนลในปี 2021 งานวิจัยหลายชิ้นแสดงให้เห็นว่าเครื่องมือหรือแบบจำลองที่สร้างขึ้นโดยอัลกอริทึมแสดงอคติที่มาจากข้อมูลที่ได้รับการฝึกฝน ตัวอย่างเช่น ในการประมวลผลภาษาธรรมชาติ (NLP) แบบจำลอง NLP ที่ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลที่จำกัดได้รับการจัดทำเป็นเอกสารเพื่อคาดคะเนโดยอิงจากแบบแผนทางเพศที่เป็นอันตรายต่อผู้หญิง ในทำนองเดียวกัน การศึกษาอื่น ๆ พบว่าอัลกอริทึมที่ได้รับการฝึกฝนในชุดข้อมูลที่ถูกดัดแปลงส่งผลให้เกิดคำแนะนำที่มีอคติทางเชื้อชาติ โดยเฉพาะอย่างยิ่งในการตรวจรักษา
มีตัวอย่างมากมายที่ระบบแมชชีนเลิร์นนิงทำได้แย่กว่าสำหรับชนกลุ่มน้อยหรือกลุ่มที่เสียเปรียบหลายประการ โดยเฉพาะอย่างยิ่ง การวิเคราะห์ใบหน้าแบบอัตโนมัติและการวินิจฉัยด้านสุขภาพมักจะไม่ได้ผลดีนักสำหรับผู้หญิงและคนผิวสี เมื่อระบบที่สำคัญซึ่งควรอิงตามข้อเท็จจริงและตรรกะแทนที่จะใช้อารมณ์ถูกนำมาใช้ในบริบทต่างๆ เช่น การจัดสรรการรักษาพยาบาลหรือการศึกษา ระบบเหล่านี้สามารถสร้างความเสียหายได้มากขึ้นโดยทำให้ยากต่อการระบุเหตุผลที่อยู่เบื้องหลังคำแนะนำเหล่านี้
ด้วยเหตุนี้ บริษัทเทคโนโลยีจึงสร้างทีมจัดแนว AI เพื่อมุ่งเน้นการรักษาอัลกอริทึมอย่างยุติธรรมและมีมนุษยธรรม การวิจัยมีความสำคัญต่อการทำความเข้าใจทิศทางของระบบ AI ขั้นสูง รวมถึงความท้าทายที่เราอาจเผชิญเมื่อความสามารถของ AI เติบโตขึ้น
ผลกระทบก่อกวน
Jan Leike หัวหน้าฝ่ายจัดตำแหน่ง AI ของ OpenAI (2021) กล่าวว่า เนื่องจากระบบ AI มีความสามารถเฉพาะในช่วงปี 2010 เท่านั้น จึงเข้าใจได้ว่าการวิจัยการจัดตำแหน่ง AI ส่วนใหญ่นั้นเน้นทฤษฎีเป็นหลัก เมื่อระบบ AI ที่ทรงพลังมหาศาลถูกจัดวางให้สอดคล้องกัน หนึ่งในความท้าทายที่มนุษย์เผชิญก็คือเครื่องจักรเหล่านี้อาจสร้างโซลูชันที่ซับซ้อนเกินกว่าจะตรวจสอบและประเมินได้หากสมเหตุสมผลตามหลักจริยธรรม
Leike ได้คิดค้นกลยุทธ์ Recursive Reward Modeling (RRM) เพื่อแก้ไขปัญหานี้ ด้วย RRM AI "ผู้ช่วยเหลือ" หลายตัวได้รับการสอนให้ช่วยมนุษย์ประเมินว่า AI ที่ซับซ้อนทำงานได้ดีเพียงใด เขามองโลกในแง่ดีเกี่ยวกับความเป็นไปได้ในการสร้างสิ่งที่เขาเรียกว่า "การจัดตำแหน่ง MVP" ในแง่ของการเริ่มต้น MVP (หรือผลิตภัณฑ์ที่มีศักยภาพขั้นต่ำ) เป็นผลิตภัณฑ์ที่ง่ายที่สุดเท่าที่เป็นไปได้ที่บริษัทสามารถสร้างขึ้นเพื่อทดสอบแนวคิด ความหวังคือสักวันหนึ่ง AI จะจับคู่กับประสิทธิภาพของมนุษย์ในการวิจัย AI และสอดคล้องกับค่านิยมในขณะเดียวกันก็ใช้งานได้ด้วย
ในขณะที่ความสนใจที่เพิ่มขึ้นในการปรับแนว AI นั้นเป็นผลบวกสุทธิ นักวิเคราะห์หลายคนในสาขานี้คิดว่างาน "จริยธรรม" ส่วนใหญ่ในห้องปฏิบัติการ AI ชั้นนำเป็นเพียงการประชาสัมพันธ์ที่ออกแบบมาเพื่อทำให้บริษัทเทคโนโลยีดูดีและหลีกเลี่ยงการประชาสัมพันธ์เชิงลบ บุคคลเหล่านี้ไม่คาดหวังว่าแนวทางการพัฒนาด้านจริยธรรมจะกลายเป็นสิ่งสำคัญสำหรับบริษัทเหล่านี้ในเร็วๆ นี้
ข้อสังเกตเหล่านี้เน้นย้ำถึงความสำคัญของแนวทางแบบสหวิทยาการสำหรับความพยายามในการปรับค่านิยม เนื่องจากเป็นพื้นที่ที่ค่อนข้างใหม่สำหรับการสอบถามทางศีลธรรมและทางเทคนิค ความรู้สาขาต่าง ๆ ควรเป็นส่วนหนึ่งของวาระการวิจัยที่ครอบคลุม ความคิดริเริ่มนี้ยังชี้ให้เห็นถึงความจำเป็นที่นักเทคโนโลยีและผู้กำหนดนโยบายยังคงตระหนักถึงบริบททางสังคมและผู้มีส่วนได้เสีย แม้ว่าระบบ AI จะก้าวหน้ามากขึ้นก็ตาม
ผลกระทบของการจัดตำแหน่ง AI
ความหมายที่กว้างขึ้นของการจัดตำแหน่ง AI อาจรวมถึง:
- ห้องปฏิบัติการปัญญาประดิษฐ์จ้างคณะกรรมการจริยธรรมที่หลากหลายเพื่อดูแลโครงการและปฏิบัติตามหลักเกณฑ์ด้านจริยธรรมของ AI
- รัฐบาลสร้างกฎหมายที่กำหนดให้บริษัทต่างๆ ส่งกรอบงาน AI ที่มีความรับผิดชอบและแผนการพัฒนาโครงการ AI ของตนต่อไป
- การโต้เถียงที่เพิ่มขึ้นเกี่ยวกับการใช้อัลกอริทึมในการรับสมัคร การสอดแนมในที่สาธารณะ และการบังคับใช้กฎหมาย
- นักวิจัยถูกไล่ออกจากแล็บ AI ขนาดใหญ่เนื่องจากความขัดแย้งทางผลประโยชน์ระหว่างจริยธรรมและเป้าหมายขององค์กร
- แรงกดดันมากขึ้นสำหรับรัฐบาลในการควบคุมระบบ AI ขั้นสูงที่ทั้งทรงพลังอย่างไม่น่าเชื่อ แต่อาจละเมิดสิทธิมนุษยชนได้
คำถามที่จะแสดงความคิดเห็นเกี่ยวกับ
- บริษัทต่างๆ จะรับผิดชอบต่อระบบ AI ที่พวกเขาสร้างขึ้นได้อย่างไร
- อันตรายอื่น ๆ ที่อาจเกิดขึ้นคืออะไรหาก AI อยู่ผิดที่?
ข้อมูลอ้างอิงเชิงลึก
ลิงก์ที่เป็นที่นิยมและลิงก์สถาบันต่อไปนี้ถูกอ้างอิงสำหรับข้อมูลเชิงลึกนี้: