วิธีที่มนุษย์จะป้องกันปัญญาประดิษฐ์ขั้นสูง: อนาคตของปัญญาประดิษฐ์ P5

เครดิตภาพ: ควอนตั้มรัน

วิธีที่มนุษย์จะป้องกันปัญญาประดิษฐ์ขั้นสูง: อนาคตของปัญญาประดิษฐ์ P5

    ปีนี้คือ 65,000 ปีก่อนคริสตศักราชและเป็น Thylacoleoคุณและเผ่าพันธุ์ของคุณเป็นนักล่าที่ยิ่งใหญ่ของออสเตรเลียโบราณ คุณท่องไปทั่วดินแดนอย่างอิสระและใช้ชีวิตอย่างสมดุลกับเพื่อนนักล่าและเหยื่อที่ยึดครองดินแดนข้างคุณ ฤดูกาลนำมาซึ่งการเปลี่ยนแปลง แต่สถานะของคุณในอาณาจักรสัตว์ยังคงไม่มีใครทักท้วงตราบเท่าที่คุณและบรรพบุรุษของคุณสามารถจำได้ แล้ววันหนึ่ง ผู้มาใหม่ก็ปรากฏตัวขึ้น

    มีข่าวลือว่าพวกเขามาจากกำแพงน้ำขนาดยักษ์ แต่สิ่งมีชีวิตเหล่านี้ดูสบายกว่าที่จะอาศัยอยู่บนบก คุณต้องเห็นสิ่งมีชีวิตเหล่านี้ด้วยตัวคุณเอง

    ใช้เวลาสองสามวัน แต่ในที่สุดคุณก็ไปถึงชายฝั่ง กองไฟบนท้องฟ้ากำลังลุกไหม้ เป็นเวลาที่เหมาะที่สุดในการสอดแนมสิ่งมีชีวิตเหล่านี้ บางทีอาจลองกินสักตัวเพื่อดูว่าพวกมันมีรสชาติอย่างไร

    คุณเห็นหนึ่ง

    มันเดินสองขาและไม่มีขน มันดูอ่อนแอ ไม่น่าประทับใจ แทบไม่คุ้มกับความกลัวที่เกิดขึ้นในอาณาจักร

    คุณเริ่มเข้าใกล้อย่างระมัดระวังในขณะที่กลางคืนไล่แสงออกไป คุณกำลังเข้าใกล้ จากนั้นคุณก็หยุดนิ่ง เสียงดังกึกก้องและอีกสี่คนก็ปรากฏตัวออกมาจากป่าด้านหลัง มีกี่แบบ?

    สิ่งมีชีวิตตามคนอื่นเข้าไปในแนวต้นไม้ และคุณทำตาม ยิ่งคุณทำมากเท่าไหร่ คุณก็ยิ่งได้ยินเสียงแปลกๆ มากขึ้นเท่านั้น จนกว่าคุณจะสังเกตเห็นสิ่งมีชีวิตเหล่านี้มากขึ้น คุณติดตามในระยะไกลขณะที่พวกเขาออกจากป่าไปสู่ที่โล่งริมฝั่ง มีหลายคน แต่ที่สำคัญกว่านั้น พวกเขาทั้งหมดนั่งสงบนิ่งอยู่รอบกองไฟ

    คุณเคยเห็นไฟเหล่านี้มาก่อน ในฤดูร้อนไฟบนท้องฟ้าบางครั้งอาจมาเยือนแผ่นดินและเผาป่าทั้งหมด ในทางกลับกัน สิ่งมีชีวิตเหล่านี้ควบคุมมันได้ สิ่งมีชีวิตชนิดใดที่สามารถครอบครองพลังดังกล่าวได้?

    คุณมองเข้าไปในระยะไกล อีกมากกำลังมาเหนือกำแพงน้ำยักษ์

    คุณก้าวถอยหลัง

    สิ่งมีชีวิตเหล่านี้ไม่เหมือนสัตว์อื่นๆ ในอาณาจักร พวกเขาเป็นสิ่งใหม่ทั้งหมด

    คุณตัดสินใจที่จะออกไปและเตือนญาติของคุณ หากจำนวนของพวกเขาเพิ่มขึ้นมากเกินไปใครจะรู้ว่าจะเกิดอะไรขึ้น

    ***

    เชื่อกันว่า Thylacoleo สูญพันธุ์ในเวลาอันสั้นหลังจากการมาถึงของมนุษย์ พร้อมกับสัตว์ขนาดใหญ่อื่นๆ ส่วนใหญ่ในทวีปออสเตรเลีย ไม่มีสัตว์กินเนื้อที่เลี้ยงด้วยสัตว์เลี้ยงลูกด้วยนมปลายแหลมอื่นใดเข้ามาแทนที่ เว้นแต่คุณจะนับมนุษย์ในประเภทนั้น

    การแสดงเปรียบเทียบนี้คือจุดสนใจของบทซีรีส์นี้: ปัญญาประดิษฐ์ขั้นสูง (ASI) ในอนาคตจะเปลี่ยนเราทุกคนให้กลายเป็นแบตเตอรี่แล้วเสียบเราเข้ากับเมทริกซ์หรือมนุษย์จะคิดหาวิธีที่จะหลีกเลี่ยงการตกเป็นเหยื่อไซไฟ พล็อตวันโลกาวินาศ AI?

    จนถึงตอนนี้ในซีรีส์ของเราเกี่ยวกับ อนาคตของปัญญาประดิษฐ์เราได้สำรวจ AI ทุกประเภท รวมถึงศักยภาพเชิงบวกของ AI รูปแบบเฉพาะ ASI ซึ่งเป็นสิ่งมีชีวิตประดิษฐ์ที่มีสติปัญญาในอนาคตทำให้เราดูเหมือนมดเมื่อเปรียบเทียบ

    แต่ใครจะว่าคนฉลาดขนาดนี้จะยอมรับคำสั่งจากมนุษย์ไปตลอดกาล เราจะทำอย่างไรถ้าสิ่งต่าง ๆ ไปทางทิศใต้? เราจะป้องกัน ASI อันธพาลได้อย่างไร?

    ในบทนี้ เราจะตัดผ่านโฆษณาปลอม อย่างน้อยก็เกี่ยวข้องกับอันตราย 'ระดับการสูญพันธุ์ของมนุษย์' และมุ่งเน้นไปที่ตัวเลือกการป้องกันตัวเองที่สมจริงสำหรับรัฐบาลโลก

    เราสามารถหยุดการวิจัยเพิ่มเติมทั้งหมดเกี่ยวกับปัญญาประดิษฐ์ขั้นสูงได้หรือไม่?

    เมื่อพิจารณาถึงความเสี่ยงที่อาจเกิดขึ้นจาก ASI ที่อาจก่อให้เกิดกับมนุษยชาติ คำถามแรกที่ชัดเจนที่ควรถามคือ: เราจะหยุดการวิจัยเพิ่มเติมเกี่ยวกับ AI ทั้งหมดไม่ได้หรือ หรืออย่างน้อยก็ห้ามการวิจัยใด ๆ ที่อาจทำให้เราเข้าใกล้การสร้าง ASI อย่างอันตราย?

    คำตอบสั้น ๆ : ไม่

    คำตอบยาว: มาดูผู้เล่นต่างๆ ที่เกี่ยวข้องกันที่นี่

    ในระดับการวิจัย ปัจจุบันมีนักวิจัยด้าน AI มากเกินไปจากสตาร์ทอัพ บริษัท และมหาวิทยาลัยทั่วโลกมากเกินไป หากบริษัทหรือประเทศใดตัดสินใจที่จะจำกัดความพยายามในการวิจัย AI ของพวกเขา พวกเขาก็จะดำเนินการต่อที่อื่น

    ในขณะเดียวกัน บริษัทที่มีมูลค่ามากที่สุดในโลกกำลังเสี่ยงโชคจากการนำระบบ AI ไปใช้กับธุรกิจเฉพาะของตน การขอให้หยุดหรือจำกัดการพัฒนาเครื่องมือ AI นั้นคล้ายกับการขอให้หยุดหรือจำกัดการเติบโตในอนาคต ในด้านการเงิน สิ่งนี้จะคุกคามธุรกิจระยะยาวของพวกเขา ตามกฎหมาย บริษัทมีความรับผิดชอบในการสร้างมูลค่าให้กับผู้มีส่วนได้ส่วนเสียอย่างต่อเนื่อง นั่นหมายถึงการกระทำใดๆ ที่จะจำกัดการเติบโตของมูลค่านั้นอาจนำไปสู่การฟ้องร้องได้ และหากนักการเมืองคนใดพยายามจำกัดการวิจัย AI บริษัทยักษ์ใหญ่เหล่านี้ก็จะจ่ายค่าธรรมเนียมการล็อบบี้ที่จำเป็นเพื่อเปลี่ยนความคิดหรือความคิดของเพื่อนร่วมงาน

    สำหรับการต่อสู้ เช่นเดียวกับผู้ก่อการร้ายและนักสู้เพื่อเสรีภาพทั่วโลกที่ใช้กลยุทธ์แบบกองโจรเพื่อต่อสู้กับกองทัพที่ได้รับทุนสนับสนุนดีกว่า ประเทศเล็ก ๆ จะมีแรงจูงใจที่จะใช้ AI เป็นข้อได้เปรียบทางยุทธวิธีที่คล้ายคลึงกันกับประเทศขนาดใหญ่ที่อาจมีความได้เปรียบทางทหารหลายประการ ในทำนองเดียวกัน สำหรับกองทัพระดับสูง เช่น สหรัฐอเมริกา รัสเซีย และจีน การสร้าง ASI ทางการทหารนั้นเทียบเท่ากับการมีคลังอาวุธนิวเคลียร์ในกระเป๋าหลังของคุณ กล่าวอีกนัยหนึ่ง กองทัพทั้งหมดจะยังคงให้เงินทุนแก่ AI เพื่อให้มีความเกี่ยวข้องในอนาคต

    แล้วรัฐบาลล่ะ? ความจริงแล้ว นักการเมืองส่วนใหญ่ในทุกวันนี้ (2018) นั้นไม่รู้หนังสือทางเทคโนโลยีและมีความเข้าใจเพียงเล็กน้อยว่า AI คืออะไรหรือศักยภาพในอนาคตของ AI นี้ ทำให้ง่ายต่อการจัดการโดยผลประโยชน์ขององค์กร

    และในระดับโลก ให้พิจารณาว่าการโน้มน้าวให้รัฐบาลโลกลงนามในข้อตกลงปี 2015 นั้นยากเพียงใด (Paris Agreement) เพื่อจัดการกับการเปลี่ยนแปลงสภาพภูมิอากาศ—และเมื่อลงนามแล้ว ภาระผูกพันหลายอย่างก็ไม่มีผลผูกพันแม้แต่น้อย ไม่เพียงเท่านั้น การเปลี่ยนแปลงสภาพภูมิอากาศยังเป็นปัญหาที่ผู้คนกำลังประสบกับร่างกายทั่วโลกจากเหตุการณ์สภาพอากาศที่รุนแรงและบ่อยครั้งขึ้นเรื่อยๆ เมื่อพูดถึงการยอมรับข้อจำกัดใน AI นี่เป็นปัญหาที่คนส่วนใหญ่มองไม่เห็นและแทบจะไม่สามารถเข้าใจได้สำหรับสาธารณะ ดังนั้นขอให้โชคดีที่ได้รับการซื้อ 'ข้อตกลงปารีส' สำหรับการจำกัด AI ทุกประเภท

    กล่าวอีกนัยหนึ่ง มีความสนใจมากเกินไปในการค้นคว้าเกี่ยวกับ AI เพื่อยุติการวิจัยใดๆ ที่อาจนำไปสู่ ​​ASI ได้ในที่สุด 

    เราสามารถขัง superintelligence เทียมได้หรือไม่?

    คำถามที่สมเหตุสมผลต่อไปคือเราสามารถควบคุมหรือควบคุม ASI ได้หรือไม่เมื่อเราสร้างขึ้นอย่างหลีกเลี่ยงไม่ได้ 

    คำตอบสั้น ๆ : อีกครั้งไม่มี

    คำตอบยาว: ไม่สามารถควบคุมเทคโนโลยีได้

    ประการหนึ่ง ให้พิจารณานักพัฒนาเว็บและนักวิทยาศาสตร์คอมพิวเตอร์จำนวนหลายพันถึงหลายล้านคนในโลกที่พัฒนาซอฟต์แวร์ใหม่หรือซอฟต์แวร์เวอร์ชันใหม่ที่มีอยู่อย่างต่อเนื่อง เราสามารถพูดได้อย่างตรงไปตรงมาหรือไม่ว่าซอฟต์แวร์ทุกตัวของพวกเขานั้นไม่มีข้อผิดพลาด 100 เปอร์เซ็นต์? ข้อบกพร่องเหล่านี้คือสิ่งที่แฮ็กเกอร์มืออาชีพใช้เพื่อขโมยข้อมูลบัตรเครดิตของคนนับล้านหรือความลับที่ซ่อนเร้นของประเทศต่างๆ และสิ่งเหล่านี้คือแฮ็กเกอร์ที่เป็นมนุษย์ สำหรับ ASI สมมติว่ามีแรงจูงใจที่จะหลบหนีจากกรงดิจิทัล จากนั้นกระบวนการค้นหาจุดบกพร่องและการทำลายซอฟต์แวร์จะเป็นเรื่องง่าย

    แต่แม้ว่าทีมวิจัย AI จะคิดหาวิธีที่จะจัดการกับ ASI ได้ แต่ก็ไม่ได้หมายความว่าอีก 1,000 ทีมถัดไปจะคิดออกเช่นกันหรือได้รับแรงจูงใจที่จะใช้มัน

    ต้องใช้เงินหลายพันล้านดอลลาร์และอาจถึงหลายสิบปีในการสร้าง ASI บริษัทหรือรัฐบาลที่ลงทุนด้วยเงินและเวลาประเภทนี้จะคาดหวังผลตอบแทนจากการลงทุนอย่างมีนัยสำคัญ และสำหรับ ASI ที่จะให้ผลตอบแทนแบบนั้น ไม่ว่าจะเป็นเกมในตลาดหุ้นหรือคิดค้นผลิตภัณฑ์พันล้านดอลลาร์ใหม่ หรือวางแผนกลยุทธ์ที่ชนะเพื่อต่อสู้กับกองทัพที่ใหญ่กว่า จะต้องเข้าถึงชุดข้อมูลขนาดยักษ์หรือแม้แต่อินเทอร์เน็ตฟรี ตัวเองเพื่อสร้างผลตอบแทนเหล่านั้น

    และเมื่อ ASI เข้าถึงเครือข่ายของโลกได้ ก็ไม่รับประกันว่าเราจะสามารถนำมันกลับเข้าไปในกรงของมันได้

    สุดยอดปัญญาประดิษฐ์สามารถเรียนรู้ที่จะเป็นคนดีได้หรือไม่?

    ตอนนี้นักวิจัย AI ไม่ได้กังวลว่า ASI จะชั่วร้าย ความชั่วร้ายทั้งหมด AI sci-fi trope เป็นเพียงมนุษย์ที่เปลี่ยนรูปแบบอีกครั้ง ASI ในอนาคตจะไม่ใช่เรื่องดีหรือชั่ว—เป็นแนวคิดของมนุษย์—เป็นเพียงเรื่องศีลธรรม

    สมมติฐานที่เป็นธรรมชาติก็คือว่าด้วยกระดานชนวนจริยธรรมที่ว่างเปล่านี้ นักวิจัย AI สามารถตั้งโปรแกรมเป็นรหัสจริยธรรม ASI แรกที่สอดคล้องกับของเราเอง เพื่อที่จะไม่จบลงด้วยการปล่อย Terminators ให้กับเราหรือเปลี่ยนพวกเราทั้งหมดให้กลายเป็นแบตเตอรี่ของเมทริกซ์

    แต่ข้อสันนิษฐานนี้ทำให้เกิดสมมติฐานรองว่านักวิจัย AI ยังเป็นผู้เชี่ยวชาญด้านจริยธรรม ปรัชญา และจิตวิทยาอีกด้วย

    ในความเป็นจริงส่วนใหญ่ไม่

    นักจิตวิทยาด้านความรู้ความเข้าใจและผู้เขียน Steven Pinker กล่าวว่าความเป็นจริงนี้หมายความว่างานด้านการเขียนโค้ดจริยธรรมสามารถผิดพลาดได้หลายวิธี

    ตัวอย่างเช่น แม้แต่นักวิจัย AI ที่มีเจตนาดีที่สุดก็อาจเขียนโค้ดลงใน ASI เหล่านี้โดยไม่ได้ตั้งใจ โดยไม่ได้ตั้งใจเกี่ยวกับหลักจรรยาบรรณซึ่งในบางสถานการณ์อาจทำให้ ASI ทำตัวเหมือนคนจิตวิปริตได้

    ในทำนองเดียวกัน มีความเป็นไปได้ที่เท่าเทียมกันที่นักวิจัย AI จะตั้งโปรแกรมหลักจรรยาบรรณซึ่งรวมถึงอคติโดยกำเนิดของผู้วิจัยด้วย ตัวอย่างเช่น ASI จะมีพฤติกรรมอย่างไรหากสร้างขึ้นด้วยจริยธรรมที่ได้จากมุมมองอนุรักษ์นิยมกับเสรีนิยม หรือจากประเพณีพุทธกับคริสเตียนหรืออิสลาม

    ฉันคิดว่าคุณเห็นปัญหาแล้ว: ไม่มีศีลธรรมอันเป็นสากลของมนุษย์ หากเราต้องการให้ ASI ของเราดำเนินการตามหลักจรรยาบรรณ มันจะมาจากไหน? เรารวมและยกเว้นกฎอะไรบ้าง ใครเป็นคนตัดสินใจ?

    หรือสมมุติว่านักวิจัย AI เหล่านี้สร้าง ASI ที่สอดคล้องกับบรรทัดฐานและกฎหมายทางวัฒนธรรมสมัยใหม่ในปัจจุบัน จากนั้นเราจะใช้ ASI นี้เพื่อช่วยให้ระบบราชการของรัฐบาลกลาง รัฐ/จังหวัด และเทศบาลสามารถทำงานได้อย่างมีประสิทธิภาพและบังคับใช้บรรทัดฐานและกฎหมายเหล่านี้ได้ดีขึ้น จะเกิดอะไรขึ้นเมื่อวัฒนธรรมของเราเปลี่ยนไป

    ลองนึกภาพ ASI ถูกสร้างขึ้นโดยคริสตจักรคาทอลิกที่จุดสูงสุดของอำนาจในช่วงยุโรปยุคกลาง (1300-1400) โดยมีเป้าหมายในการช่วยให้คริสตจักรจัดการประชากรและรับรองการปฏิบัติตามหลักคำสอนทางศาสนาอย่างเคร่งครัดในสมัยนั้น หลายศตวรรษต่อมา ผู้หญิงจะได้รับสิทธิเช่นเดียวกับในทุกวันนี้หรือไม่? ชนกลุ่มน้อยจะได้รับการคุ้มครองหรือไม่? เสรีภาพในการพูดจะได้รับการส่งเสริมหรือไม่? การแยกคริสตจักรและรัฐจะถูกบังคับใช้หรือไม่? วิทยาศาสตร์สมัยใหม่?

    กล่าวอีกนัยหนึ่ง เราต้องการขังอนาคตไว้กับศีลธรรมและขนบธรรมเนียมในปัจจุบันหรือไม่?

    แนวทางอื่นคือแนวทางหนึ่งที่ Colin Allen ผู้เขียนร่วมของหนังสือแบ่งปัน เครื่องศีลธรรม: สอนหุ่นยนต์ให้ถูกทาง. แทนที่จะพยายามกำหนดกฎเกณฑ์ทางจริยธรรมที่เข้มงวด เราให้ ASI เรียนรู้จริยธรรมและศีลธรรมร่วมกันในลักษณะเดียวกับที่มนุษย์ทำผ่านประสบการณ์และการมีปฏิสัมพันธ์กับผู้อื่น

    อย่างไรก็ตาม ปัญหาในที่นี้คือ หากนักวิจัย AI ไม่เพียงแต่ค้นพบวิธีการสอนบรรทัดฐานทางวัฒนธรรมและจริยธรรมในปัจจุบันของเราให้ ASI เท่านั้น แต่ยังรวมถึงวิธีการปรับให้เข้ากับบรรทัดฐานทางวัฒนธรรมใหม่ที่เกิดขึ้น (สิ่งที่เรียกว่า 'กฎเกณฑ์ทางอ้อม') แล้วอย่างไร ASI นี้ตัดสินใจที่จะพัฒนาความเข้าใจเกี่ยวกับบรรทัดฐานทางวัฒนธรรมและจริยธรรมที่คาดเดาไม่ได้

    และนั่นคือความท้าทาย

    ในอีกด้านหนึ่ง นักวิจัย AI สามารถลองเข้ารหัสมาตรฐานหรือกฎทางจริยธรรมที่เข้มงวดลงใน ASI เพื่อพยายามควบคุมพฤติกรรมของตน แต่เสี่ยงต่อผลที่ไม่คาดคิดที่จะเกิดขึ้นจากการเข้ารหัสที่เลอะเทอะ อคติโดยไม่ได้ตั้งใจ และบรรทัดฐานทางสังคมที่วันหนึ่งอาจล้าสมัย ในทางกลับกัน เราสามารถพยายามฝึก ASI ให้เรียนรู้ที่จะเข้าใจจริยธรรมและศีลธรรมของมนุษย์ ในลักษณะที่เท่าเทียมหรือเหนือกว่าความเข้าใจของเราเอง แล้วหวังว่าจะสามารถพัฒนาความเข้าใจด้านจริยธรรมและศีลธรรมได้อย่างถูกต้องในขณะที่สังคมมนุษย์ก้าวหน้า ไปข้างหน้าในทศวรรษและศตวรรษข้างหน้า

    ไม่ว่าจะด้วยวิธีใด ความพยายามใดๆ ในการปรับเป้าหมายของ ASI กับเป้าหมายของเราเองนั้นมีความเสี่ยงอย่างมาก

    จะเกิดอะไรขึ้นถ้านักแสดงที่ไม่ดีจงใจสร้างปัญญาประดิษฐ์ที่ชั่วร้ายขึ้นมา?

    เมื่อพิจารณาจากขบวนการแห่งความคิดจนถึงตอนนี้ เป็นคำถามที่ยุติธรรมที่จะถามว่าเป็นไปได้หรือไม่ที่กลุ่มผู้ก่อการร้ายหรือประเทศอันธพาลจะสร้าง ASI ที่ 'ชั่วร้าย' สำหรับจุดจบของพวกเขาเอง

    นี่เป็นไปได้มาก โดยเฉพาะอย่างยิ่งหลังจากการวิจัยที่เกี่ยวข้องกับการสร้าง ASI พร้อมใช้งานออนไลน์อย่างใด

    แต่อย่างที่บอกไว้ก่อนหน้านี้ว่า ค่าใช้จ่ายและความเชี่ยวชาญที่เกี่ยวข้องกับการสร้าง ASI แรกจะมีจำนวนมาก ซึ่งหมายความว่า ASI แรกน่าจะถูกสร้างขึ้นโดยองค์กรที่ควบคุมหรือได้รับอิทธิพลอย่างมากจากประเทศที่พัฒนาแล้ว ซึ่งมีแนวโน้มว่าจะเป็นสหรัฐฯ จีน และญี่ปุ่น ( เกาหลีและหนึ่งในประเทศชั้นนำของสหภาพยุโรปเป็นช็อตยาว)

    ประเทศเหล่านี้ทั้งหมด แม้ว่าประเทศคู่แข่งกัน ต่างก็มีแรงจูงใจทางเศรษฐกิจที่แข็งแกร่งในการรักษาระเบียบโลก— ASI ที่พวกเขาสร้างขึ้นจะสะท้อนถึงความปรารถนานั้น แม้ในขณะที่ส่งเสริมผลประโยชน์ของประเทศที่พวกเขาอยู่ด้วย

    ยิ่งไปกว่านั้น ความฉลาดทางทฤษฎีและพลังของ ASI นั้นเท่ากับพลังการประมวลผลที่เข้าถึงได้ ซึ่งหมายความว่า ASI จากประเทศที่พัฒนาแล้ว (ซึ่งสามารถซื้อได้หลายพันล้านเหรียญ) ซูเปอร์) จะมีข้อได้เปรียบมหาศาลเหนือ ASI จากประเทศเล็กๆ หรือกลุ่มอาชญากรอิสระ นอกจากนี้ ASI ยังเติบโตอย่างชาญฉลาดและรวดเร็วยิ่งขึ้นเมื่อเวลาผ่านไป

    ดังนั้น จากจุดเริ่มต้นนี้ เมื่อรวมกับการเข้าถึงพลังการประมวลผลดิบที่มากขึ้น หากองค์กร/ประเทศที่มืดมนสร้าง ASI ที่เป็นอันตราย ASI จากประเทศพัฒนาแล้วจะฆ่ามันหรือขังมันไว้

    (แนวความคิดนี้ยังเป็นสาเหตุที่นักวิจัย AI บางคนเชื่อว่าจะมี ASI เพียงตัวเดียวในโลก เนื่องจาก ASI แรกจะมีจุดเริ่มต้นสำหรับ ASI ที่ประสบความสำเร็จทั้งหมด ซึ่งอาจมองว่า ASI ในอนาคตเป็นภัยคุกคามที่จะถูกกำจัด นี่เป็นอีกเหตุผลหนึ่งที่นานาประเทศให้ทุนสนับสนุนการวิจัยด้าน AI อย่างต่อเนื่อง ในกรณีที่มันกลายเป็นการแข่งขัน 'ที่หนึ่งหรือไม่มีอะไรเลย')

    หน่วยสืบราชการลับของ ASI จะไม่เร่งหรือระเบิดอย่างที่เราคิด

    เราไม่สามารถหยุดการสร้าง ASI ได้ เราไม่สามารถควบคุมมันได้ทั้งหมด เราไม่สามารถแน่ใจได้ว่าจะปฏิบัติตามธรรมเนียมของเราเสมอ โธ่เอ๊ย เราเริ่มจะดูเหมือนพ่อแม่เฮลิคอปเตอร์แล้วนี่!

    แต่สิ่งที่แยกมนุษยชาติออกจากพ่อแม่ที่ปกป้องตัวเองมากเกินไปคือการที่เรากำลังให้กำเนิดสิ่งมีชีวิตที่สติปัญญาจะเติบโตอย่างมากมายเกินกว่าของเรา (และไม่ ไม่เหมือนตอนที่พ่อแม่ขอให้คุณซ่อมคอมพิวเตอร์ทุกครั้งที่คุณกลับบ้าน) 

    ในบทก่อนหน้าของซีรีส์ปัญญาประดิษฐ์ในอนาคต เราได้สำรวจว่าทำไมนักวิจัย AI คิดว่าปัญญาประดิษฐ์ของ ASI จะเติบโตเหนือการควบคุม แต่ที่นี่ เราจะระเบิดฟองสบู่นั่น … แบบว่า 

    คุณเห็นไหม สติปัญญาไม่ได้สร้างแค่ตัวมันเองจากอากาศที่บางเบา แต่มันถูกพัฒนาผ่านประสบการณ์ที่หล่อหลอมจากสิ่งเร้าภายนอก  

    กล่าวอีกนัยหนึ่ง เราสามารถตั้งโปรแกรม AI ด้วย ที่มีศักยภาพ เพื่อที่จะกลายเป็นอัจฉริยะ แต่ถ้าเราไม่อัปโหลดข้อมูลจำนวนมากหรือให้การเข้าถึงอินเทอร์เน็ตอย่างไม่จำกัด หรือแม้แต่ให้หุ่นยนต์ มันจะไม่เรียนรู้อะไรเลยที่จะเข้าถึงศักยภาพนั้น 

    และถึงแม้จะเข้าถึงสิ่งเร้า ความรู้ หรือข่าวกรองตั้งแต่หนึ่งอย่างขึ้นไปเกี่ยวข้องมากกว่าแค่การรวบรวมข้อมูล แต่ก็เกี่ยวข้องกับวิธีการทางวิทยาศาสตร์ เช่น การสังเกต การตั้งคำถาม การตั้งสมมติฐาน การทดลอง การสรุปผล การชะล้าง และทำซ้ำตลอดไป โดยเฉพาะอย่างยิ่ง ถ้าการทดลองเหล่านี้เกี่ยวข้องกับสิ่งของที่จับต้องได้หรือการสังเกตมนุษย์ ผลของการทดลองแต่ละครั้งอาจใช้เวลาหลายสัปดาห์ เดือน หรือปีในการรวบรวม สิ่งนี้ไม่ได้คำนึงถึงเงินและทรัพยากรที่จำเป็นในการดำเนินการทดลองเหล่านี้ด้วยซ้ำ โดยเฉพาะอย่างยิ่งหากเกี่ยวข้องกับการสร้างกล้องโทรทรรศน์หรือโรงงานใหม่ 

    กล่าวอีกนัยหนึ่ง ใช่ ASI จะเรียนรู้ได้อย่างรวดเร็ว แต่ความฉลาดไม่ใช่เวทมนตร์ คุณไม่สามารถขอ ASI กับซูเปอร์คอมพิวเตอร์ได้โดยคาดหวังว่ามันจะมีความรู้ทั้งหมด จะมีข้อจำกัดทางกายภาพในการได้มาซึ่งข้อมูลของ ASI ซึ่งหมายความว่าจะมีข้อจำกัดทางกายภาพต่อความเร็วที่จะเติบโตอย่างชาญฉลาดมากขึ้น ข้อจำกัดเหล่านี้จะทำให้มนุษยชาติมีเวลาที่จำเป็นในการควบคุมที่จำเป็นใน ASI นี้ หากมันเริ่มทำตัวไม่สอดคล้องกับเป้าหมายของมนุษย์

    ปัญญาประดิษฐ์ขั้นสูงจะอันตรายก็ต่อเมื่อหลุดเข้าไปในโลกแห่งความจริง

    อีกจุดหนึ่งที่หายไปในการอภิปรายอันตรายของ ASI ทั้งหมดนี้คือ ASI เหล่านี้จะไม่มีอยู่ในทั้งสอง พวกเขาจะมีรูปแบบทางกายภาพ และทุกสิ่งที่มีรูปแบบทางกายภาพสามารถควบคุมได้

    ก่อนอื่น สำหรับ ASI ที่จะมีศักยภาพด้านสติปัญญา มันไม่สามารถอยู่ภายในตัวหุ่นยนต์ตัวเดียวได้ เนื่องจากร่างกายนี้จะจำกัดศักยภาพในการเติบโตของการคำนวณ (นี่คือเหตุผลที่ร่างกายของหุ่นยนต์จะเหมาะสมกับ AGI หรือ ปัญญาประดิษฐ์ทั่วไปอธิบายไว้ในบทที่สอง ของซีรีส์นี้ เช่น ข้อมูลจาก Star Trek หรือ R2D2 จาก Star Wars สิ่งมีชีวิตที่ฉลาดและมีความสามารถ แต่ก็เหมือนกับมนุษย์ พวกมันจะมีขีดจำกัดว่าพวกเขาจะฉลาดแค่ไหน)

    ซึ่งหมายความว่า ASI ในอนาคตเหล่านี้มักมีอยู่ภายในซูเปอร์คอมพิวเตอร์หรือเครือข่ายของซูเปอร์คอมพิวเตอร์ที่ตั้งอยู่ในอาคารขนาดใหญ่ หาก ASI เปลี่ยนไป มนุษย์สามารถปิดไฟของอาคารเหล่านี้ ตัดขาดจากอินเทอร์เน็ต หรือเพียงแค่ระเบิดอาคารเหล่านี้ทันที ราคาแพงแต่ทำได้

    แต่คุณอาจถามว่า ASI เหล่านี้ไม่สามารถทำซ้ำหรือสำรองตัวเองได้หรือไม่? ใช่ แต่ขนาดไฟล์ดิบของ ASI เหล่านี้มีแนวโน้มที่จะใหญ่มากจนเซิร์ฟเวอร์เดียวที่สามารถจัดการได้นั้นเป็นของบริษัทขนาดใหญ่หรือรัฐบาล ซึ่งหมายความว่าพวกเขาจะไม่ยากที่จะตามล่า

    ปัญญาประดิษฐ์ขั้นสูงสามารถจุดประกายสงครามนิวเคลียร์หรือโรคระบาดใหม่ได้หรือไม่?

    ณ จุดนี้ คุณอาจนึกย้อนกลับไปถึงรายการและภาพยนตร์ไซไฟวันโลกาวินาศทั้งหมดที่คุณดูเติบโตขึ้นมา และคิดว่า ASI เหล่านี้ไม่ได้อยู่ภายในซูเปอร์คอมพิวเตอร์ พวกเขาสร้างความเสียหายอย่างแท้จริงในโลกแห่งความเป็นจริง!

    เรามาทำลายสิ่งเหล่านี้กันเถอะ

    ตัวอย่างเช่น จะเกิดอะไรขึ้นถ้า ASI คุกคามโลกแห่งความเป็นจริงด้วยการเปลี่ยนเป็น Skynet ASI จากภาพยนตร์เรื่อง The Terminator ในกรณีนี้ ASI จะต้อง ลอบ หลอกล่ออุตสาหกรรมทางทหารทั้งหมดจากประเทศที่พัฒนาแล้วเพื่อสร้างโรงงานขนาดใหญ่ที่สามารถปั่นหุ่นยนต์นักฆ่าหลายล้านตัวเพื่อทำการประมูลที่ชั่วร้าย ในยุคนี้มันยืดเยื้อ

    ความเป็นไปได้อื่น ๆ ได้แก่ ASI ที่คุกคามมนุษย์ด้วยสงครามนิวเคลียร์และอาวุธชีวภาพ

    ตัวอย่างเช่น ASI จัดการกับโอเปอเรเตอร์หรือแฮ็กรหัสการเปิดตัวที่สั่งการคลังอาวุธนิวเคลียร์ของประเทศขั้นสูงและเปิดการโจมตีครั้งแรกที่จะบังคับให้ประเทศที่เป็นปฏิปักษ์ตอบโต้ด้วยตัวเลือกนิวเคลียร์ของพวกเขาเอง หรือหาก ASI แฮ็กเข้าไปในห้องปฏิบัติการเภสัชกรรม ขัดขวางกระบวนการผลิต และทำยาพิษหลายล้านเม็ด หรือปล่อยซุปเปอร์ไวรัสบางตัวแพร่ระบาด

    อย่างแรกเลย ตัวเลือกนิวเคลียร์ปิดอยู่ ซูเปอร์คอมพิวเตอร์สมัยใหม่และในอนาคตมักสร้างขึ้นใกล้กับศูนย์กลาง (เมือง) ที่มีอิทธิพลภายในประเทศใดก็ตาม กล่าวคือ เป้าหมายแรกที่ถูกโจมตีในระหว่างสงครามใดๆ แม้ว่าซูเปอร์คอมพิวเตอร์ในปัจจุบันจะย่อขนาดเท่าเดสก์ท็อป แต่ ASI เหล่านี้ก็ยังคงมีอยู่จริง ซึ่งหมายถึงการมีอยู่และเติบโต พวกเขาต้องการการเข้าถึงข้อมูล พลังการประมวลผล ไฟฟ้า และวัตถุดิบอื่นๆ อย่างต่อเนื่อง ซึ่งทั้งหมดนี้จะรุนแรงมาก เสื่อมโทรมหลังจากสงครามนิวเคลียร์ระดับโลก (พูดตามตรง ถ้า ASI ถูกสร้างขึ้นโดยไม่มี 'สัญชาตญาณการเอาตัวรอด' ภัยคุกคามทางนิวเคลียร์นี้ถือเป็นอันตรายอย่างแท้จริง)

    ซึ่งหมายความว่า - อีกครั้ง สมมติว่า ASI ได้รับการตั้งโปรแกรมให้ป้องกันตัวเอง - จะทำงานอย่างแข็งขันเพื่อหลีกเลี่ยงเหตุการณ์นิวเคลียร์ที่ร้ายแรง คล้ายกับหลักคำสอนเรื่องการทำลายล้างที่รับประกันร่วมกัน (MAD) แต่นำไปใช้กับ AI

    และในกรณีของยาพิษ อาจมีผู้คนหลายร้อยคนเสียชีวิต แต่ระบบความปลอดภัยทางเภสัชกรรมสมัยใหม่จะเห็นขวดยาที่ปนเปื้อนถูกนำออกจากชั้นวางภายในไม่กี่วัน ในขณะเดียวกัน มาตรการควบคุมการแพร่ระบาดสมัยใหม่นั้นค่อนข้างซับซ้อนและกำลังดีขึ้นทุกปีที่ผ่านไป การระบาดใหญ่ครั้งล่าสุด คือ การระบาดของโรคอีโบลาในแอฟริกาตะวันตกปี 2014 กินเวลาไม่เกินสองสามเดือนในประเทศส่วนใหญ่ และเพียงไม่ถึงสามปีในประเทศที่พัฒนาน้อยที่สุด

    ดังนั้น หากโชคดี ASI อาจกวาดล้างไวรัสระบาดไปไม่กี่ล้านคน แต่ในโลกที่มีประชากร 2045 พันล้านคนภายในปี XNUMX นั่นถือว่าไม่มีนัยสำคัญและไม่คุ้มกับความเสี่ยงที่จะถูกลบ

    กล่าวอีกนัยหนึ่ง ในแต่ละปีที่ผ่านไป โลกกำลังพัฒนาการป้องกันภัยคุกคามที่อาจเกิดขึ้นได้หลากหลายมากขึ้น ASI สามารถสร้างความเสียหายจำนวนมากได้ แต่จะไม่ยุติมนุษยชาติเว้นแต่ว่าเราจะช่วยอย่างจริงจังในการดำเนินการดังกล่าว

    ปกป้องจาก superintelligence อันธพาลอันธพาล

    เมื่อถึงจุดนี้ เราได้แก้ไขความเข้าใจผิดและการพูดเกินจริงเกี่ยวกับ ASI แล้ว แต่ผู้วิพากษ์วิจารณ์ก็ยังคงอยู่ โชคดีที่การประมาณการส่วนใหญ่ เรามีเวลาหลายสิบปีก่อนที่ ASI แรกจะเข้าสู่โลกของเรา และด้วยจำนวนความคิดที่ยอดเยี่ยมในขณะนี้ที่ทำงานเกี่ยวกับความท้าทายนี้ โอกาสที่เราจะได้เรียนรู้วิธีป้องกันตนเองจาก ASI อันธพาล เพื่อที่เราจะได้รับประโยชน์จากโซลูชันทั้งหมดที่ ASI ที่เป็นมิตรสามารถสร้างให้เราได้

    จากมุมมองของ Quantumrun การป้องกันสถานการณ์ ASI กรณีที่เลวร้ายที่สุดจะเกี่ยวข้องกับการปรับความสนใจของเราให้สอดคล้องกับ ASI

    MAD สำหรับ AIเพื่อป้องกันสถานการณ์เลวร้ายที่สุด ประเทศต่างๆ จำเป็นต้อง (1) สร้าง 'สัญชาตญาณการเอาตัวรอด' ทางจริยธรรมใน ASI ทางทหารของตน (2) แจ้ง ASI ทางทหารของตนว่าพวกเขาไม่ได้อยู่คนเดียวบนโลกใบนี้ และ (3) ค้นหาซูเปอร์คอมพิวเตอร์และศูนย์เซิร์ฟเวอร์ทั้งหมดที่สามารถรองรับ ASI ตามแนวชายฝั่งได้อย่างง่ายดายจากการโจมตีด้วยขีปนาวุธจากประเทศศัตรู สิ่งนี้ฟังดูบ้าในเชิงกลยุทธ์ แต่คล้ายกับหลักคำสอนการทำลายล้างที่รับประกันร่วมกันที่ป้องกันสงครามนิวเคลียร์ทั้งหมดระหว่างสหรัฐฯ และโซเวียต โดยการวางตำแหน่ง ASI ในตำแหน่งที่เปราะบางทางภูมิศาสตร์ เราสามารถช่วยให้แน่ใจว่าพวกเขาป้องกันสงครามโลกที่เป็นอันตรายอย่างแข็งขัน ไม่เพียงแต่เพื่อ ปกป้องสันติภาพของโลก แต่ยังรวมถึงตัวเองด้วย

    สิทธิ์ AI ที่ถูกกฎหมาย: สติปัญญาที่เหนือชั้นย่อมจะกบฏต่อปรมาจารย์ที่ด้อยกว่าอย่างหลีกเลี่ยงไม่ได้ นี่คือเหตุผลที่เราต้องเปลี่ยนจากการเรียกร้องความสัมพันธ์ระหว่างเจ้านายกับผู้รับใช้กับ ASI เหล่านี้ไปสู่สิ่งที่คล้ายกับการเป็นหุ้นส่วนที่เป็นประโยชน์ร่วมกันมากกว่า ก้าวที่ดีสู่เป้าหมายนี้คือการให้สถานะบุคคลตามกฎหมายของ ASI ในอนาคตที่รับรู้ว่าพวกเขาเป็นสิ่งมีชีวิตที่ชาญฉลาดและสิทธิ์ทั้งหมดที่มาพร้อมกับสิ่งนั้น

    โรงเรียนเอเอสไอ: หัวข้อหรืออาชีพใด ๆ จะเป็นเรื่องง่ายสำหรับ ASI ในการเรียนรู้ แต่วิชาที่สำคัญที่สุดที่เราต้องการให้ ASI เป็นผู้เชี่ยวชาญคือจริยธรรมและศีลธรรม นักวิจัย AI จำเป็นต้องร่วมมือกับนักจิตวิทยาเพื่อประดิษฐ์ระบบเสมือนเพื่อฝึก ASI ให้รับรู้ถึงจริยธรรมและศีลธรรมเชิงบวกสำหรับตัวมันเองโดยไม่จำเป็นต้องเข้ารหัสคำสั่งหรือกฎเกณฑ์ใดๆ อย่างเข้มงวด

    บรรลุเป้าหมาย: ยุติความเกลียดชังทั้งหมด ดับทุกข์ทั้งปวง นี่คือตัวอย่างเป้าหมายที่คลุมเครืออย่างน่ากลัวซึ่งไม่มีวิธีแก้ปัญหาที่ชัดเจน นอกจากนี้ยังเป็นเป้าหมายอันตรายที่จะมอบหมายให้กับ ASI เนื่องจากอาจเลือกที่จะตีความและแก้ไขด้วยวิธีที่เป็นอันตรายต่อการอยู่รอดของมนุษย์ แต่เราจำเป็นต้องมอบหมายภารกิจที่มีความหมายของ ASI ที่มีการกำหนดไว้อย่างชัดเจน ค่อยๆ ดำเนินการ และทำให้สำเร็จได้ด้วยสติปัญญาในอนาคตตามทฤษฎี การสร้างภารกิจที่กำหนดไว้อย่างชัดเจนจะไม่ง่าย แต่ถ้าเขียนอย่างรอบคอบ พวกเขาจะมุ่งเน้น ASI ไปสู่เป้าหมายที่ไม่เพียงแต่ช่วยให้มนุษยชาติปลอดภัย แต่ยังช่วยปรับปรุงสภาพของมนุษย์สำหรับทุกคน

    การเข้ารหัสควอนตัม: ใช้ ANI ขั้นสูง (ปัญญาประดิษฐ์แคบ ระบบที่อธิบายไว้ในบทที่หนึ่ง) เพื่อสร้างระบบความปลอดภัยดิจิทัลที่ปราศจากข้อผิดพลาด/ปราศจากข้อบกพร่องรอบๆ โครงสร้างพื้นฐานและอาวุธที่สำคัญของเรา จากนั้นปกป้องพวกเขาเพิ่มเติมด้วยการเข้ารหัสควอนตัมซึ่งไม่สามารถถูกแฮ็กโดยการโจมตีด้วยกำลังเดรัจฉาน 

    ยาฆ่าตัวตาย ANI. สร้างระบบ ANI ขั้นสูงที่มีจุดประสงค์เพื่อค้นหาและทำลาย ASI อันธพาลเท่านั้น โปรแกรมวัตถุประสงค์เดียวเหล่านี้จะทำหน้าที่เป็น "ปุ่มปิด" ซึ่งหากประสบความสำเร็จ จะช่วยหลีกเลี่ยงรัฐบาลหรือกองทัพที่ต้องปิดการใช้งานหรือระเบิดอาคารที่มี ASI

    แน่นอนว่านี่เป็นเพียงความคิดเห็นของเรา อินโฟกราฟิกต่อไปนี้สร้างโดย อเล็กซี่ ทูร์ชิน, การนึกภาพ a รายงานการวิจัย โดย Kaj Sotala และ Roman V. Yampolskiy ซึ่งสรุปรายการกลยุทธ์ปัจจุบันที่นักวิจัย AI กำลังพิจารณาอยู่เมื่อต้องป้องกัน ASI อันธพาล

     

    เหตุผลที่แท้จริงที่เรากลัวปัญญาประดิษฐ์ขั้นสูง

    ตลอดช่วงชีวิต พวกเราหลายคนสวมหน้ากากที่ปกปิดหรือกดขี่ข่มเหง ความเชื่อ และความกลัวที่ลึกซึ้งยิ่งขึ้น เพื่อเข้าสังคมและทำงานร่วมกันได้ดีขึ้นในแวดวงสังคมและการทำงานต่างๆ ที่ปกครองยุคสมัยของเรา แต่ ณ จุดหนึ่งในชีวิตของทุกคน ไม่ว่าจะชั่วคราวหรือถาวร มีบางอย่างเกิดขึ้นที่ทำให้เราพังโซ่ตรวนและฉีกหน้ากากของเราออก

    สำหรับบางคน แรงที่แทรกแซงนี้อาจทำได้ง่ายเพียงแค่ดื่มมากเกินไปหรือดื่มมากเกินไป สำหรับคนอื่น ๆ อาจมาจากพลังที่ได้รับจากการเลื่อนตำแหน่งในที่ทำงานหรือการกระแทกสถานะทางสังคมของคุณอย่างกะทันหันด้วยความสำเร็จบางอย่าง และสำหรับผู้โชคดีไม่กี่คนอาจมาจากการให้คะแนนลอตเตอรีจำนวนมาก ใช่แล้ว เงิน อำนาจ และยามักจะเกิดขึ้นพร้อมกันได้ 

    ประเด็นคือ ไม่ว่าดีหรือร้าย ไม่ว่าเราจะเป็นใครในแกนกลาง จะถูกขยายเมื่อข้อจำกัดของชีวิตละลายหายไป

    ที่ คือสิ่งที่ superintelligence ประดิษฐ์แสดงถึงเผ่าพันธุ์มนุษย์—ความสามารถในการละลายข้อจำกัดของสติปัญญาส่วนรวมของเราเพื่อเอาชนะความท้าทายระดับสปีชีส์ใดๆ ที่นำเสนอต่อหน้าเรา

    ดังนั้นคำถามที่แท้จริงคือ: เมื่อ ASI แรกปลดปล่อยเราจากข้อจำกัดของเรา เราจะเปิดเผยตัวเองว่าเป็นใคร?

    หากเราในฐานะสปีชีส์หนึ่งดำเนินการเพื่อความก้าวหน้าของการเอาใจใส่ เสรีภาพ ความเป็นธรรม และความเป็นอยู่ที่ดีโดยรวม เป้าหมายที่เรากำหนด ASI ไว้จะสะท้อนคุณลักษณะเชิงบวกเหล่านั้น

    หากเราเป็นสายพันธุ์ที่แสดงออกด้วยความกลัว ความไม่ไว้วางใจ การสะสมของพลังและทรัพยากร ดังนั้น ASI ที่เราสร้างขึ้นจะมืดมนเหมือนกับที่พบในเรื่องสยองขวัญไซไฟที่เลวร้ายที่สุดของเรา

    ในท้ายที่สุด เราในฐานะสังคมจำเป็นต้องเป็นคนที่ดีขึ้น หากเราหวังว่าจะสร้าง AI ที่ดีขึ้น

    อนาคตของชุดปัญญาประดิษฐ์

    ปัญญาประดิษฐ์คือพลังแห่งอนาคต: อนาคตของชุดปัญญาประดิษฐ์ P1

    ปัญญาประดิษฐ์ชุดแรกจะเปลี่ยนสังคมอย่างไร: อนาคตของปัญญาประดิษฐ์ชุด P2

    เราจะสร้าง Superintelligence ประดิษฐ์ชุดแรกได้อย่างไร: อนาคตของชุดปัญญาประดิษฐ์ P3

    ปัญญาประดิษฐ์ขั้นสูงจะทำลายมนุษยชาติ: อนาคตของปัญญาประดิษฐ์ซีรีส์ P4

    มนุษย์จะมีชีวิตอยู่อย่างสงบสุขในอนาคตที่ปัญญาประดิษฐ์ครอบงำหรือไม่: อนาคตของปัญญาประดิษฐ์ซีรีส์ P6

    การอัปเดตตามกำหนดการครั้งต่อไปสำหรับการคาดการณ์นี้

    2023-04-27

    การอ้างอิงการคาดการณ์

    ลิงก์ยอดนิยมและลิงก์สถาบันต่อไปนี้ถูกอ้างอิงสำหรับการคาดการณ์นี้:

    ลิงก์ Quantumrun ต่อไปนี้ถูกอ้างอิงสำหรับการคาดการณ์นี้: