วิธีที่มนุษย์จะป้องกันปัญญาประดิษฐ์ขั้นสูง: อนาคตของปัญญาประดิษฐ์ P5
วิธีที่มนุษย์จะป้องกันปัญญาประดิษฐ์ขั้นสูง: อนาคตของปัญญาประดิษฐ์ P5
ปีนี้คือ 65,000 ปีก่อนคริสตศักราชและเป็น Thylacoleoคุณและเผ่าพันธุ์ของคุณเป็นนักล่าที่ยิ่งใหญ่ของออสเตรเลียโบราณ คุณท่องไปทั่วดินแดนอย่างอิสระและใช้ชีวิตอย่างสมดุลกับเพื่อนนักล่าและเหยื่อที่ยึดครองดินแดนข้างคุณ ฤดูกาลนำมาซึ่งการเปลี่ยนแปลง แต่สถานะของคุณในอาณาจักรสัตว์ยังคงไม่มีใครทักท้วงตราบเท่าที่คุณและบรรพบุรุษของคุณสามารถจำได้ แล้ววันหนึ่ง ผู้มาใหม่ก็ปรากฏตัวขึ้น
มีข่าวลือว่าพวกเขามาจากกำแพงน้ำขนาดยักษ์ แต่สิ่งมีชีวิตเหล่านี้ดูสบายกว่าที่จะอาศัยอยู่บนบก คุณต้องเห็นสิ่งมีชีวิตเหล่านี้ด้วยตัวคุณเอง
ใช้เวลาสองสามวัน แต่ในที่สุดคุณก็ไปถึงชายฝั่ง กองไฟบนท้องฟ้ากำลังลุกไหม้ เป็นเวลาที่เหมาะที่สุดในการสอดแนมสิ่งมีชีวิตเหล่านี้ บางทีอาจลองกินสักตัวเพื่อดูว่าพวกมันมีรสชาติอย่างไร
คุณเห็นหนึ่ง
มันเดินสองขาและไม่มีขน มันดูอ่อนแอ ไม่น่าประทับใจ แทบไม่คุ้มกับความกลัวที่เกิดขึ้นในอาณาจักร
คุณเริ่มเข้าใกล้อย่างระมัดระวังในขณะที่กลางคืนไล่แสงออกไป คุณกำลังเข้าใกล้ จากนั้นคุณก็หยุดนิ่ง เสียงดังกึกก้องและอีกสี่คนก็ปรากฏตัวออกมาจากป่าด้านหลัง มีกี่แบบ?
สิ่งมีชีวิตตามคนอื่นเข้าไปในแนวต้นไม้ และคุณทำตาม ยิ่งคุณทำมากเท่าไหร่ คุณก็ยิ่งได้ยินเสียงแปลกๆ มากขึ้นเท่านั้น จนกว่าคุณจะสังเกตเห็นสิ่งมีชีวิตเหล่านี้มากขึ้น คุณติดตามในระยะไกลขณะที่พวกเขาออกจากป่าไปสู่ที่โล่งริมฝั่ง มีหลายคน แต่ที่สำคัญกว่านั้น พวกเขาทั้งหมดนั่งสงบนิ่งอยู่รอบกองไฟ
คุณเคยเห็นไฟเหล่านี้มาก่อน ในฤดูร้อนไฟบนท้องฟ้าบางครั้งอาจมาเยือนแผ่นดินและเผาป่าทั้งหมด ในทางกลับกัน สิ่งมีชีวิตเหล่านี้ควบคุมมันได้ สิ่งมีชีวิตชนิดใดที่สามารถครอบครองพลังดังกล่าวได้?
คุณมองเข้าไปในระยะไกล อีกมากกำลังมาเหนือกำแพงน้ำยักษ์
คุณก้าวถอยหลัง
สิ่งมีชีวิตเหล่านี้ไม่เหมือนสัตว์อื่นๆ ในอาณาจักร พวกเขาเป็นสิ่งใหม่ทั้งหมด
คุณตัดสินใจที่จะออกไปและเตือนญาติของคุณ หากจำนวนของพวกเขาเพิ่มขึ้นมากเกินไปใครจะรู้ว่าจะเกิดอะไรขึ้น
***
เชื่อกันว่า Thylacoleo สูญพันธุ์ในเวลาอันสั้นหลังจากการมาถึงของมนุษย์ พร้อมกับสัตว์ขนาดใหญ่อื่นๆ ส่วนใหญ่ในทวีปออสเตรเลีย ไม่มีสัตว์กินเนื้อที่เลี้ยงด้วยสัตว์เลี้ยงลูกด้วยนมปลายแหลมอื่นใดเข้ามาแทนที่ เว้นแต่คุณจะนับมนุษย์ในประเภทนั้น
การแสดงเปรียบเทียบนี้คือจุดสนใจของบทซีรีส์นี้: ปัญญาประดิษฐ์ขั้นสูง (ASI) ในอนาคตจะเปลี่ยนเราทุกคนให้กลายเป็นแบตเตอรี่แล้วเสียบเราเข้ากับเมทริกซ์หรือมนุษย์จะคิดหาวิธีที่จะหลีกเลี่ยงการตกเป็นเหยื่อไซไฟ พล็อตวันโลกาวินาศ AI?
จนถึงตอนนี้ในซีรีส์ของเราเกี่ยวกับ อนาคตของปัญญาประดิษฐ์เราได้สำรวจ AI ทุกประเภท รวมถึงศักยภาพเชิงบวกของ AI รูปแบบเฉพาะ ASI ซึ่งเป็นสิ่งมีชีวิตประดิษฐ์ที่มีสติปัญญาในอนาคตทำให้เราดูเหมือนมดเมื่อเปรียบเทียบ
แต่ใครจะว่าคนฉลาดขนาดนี้จะยอมรับคำสั่งจากมนุษย์ไปตลอดกาล เราจะทำอย่างไรถ้าสิ่งต่าง ๆ ไปทางทิศใต้? เราจะป้องกัน ASI อันธพาลได้อย่างไร?
ในบทนี้ เราจะตัดผ่านโฆษณาปลอม อย่างน้อยก็เกี่ยวข้องกับอันตราย 'ระดับการสูญพันธุ์ของมนุษย์' และมุ่งเน้นไปที่ตัวเลือกการป้องกันตัวเองที่สมจริงสำหรับรัฐบาลโลก
เราสามารถหยุดการวิจัยเพิ่มเติมทั้งหมดเกี่ยวกับปัญญาประดิษฐ์ขั้นสูงได้หรือไม่?
เมื่อพิจารณาถึงความเสี่ยงที่อาจเกิดขึ้นจาก ASI ที่อาจก่อให้เกิดกับมนุษยชาติ คำถามแรกที่ชัดเจนที่ควรถามคือ: เราจะหยุดการวิจัยเพิ่มเติมเกี่ยวกับ AI ทั้งหมดไม่ได้หรือ หรืออย่างน้อยก็ห้ามการวิจัยใด ๆ ที่อาจทำให้เราเข้าใกล้การสร้าง ASI อย่างอันตราย?
คำตอบสั้น ๆ : ไม่
คำตอบยาว: มาดูผู้เล่นต่างๆ ที่เกี่ยวข้องกันที่นี่
ในระดับการวิจัย ปัจจุบันมีนักวิจัยด้าน AI มากเกินไปจากสตาร์ทอัพ บริษัท และมหาวิทยาลัยทั่วโลกมากเกินไป หากบริษัทหรือประเทศใดตัดสินใจที่จะจำกัดความพยายามในการวิจัย AI ของพวกเขา พวกเขาก็จะดำเนินการต่อที่อื่น
ในขณะเดียวกัน บริษัทที่มีมูลค่ามากที่สุดในโลกกำลังเสี่ยงโชคจากการนำระบบ AI ไปใช้กับธุรกิจเฉพาะของตน การขอให้หยุดหรือจำกัดการพัฒนาเครื่องมือ AI นั้นคล้ายกับการขอให้หยุดหรือจำกัดการเติบโตในอนาคต ในด้านการเงิน สิ่งนี้จะคุกคามธุรกิจระยะยาวของพวกเขา ตามกฎหมาย บริษัทมีความรับผิดชอบในการสร้างมูลค่าให้กับผู้มีส่วนได้ส่วนเสียอย่างต่อเนื่อง นั่นหมายถึงการกระทำใดๆ ที่จะจำกัดการเติบโตของมูลค่านั้นอาจนำไปสู่การฟ้องร้องได้ และหากนักการเมืองคนใดพยายามจำกัดการวิจัย AI บริษัทยักษ์ใหญ่เหล่านี้ก็จะจ่ายค่าธรรมเนียมการล็อบบี้ที่จำเป็นเพื่อเปลี่ยนความคิดหรือความคิดของเพื่อนร่วมงาน
สำหรับการต่อสู้ เช่นเดียวกับผู้ก่อการร้ายและนักสู้เพื่อเสรีภาพทั่วโลกที่ใช้กลยุทธ์แบบกองโจรเพื่อต่อสู้กับกองทัพที่ได้รับทุนสนับสนุนดีกว่า ประเทศเล็ก ๆ จะมีแรงจูงใจที่จะใช้ AI เป็นข้อได้เปรียบทางยุทธวิธีที่คล้ายคลึงกันกับประเทศขนาดใหญ่ที่อาจมีความได้เปรียบทางทหารหลายประการ ในทำนองเดียวกัน สำหรับกองทัพระดับสูง เช่น สหรัฐอเมริกา รัสเซีย และจีน การสร้าง ASI ทางการทหารนั้นเทียบเท่ากับการมีคลังอาวุธนิวเคลียร์ในกระเป๋าหลังของคุณ กล่าวอีกนัยหนึ่ง กองทัพทั้งหมดจะยังคงให้เงินทุนแก่ AI เพื่อให้มีความเกี่ยวข้องในอนาคต
แล้วรัฐบาลล่ะ? ความจริงแล้ว นักการเมืองส่วนใหญ่ในทุกวันนี้ (2018) นั้นไม่รู้หนังสือทางเทคโนโลยีและมีความเข้าใจเพียงเล็กน้อยว่า AI คืออะไรหรือศักยภาพในอนาคตของ AI นี้ ทำให้ง่ายต่อการจัดการโดยผลประโยชน์ขององค์กร
และในระดับโลก ให้พิจารณาว่าการโน้มน้าวให้รัฐบาลโลกลงนามในข้อตกลงปี 2015 นั้นยากเพียงใด (Paris Agreement) เพื่อจัดการกับการเปลี่ยนแปลงสภาพภูมิอากาศ—และเมื่อลงนามแล้ว ภาระผูกพันหลายอย่างก็ไม่มีผลผูกพันแม้แต่น้อย ไม่เพียงเท่านั้น การเปลี่ยนแปลงสภาพภูมิอากาศยังเป็นปัญหาที่ผู้คนกำลังประสบกับร่างกายทั่วโลกจากเหตุการณ์สภาพอากาศที่รุนแรงและบ่อยครั้งขึ้นเรื่อยๆ เมื่อพูดถึงการยอมรับข้อจำกัดใน AI นี่เป็นปัญหาที่คนส่วนใหญ่มองไม่เห็นและแทบจะไม่สามารถเข้าใจได้สำหรับสาธารณะ ดังนั้นขอให้โชคดีที่ได้รับการซื้อ 'ข้อตกลงปารีส' สำหรับการจำกัด AI ทุกประเภท
กล่าวอีกนัยหนึ่ง มีความสนใจมากเกินไปในการค้นคว้าเกี่ยวกับ AI เพื่อยุติการวิจัยใดๆ ที่อาจนำไปสู่ ASI ได้ในที่สุด
เราสามารถขัง superintelligence เทียมได้หรือไม่?
คำถามที่สมเหตุสมผลต่อไปคือเราสามารถควบคุมหรือควบคุม ASI ได้หรือไม่เมื่อเราสร้างขึ้นอย่างหลีกเลี่ยงไม่ได้
คำตอบสั้น ๆ : อีกครั้งไม่มี
คำตอบยาว: ไม่สามารถควบคุมเทคโนโลยีได้
ประการหนึ่ง ให้พิจารณานักพัฒนาเว็บและนักวิทยาศาสตร์คอมพิวเตอร์จำนวนหลายพันถึงหลายล้านคนในโลกที่พัฒนาซอฟต์แวร์ใหม่หรือซอฟต์แวร์เวอร์ชันใหม่ที่มีอยู่อย่างต่อเนื่อง เราสามารถพูดได้อย่างตรงไปตรงมาหรือไม่ว่าซอฟต์แวร์ทุกตัวของพวกเขานั้นไม่มีข้อผิดพลาด 100 เปอร์เซ็นต์? ข้อบกพร่องเหล่านี้คือสิ่งที่แฮ็กเกอร์มืออาชีพใช้เพื่อขโมยข้อมูลบัตรเครดิตของคนนับล้านหรือความลับที่ซ่อนเร้นของประเทศต่างๆ และสิ่งเหล่านี้คือแฮ็กเกอร์ที่เป็นมนุษย์ สำหรับ ASI สมมติว่ามีแรงจูงใจที่จะหลบหนีจากกรงดิจิทัล จากนั้นกระบวนการค้นหาจุดบกพร่องและการทำลายซอฟต์แวร์จะเป็นเรื่องง่าย
แต่แม้ว่าทีมวิจัย AI จะคิดหาวิธีที่จะจัดการกับ ASI ได้ แต่ก็ไม่ได้หมายความว่าอีก 1,000 ทีมถัดไปจะคิดออกเช่นกันหรือได้รับแรงจูงใจที่จะใช้มัน
ต้องใช้เงินหลายพันล้านดอลลาร์และอาจถึงหลายสิบปีในการสร้าง ASI บริษัทหรือรัฐบาลที่ลงทุนด้วยเงินและเวลาประเภทนี้จะคาดหวังผลตอบแทนจากการลงทุนอย่างมีนัยสำคัญ และสำหรับ ASI ที่จะให้ผลตอบแทนแบบนั้น ไม่ว่าจะเป็นเกมในตลาดหุ้นหรือคิดค้นผลิตภัณฑ์พันล้านดอลลาร์ใหม่ หรือวางแผนกลยุทธ์ที่ชนะเพื่อต่อสู้กับกองทัพที่ใหญ่กว่า จะต้องเข้าถึงชุดข้อมูลขนาดยักษ์หรือแม้แต่อินเทอร์เน็ตฟรี ตัวเองเพื่อสร้างผลตอบแทนเหล่านั้น
และเมื่อ ASI เข้าถึงเครือข่ายของโลกได้ ก็ไม่รับประกันว่าเราจะสามารถนำมันกลับเข้าไปในกรงของมันได้
สุดยอดปัญญาประดิษฐ์สามารถเรียนรู้ที่จะเป็นคนดีได้หรือไม่?
ตอนนี้นักวิจัย AI ไม่ได้กังวลว่า ASI จะชั่วร้าย ความชั่วร้ายทั้งหมด AI sci-fi trope เป็นเพียงมนุษย์ที่เปลี่ยนรูปแบบอีกครั้ง ASI ในอนาคตจะไม่ใช่เรื่องดีหรือชั่ว—เป็นแนวคิดของมนุษย์—เป็นเพียงเรื่องศีลธรรม
สมมติฐานที่เป็นธรรมชาติก็คือว่าด้วยกระดานชนวนจริยธรรมที่ว่างเปล่านี้ นักวิจัย AI สามารถตั้งโปรแกรมเป็นรหัสจริยธรรม ASI แรกที่สอดคล้องกับของเราเอง เพื่อที่จะไม่จบลงด้วยการปล่อย Terminators ให้กับเราหรือเปลี่ยนพวกเราทั้งหมดให้กลายเป็นแบตเตอรี่ของเมทริกซ์
แต่ข้อสันนิษฐานนี้ทำให้เกิดสมมติฐานรองว่านักวิจัย AI ยังเป็นผู้เชี่ยวชาญด้านจริยธรรม ปรัชญา และจิตวิทยาอีกด้วย
ในความเป็นจริงส่วนใหญ่ไม่
นักจิตวิทยาด้านความรู้ความเข้าใจและผู้เขียน Steven Pinker กล่าวว่าความเป็นจริงนี้หมายความว่างานด้านการเขียนโค้ดจริยธรรมสามารถผิดพลาดได้หลายวิธี
ตัวอย่างเช่น แม้แต่นักวิจัย AI ที่มีเจตนาดีที่สุดก็อาจเขียนโค้ดลงใน ASI เหล่านี้โดยไม่ได้ตั้งใจ โดยไม่ได้ตั้งใจเกี่ยวกับหลักจรรยาบรรณซึ่งในบางสถานการณ์อาจทำให้ ASI ทำตัวเหมือนคนจิตวิปริตได้
ในทำนองเดียวกัน มีความเป็นไปได้ที่เท่าเทียมกันที่นักวิจัย AI จะตั้งโปรแกรมหลักจรรยาบรรณซึ่งรวมถึงอคติโดยกำเนิดของผู้วิจัยด้วย ตัวอย่างเช่น ASI จะมีพฤติกรรมอย่างไรหากสร้างขึ้นด้วยจริยธรรมที่ได้จากมุมมองอนุรักษ์นิยมกับเสรีนิยม หรือจากประเพณีพุทธกับคริสเตียนหรืออิสลาม
ฉันคิดว่าคุณเห็นปัญหาแล้ว: ไม่มีศีลธรรมอันเป็นสากลของมนุษย์ หากเราต้องการให้ ASI ของเราดำเนินการตามหลักจรรยาบรรณ มันจะมาจากไหน? เรารวมและยกเว้นกฎอะไรบ้าง ใครเป็นคนตัดสินใจ?
หรือสมมุติว่านักวิจัย AI เหล่านี้สร้าง ASI ที่สอดคล้องกับบรรทัดฐานและกฎหมายทางวัฒนธรรมสมัยใหม่ในปัจจุบัน จากนั้นเราจะใช้ ASI นี้เพื่อช่วยให้ระบบราชการของรัฐบาลกลาง รัฐ/จังหวัด และเทศบาลสามารถทำงานได้อย่างมีประสิทธิภาพและบังคับใช้บรรทัดฐานและกฎหมายเหล่านี้ได้ดีขึ้น จะเกิดอะไรขึ้นเมื่อวัฒนธรรมของเราเปลี่ยนไป
ลองนึกภาพ ASI ถูกสร้างขึ้นโดยคริสตจักรคาทอลิกที่จุดสูงสุดของอำนาจในช่วงยุโรปยุคกลาง (1300-1400) โดยมีเป้าหมายในการช่วยให้คริสตจักรจัดการประชากรและรับรองการปฏิบัติตามหลักคำสอนทางศาสนาอย่างเคร่งครัดในสมัยนั้น หลายศตวรรษต่อมา ผู้หญิงจะได้รับสิทธิเช่นเดียวกับในทุกวันนี้หรือไม่? ชนกลุ่มน้อยจะได้รับการคุ้มครองหรือไม่? เสรีภาพในการพูดจะได้รับการส่งเสริมหรือไม่? การแยกคริสตจักรและรัฐจะถูกบังคับใช้หรือไม่? วิทยาศาสตร์สมัยใหม่?
กล่าวอีกนัยหนึ่ง เราต้องการขังอนาคตไว้กับศีลธรรมและขนบธรรมเนียมในปัจจุบันหรือไม่?
แนวทางอื่นคือแนวทางหนึ่งที่ Colin Allen ผู้เขียนร่วมของหนังสือแบ่งปัน เครื่องศีลธรรม: สอนหุ่นยนต์ให้ถูกทาง. แทนที่จะพยายามกำหนดกฎเกณฑ์ทางจริยธรรมที่เข้มงวด เราให้ ASI เรียนรู้จริยธรรมและศีลธรรมร่วมกันในลักษณะเดียวกับที่มนุษย์ทำผ่านประสบการณ์และการมีปฏิสัมพันธ์กับผู้อื่น
อย่างไรก็ตาม ปัญหาในที่นี้คือ หากนักวิจัย AI ไม่เพียงแต่ค้นพบวิธีการสอนบรรทัดฐานทางวัฒนธรรมและจริยธรรมในปัจจุบันของเราให้ ASI เท่านั้น แต่ยังรวมถึงวิธีการปรับให้เข้ากับบรรทัดฐานทางวัฒนธรรมใหม่ที่เกิดขึ้น (สิ่งที่เรียกว่า 'กฎเกณฑ์ทางอ้อม') แล้วอย่างไร ASI นี้ตัดสินใจที่จะพัฒนาความเข้าใจเกี่ยวกับบรรทัดฐานทางวัฒนธรรมและจริยธรรมที่คาดเดาไม่ได้
และนั่นคือความท้าทาย
ในอีกด้านหนึ่ง นักวิจัย AI สามารถลองเข้ารหัสมาตรฐานหรือกฎทางจริยธรรมที่เข้มงวดลงใน ASI เพื่อพยายามควบคุมพฤติกรรมของตน แต่เสี่ยงต่อผลที่ไม่คาดคิดที่จะเกิดขึ้นจากการเข้ารหัสที่เลอะเทอะ อคติโดยไม่ได้ตั้งใจ และบรรทัดฐานทางสังคมที่วันหนึ่งอาจล้าสมัย ในทางกลับกัน เราสามารถพยายามฝึก ASI ให้เรียนรู้ที่จะเข้าใจจริยธรรมและศีลธรรมของมนุษย์ ในลักษณะที่เท่าเทียมหรือเหนือกว่าความเข้าใจของเราเอง แล้วหวังว่าจะสามารถพัฒนาความเข้าใจด้านจริยธรรมและศีลธรรมได้อย่างถูกต้องในขณะที่สังคมมนุษย์ก้าวหน้า ไปข้างหน้าในทศวรรษและศตวรรษข้างหน้า
ไม่ว่าจะด้วยวิธีใด ความพยายามใดๆ ในการปรับเป้าหมายของ ASI กับเป้าหมายของเราเองนั้นมีความเสี่ยงอย่างมาก
จะเกิดอะไรขึ้นถ้านักแสดงที่ไม่ดีจงใจสร้างปัญญาประดิษฐ์ที่ชั่วร้ายขึ้นมา?
เมื่อพิจารณาจากขบวนการแห่งความคิดจนถึงตอนนี้ เป็นคำถามที่ยุติธรรมที่จะถามว่าเป็นไปได้หรือไม่ที่กลุ่มผู้ก่อการร้ายหรือประเทศอันธพาลจะสร้าง ASI ที่ 'ชั่วร้าย' สำหรับจุดจบของพวกเขาเอง
นี่เป็นไปได้มาก โดยเฉพาะอย่างยิ่งหลังจากการวิจัยที่เกี่ยวข้องกับการสร้าง ASI พร้อมใช้งานออนไลน์อย่างใด
แต่อย่างที่บอกไว้ก่อนหน้านี้ว่า ค่าใช้จ่ายและความเชี่ยวชาญที่เกี่ยวข้องกับการสร้าง ASI แรกจะมีจำนวนมาก ซึ่งหมายความว่า ASI แรกน่าจะถูกสร้างขึ้นโดยองค์กรที่ควบคุมหรือได้รับอิทธิพลอย่างมากจากประเทศที่พัฒนาแล้ว ซึ่งมีแนวโน้มว่าจะเป็นสหรัฐฯ จีน และญี่ปุ่น ( เกาหลีและหนึ่งในประเทศชั้นนำของสหภาพยุโรปเป็นช็อตยาว)
ประเทศเหล่านี้ทั้งหมด แม้ว่าประเทศคู่แข่งกัน ต่างก็มีแรงจูงใจทางเศรษฐกิจที่แข็งแกร่งในการรักษาระเบียบโลก— ASI ที่พวกเขาสร้างขึ้นจะสะท้อนถึงความปรารถนานั้น แม้ในขณะที่ส่งเสริมผลประโยชน์ของประเทศที่พวกเขาอยู่ด้วย
ยิ่งไปกว่านั้น ความฉลาดทางทฤษฎีและพลังของ ASI นั้นเท่ากับพลังการประมวลผลที่เข้าถึงได้ ซึ่งหมายความว่า ASI จากประเทศที่พัฒนาแล้ว (ซึ่งสามารถซื้อได้หลายพันล้านเหรียญ) ซูเปอร์) จะมีข้อได้เปรียบมหาศาลเหนือ ASI จากประเทศเล็กๆ หรือกลุ่มอาชญากรอิสระ นอกจากนี้ ASI ยังเติบโตอย่างชาญฉลาดและรวดเร็วยิ่งขึ้นเมื่อเวลาผ่านไป
ดังนั้น จากจุดเริ่มต้นนี้ เมื่อรวมกับการเข้าถึงพลังการประมวลผลดิบที่มากขึ้น หากองค์กร/ประเทศที่มืดมนสร้าง ASI ที่เป็นอันตราย ASI จากประเทศพัฒนาแล้วจะฆ่ามันหรือขังมันไว้
(แนวความคิดนี้ยังเป็นสาเหตุที่นักวิจัย AI บางคนเชื่อว่าจะมี ASI เพียงตัวเดียวในโลก เนื่องจาก ASI แรกจะมีจุดเริ่มต้นสำหรับ ASI ที่ประสบความสำเร็จทั้งหมด ซึ่งอาจมองว่า ASI ในอนาคตเป็นภัยคุกคามที่จะถูกกำจัด นี่เป็นอีกเหตุผลหนึ่งที่นานาประเทศให้ทุนสนับสนุนการวิจัยด้าน AI อย่างต่อเนื่อง ในกรณีที่มันกลายเป็นการแข่งขัน 'ที่หนึ่งหรือไม่มีอะไรเลย')
หน่วยสืบราชการลับของ ASI จะไม่เร่งหรือระเบิดอย่างที่เราคิด
เราไม่สามารถหยุดการสร้าง ASI ได้ เราไม่สามารถควบคุมมันได้ทั้งหมด เราไม่สามารถแน่ใจได้ว่าจะปฏิบัติตามธรรมเนียมของเราเสมอ โธ่เอ๊ย เราเริ่มจะดูเหมือนพ่อแม่เฮลิคอปเตอร์แล้วนี่!
แต่สิ่งที่แยกมนุษยชาติออกจากพ่อแม่ที่ปกป้องตัวเองมากเกินไปคือการที่เรากำลังให้กำเนิดสิ่งมีชีวิตที่สติปัญญาจะเติบโตอย่างมากมายเกินกว่าของเรา (และไม่ ไม่เหมือนตอนที่พ่อแม่ขอให้คุณซ่อมคอมพิวเตอร์ทุกครั้งที่คุณกลับบ้าน)
ในบทก่อนหน้าของซีรีส์ปัญญาประดิษฐ์ในอนาคต เราได้สำรวจว่าทำไมนักวิจัย AI คิดว่าปัญญาประดิษฐ์ของ ASI จะเติบโตเหนือการควบคุม แต่ที่นี่ เราจะระเบิดฟองสบู่นั่น … แบบว่า
คุณเห็นไหม สติปัญญาไม่ได้สร้างแค่ตัวมันเองจากอากาศที่บางเบา แต่มันถูกพัฒนาผ่านประสบการณ์ที่หล่อหลอมจากสิ่งเร้าภายนอก
กล่าวอีกนัยหนึ่ง เราสามารถตั้งโปรแกรม AI ด้วย ที่มีศักยภาพ เพื่อที่จะกลายเป็นอัจฉริยะ แต่ถ้าเราไม่อัปโหลดข้อมูลจำนวนมากหรือให้การเข้าถึงอินเทอร์เน็ตอย่างไม่จำกัด หรือแม้แต่ให้หุ่นยนต์ มันจะไม่เรียนรู้อะไรเลยที่จะเข้าถึงศักยภาพนั้น
และถึงแม้จะเข้าถึงสิ่งเร้า ความรู้ หรือข่าวกรองตั้งแต่หนึ่งอย่างขึ้นไปเกี่ยวข้องมากกว่าแค่การรวบรวมข้อมูล แต่ก็เกี่ยวข้องกับวิธีการทางวิทยาศาสตร์ เช่น การสังเกต การตั้งคำถาม การตั้งสมมติฐาน การทดลอง การสรุปผล การชะล้าง และทำซ้ำตลอดไป โดยเฉพาะอย่างยิ่ง ถ้าการทดลองเหล่านี้เกี่ยวข้องกับสิ่งของที่จับต้องได้หรือการสังเกตมนุษย์ ผลของการทดลองแต่ละครั้งอาจใช้เวลาหลายสัปดาห์ เดือน หรือปีในการรวบรวม สิ่งนี้ไม่ได้คำนึงถึงเงินและทรัพยากรที่จำเป็นในการดำเนินการทดลองเหล่านี้ด้วยซ้ำ โดยเฉพาะอย่างยิ่งหากเกี่ยวข้องกับการสร้างกล้องโทรทรรศน์หรือโรงงานใหม่
กล่าวอีกนัยหนึ่ง ใช่ ASI จะเรียนรู้ได้อย่างรวดเร็ว แต่ความฉลาดไม่ใช่เวทมนตร์ คุณไม่สามารถขอ ASI กับซูเปอร์คอมพิวเตอร์ได้โดยคาดหวังว่ามันจะมีความรู้ทั้งหมด จะมีข้อจำกัดทางกายภาพในการได้มาซึ่งข้อมูลของ ASI ซึ่งหมายความว่าจะมีข้อจำกัดทางกายภาพต่อความเร็วที่จะเติบโตอย่างชาญฉลาดมากขึ้น ข้อจำกัดเหล่านี้จะทำให้มนุษยชาติมีเวลาที่จำเป็นในการควบคุมที่จำเป็นใน ASI นี้ หากมันเริ่มทำตัวไม่สอดคล้องกับเป้าหมายของมนุษย์
ปัญญาประดิษฐ์ขั้นสูงจะอันตรายก็ต่อเมื่อหลุดเข้าไปในโลกแห่งความจริง
อีกจุดหนึ่งที่หายไปในการอภิปรายอันตรายของ ASI ทั้งหมดนี้คือ ASI เหล่านี้จะไม่มีอยู่ในทั้งสอง พวกเขาจะมีรูปแบบทางกายภาพ และทุกสิ่งที่มีรูปแบบทางกายภาพสามารถควบคุมได้
ก่อนอื่น สำหรับ ASI ที่จะมีศักยภาพด้านสติปัญญา มันไม่สามารถอยู่ภายในตัวหุ่นยนต์ตัวเดียวได้ เนื่องจากร่างกายนี้จะจำกัดศักยภาพในการเติบโตของการคำนวณ (นี่คือเหตุผลที่ร่างกายของหุ่นยนต์จะเหมาะสมกับ AGI หรือ ปัญญาประดิษฐ์ทั่วไปอธิบายไว้ในบทที่สอง ของซีรีส์นี้ เช่น ข้อมูลจาก Star Trek หรือ R2D2 จาก Star Wars สิ่งมีชีวิตที่ฉลาดและมีความสามารถ แต่ก็เหมือนกับมนุษย์ พวกมันจะมีขีดจำกัดว่าพวกเขาจะฉลาดแค่ไหน)
ซึ่งหมายความว่า ASI ในอนาคตเหล่านี้มักมีอยู่ภายในซูเปอร์คอมพิวเตอร์หรือเครือข่ายของซูเปอร์คอมพิวเตอร์ที่ตั้งอยู่ในอาคารขนาดใหญ่ หาก ASI เปลี่ยนไป มนุษย์สามารถปิดไฟของอาคารเหล่านี้ ตัดขาดจากอินเทอร์เน็ต หรือเพียงแค่ระเบิดอาคารเหล่านี้ทันที ราคาแพงแต่ทำได้
แต่คุณอาจถามว่า ASI เหล่านี้ไม่สามารถทำซ้ำหรือสำรองตัวเองได้หรือไม่? ใช่ แต่ขนาดไฟล์ดิบของ ASI เหล่านี้มีแนวโน้มที่จะใหญ่มากจนเซิร์ฟเวอร์เดียวที่สามารถจัดการได้นั้นเป็นของบริษัทขนาดใหญ่หรือรัฐบาล ซึ่งหมายความว่าพวกเขาจะไม่ยากที่จะตามล่า
ปัญญาประดิษฐ์ขั้นสูงสามารถจุดประกายสงครามนิวเคลียร์หรือโรคระบาดใหม่ได้หรือไม่?
ณ จุดนี้ คุณอาจนึกย้อนกลับไปถึงรายการและภาพยนตร์ไซไฟวันโลกาวินาศทั้งหมดที่คุณดูเติบโตขึ้นมา และคิดว่า ASI เหล่านี้ไม่ได้อยู่ภายในซูเปอร์คอมพิวเตอร์ พวกเขาสร้างความเสียหายอย่างแท้จริงในโลกแห่งความเป็นจริง!
เรามาทำลายสิ่งเหล่านี้กันเถอะ
ตัวอย่างเช่น จะเกิดอะไรขึ้นถ้า ASI คุกคามโลกแห่งความเป็นจริงด้วยการเปลี่ยนเป็น Skynet ASI จากภาพยนตร์เรื่อง The Terminator ในกรณีนี้ ASI จะต้อง ลอบ หลอกล่ออุตสาหกรรมทางทหารทั้งหมดจากประเทศที่พัฒนาแล้วเพื่อสร้างโรงงานขนาดใหญ่ที่สามารถปั่นหุ่นยนต์นักฆ่าหลายล้านตัวเพื่อทำการประมูลที่ชั่วร้าย ในยุคนี้มันยืดเยื้อ
ความเป็นไปได้อื่น ๆ ได้แก่ ASI ที่คุกคามมนุษย์ด้วยสงครามนิวเคลียร์และอาวุธชีวภาพ
ตัวอย่างเช่น ASI จัดการกับโอเปอเรเตอร์หรือแฮ็กรหัสการเปิดตัวที่สั่งการคลังอาวุธนิวเคลียร์ของประเทศขั้นสูงและเปิดการโจมตีครั้งแรกที่จะบังคับให้ประเทศที่เป็นปฏิปักษ์ตอบโต้ด้วยตัวเลือกนิวเคลียร์ของพวกเขาเอง หรือหาก ASI แฮ็กเข้าไปในห้องปฏิบัติการเภสัชกรรม ขัดขวางกระบวนการผลิต และทำยาพิษหลายล้านเม็ด หรือปล่อยซุปเปอร์ไวรัสบางตัวแพร่ระบาด
อย่างแรกเลย ตัวเลือกนิวเคลียร์ปิดอยู่ ซูเปอร์คอมพิวเตอร์สมัยใหม่และในอนาคตมักสร้างขึ้นใกล้กับศูนย์กลาง (เมือง) ที่มีอิทธิพลภายในประเทศใดก็ตาม กล่าวคือ เป้าหมายแรกที่ถูกโจมตีในระหว่างสงครามใดๆ แม้ว่าซูเปอร์คอมพิวเตอร์ในปัจจุบันจะย่อขนาดเท่าเดสก์ท็อป แต่ ASI เหล่านี้ก็ยังคงมีอยู่จริง ซึ่งหมายถึงการมีอยู่และเติบโต พวกเขาต้องการการเข้าถึงข้อมูล พลังการประมวลผล ไฟฟ้า และวัตถุดิบอื่นๆ อย่างต่อเนื่อง ซึ่งทั้งหมดนี้จะรุนแรงมาก เสื่อมโทรมหลังจากสงครามนิวเคลียร์ระดับโลก (พูดตามตรง ถ้า ASI ถูกสร้างขึ้นโดยไม่มี 'สัญชาตญาณการเอาตัวรอด' ภัยคุกคามทางนิวเคลียร์นี้ถือเป็นอันตรายอย่างแท้จริง)
ซึ่งหมายความว่า - อีกครั้ง สมมติว่า ASI ได้รับการตั้งโปรแกรมให้ป้องกันตัวเอง - จะทำงานอย่างแข็งขันเพื่อหลีกเลี่ยงเหตุการณ์นิวเคลียร์ที่ร้ายแรง คล้ายกับหลักคำสอนเรื่องการทำลายล้างที่รับประกันร่วมกัน (MAD) แต่นำไปใช้กับ AI
และในกรณีของยาพิษ อาจมีผู้คนหลายร้อยคนเสียชีวิต แต่ระบบความปลอดภัยทางเภสัชกรรมสมัยใหม่จะเห็นขวดยาที่ปนเปื้อนถูกนำออกจากชั้นวางภายในไม่กี่วัน ในขณะเดียวกัน มาตรการควบคุมการแพร่ระบาดสมัยใหม่นั้นค่อนข้างซับซ้อนและกำลังดีขึ้นทุกปีที่ผ่านไป การระบาดใหญ่ครั้งล่าสุด คือ การระบาดของโรคอีโบลาในแอฟริกาตะวันตกปี 2014 กินเวลาไม่เกินสองสามเดือนในประเทศส่วนใหญ่ และเพียงไม่ถึงสามปีในประเทศที่พัฒนาน้อยที่สุด
ดังนั้น หากโชคดี ASI อาจกวาดล้างไวรัสระบาดไปไม่กี่ล้านคน แต่ในโลกที่มีประชากร 2045 พันล้านคนภายในปี XNUMX นั่นถือว่าไม่มีนัยสำคัญและไม่คุ้มกับความเสี่ยงที่จะถูกลบ
กล่าวอีกนัยหนึ่ง ในแต่ละปีที่ผ่านไป โลกกำลังพัฒนาการป้องกันภัยคุกคามที่อาจเกิดขึ้นได้หลากหลายมากขึ้น ASI สามารถสร้างความเสียหายจำนวนมากได้ แต่จะไม่ยุติมนุษยชาติเว้นแต่ว่าเราจะช่วยอย่างจริงจังในการดำเนินการดังกล่าว
ปกป้องจาก superintelligence อันธพาลอันธพาล
เมื่อถึงจุดนี้ เราได้แก้ไขความเข้าใจผิดและการพูดเกินจริงเกี่ยวกับ ASI แล้ว แต่ผู้วิพากษ์วิจารณ์ก็ยังคงอยู่ โชคดีที่การประมาณการส่วนใหญ่ เรามีเวลาหลายสิบปีก่อนที่ ASI แรกจะเข้าสู่โลกของเรา และด้วยจำนวนความคิดที่ยอดเยี่ยมในขณะนี้ที่ทำงานเกี่ยวกับความท้าทายนี้ โอกาสที่เราจะได้เรียนรู้วิธีป้องกันตนเองจาก ASI อันธพาล เพื่อที่เราจะได้รับประโยชน์จากโซลูชันทั้งหมดที่ ASI ที่เป็นมิตรสามารถสร้างให้เราได้
จากมุมมองของ Quantumrun การป้องกันสถานการณ์ ASI กรณีที่เลวร้ายที่สุดจะเกี่ยวข้องกับการปรับความสนใจของเราให้สอดคล้องกับ ASI
MAD สำหรับ AIเพื่อป้องกันสถานการณ์เลวร้ายที่สุด ประเทศต่างๆ จำเป็นต้อง (1) สร้าง 'สัญชาตญาณการเอาตัวรอด' ทางจริยธรรมใน ASI ทางทหารของตน (2) แจ้ง ASI ทางทหารของตนว่าพวกเขาไม่ได้อยู่คนเดียวบนโลกใบนี้ และ (3) ค้นหาซูเปอร์คอมพิวเตอร์และศูนย์เซิร์ฟเวอร์ทั้งหมดที่สามารถรองรับ ASI ตามแนวชายฝั่งได้อย่างง่ายดายจากการโจมตีด้วยขีปนาวุธจากประเทศศัตรู สิ่งนี้ฟังดูบ้าในเชิงกลยุทธ์ แต่คล้ายกับหลักคำสอนการทำลายล้างที่รับประกันร่วมกันที่ป้องกันสงครามนิวเคลียร์ทั้งหมดระหว่างสหรัฐฯ และโซเวียต โดยการวางตำแหน่ง ASI ในตำแหน่งที่เปราะบางทางภูมิศาสตร์ เราสามารถช่วยให้แน่ใจว่าพวกเขาป้องกันสงครามโลกที่เป็นอันตรายอย่างแข็งขัน ไม่เพียงแต่เพื่อ ปกป้องสันติภาพของโลก แต่ยังรวมถึงตัวเองด้วย
สิทธิ์ AI ที่ถูกกฎหมาย: สติปัญญาที่เหนือชั้นย่อมจะกบฏต่อปรมาจารย์ที่ด้อยกว่าอย่างหลีกเลี่ยงไม่ได้ นี่คือเหตุผลที่เราต้องเปลี่ยนจากการเรียกร้องความสัมพันธ์ระหว่างเจ้านายกับผู้รับใช้กับ ASI เหล่านี้ไปสู่สิ่งที่คล้ายกับการเป็นหุ้นส่วนที่เป็นประโยชน์ร่วมกันมากกว่า ก้าวที่ดีสู่เป้าหมายนี้คือการให้สถานะบุคคลตามกฎหมายของ ASI ในอนาคตที่รับรู้ว่าพวกเขาเป็นสิ่งมีชีวิตที่ชาญฉลาดและสิทธิ์ทั้งหมดที่มาพร้อมกับสิ่งนั้น
โรงเรียนเอเอสไอ: หัวข้อหรืออาชีพใด ๆ จะเป็นเรื่องง่ายสำหรับ ASI ในการเรียนรู้ แต่วิชาที่สำคัญที่สุดที่เราต้องการให้ ASI เป็นผู้เชี่ยวชาญคือจริยธรรมและศีลธรรม นักวิจัย AI จำเป็นต้องร่วมมือกับนักจิตวิทยาเพื่อประดิษฐ์ระบบเสมือนเพื่อฝึก ASI ให้รับรู้ถึงจริยธรรมและศีลธรรมเชิงบวกสำหรับตัวมันเองโดยไม่จำเป็นต้องเข้ารหัสคำสั่งหรือกฎเกณฑ์ใดๆ อย่างเข้มงวด
บรรลุเป้าหมาย: ยุติความเกลียดชังทั้งหมด ดับทุกข์ทั้งปวง นี่คือตัวอย่างเป้าหมายที่คลุมเครืออย่างน่ากลัวซึ่งไม่มีวิธีแก้ปัญหาที่ชัดเจน นอกจากนี้ยังเป็นเป้าหมายอันตรายที่จะมอบหมายให้กับ ASI เนื่องจากอาจเลือกที่จะตีความและแก้ไขด้วยวิธีที่เป็นอันตรายต่อการอยู่รอดของมนุษย์ แต่เราจำเป็นต้องมอบหมายภารกิจที่มีความหมายของ ASI ที่มีการกำหนดไว้อย่างชัดเจน ค่อยๆ ดำเนินการ และทำให้สำเร็จได้ด้วยสติปัญญาในอนาคตตามทฤษฎี การสร้างภารกิจที่กำหนดไว้อย่างชัดเจนจะไม่ง่าย แต่ถ้าเขียนอย่างรอบคอบ พวกเขาจะมุ่งเน้น ASI ไปสู่เป้าหมายที่ไม่เพียงแต่ช่วยให้มนุษยชาติปลอดภัย แต่ยังช่วยปรับปรุงสภาพของมนุษย์สำหรับทุกคน
การเข้ารหัสควอนตัม: ใช้ ANI ขั้นสูง (ปัญญาประดิษฐ์แคบ ระบบที่อธิบายไว้ในบทที่หนึ่ง) เพื่อสร้างระบบความปลอดภัยดิจิทัลที่ปราศจากข้อผิดพลาด/ปราศจากข้อบกพร่องรอบๆ โครงสร้างพื้นฐานและอาวุธที่สำคัญของเรา จากนั้นปกป้องพวกเขาเพิ่มเติมด้วยการเข้ารหัสควอนตัมซึ่งไม่สามารถถูกแฮ็กโดยการโจมตีด้วยกำลังเดรัจฉาน
ยาฆ่าตัวตาย ANI. สร้างระบบ ANI ขั้นสูงที่มีจุดประสงค์เพื่อค้นหาและทำลาย ASI อันธพาลเท่านั้น โปรแกรมวัตถุประสงค์เดียวเหล่านี้จะทำหน้าที่เป็น "ปุ่มปิด" ซึ่งหากประสบความสำเร็จ จะช่วยหลีกเลี่ยงรัฐบาลหรือกองทัพที่ต้องปิดการใช้งานหรือระเบิดอาคารที่มี ASI
แน่นอนว่านี่เป็นเพียงความคิดเห็นของเรา อินโฟกราฟิกต่อไปนี้สร้างโดย อเล็กซี่ ทูร์ชิน, การนึกภาพ a รายงานการวิจัย โดย Kaj Sotala และ Roman V. Yampolskiy ซึ่งสรุปรายการกลยุทธ์ปัจจุบันที่นักวิจัย AI กำลังพิจารณาอยู่เมื่อต้องป้องกัน ASI อันธพาล
เหตุผลที่แท้จริงที่เรากลัวปัญญาประดิษฐ์ขั้นสูง
ตลอดช่วงชีวิต พวกเราหลายคนสวมหน้ากากที่ปกปิดหรือกดขี่ข่มเหง ความเชื่อ และความกลัวที่ลึกซึ้งยิ่งขึ้น เพื่อเข้าสังคมและทำงานร่วมกันได้ดีขึ้นในแวดวงสังคมและการทำงานต่างๆ ที่ปกครองยุคสมัยของเรา แต่ ณ จุดหนึ่งในชีวิตของทุกคน ไม่ว่าจะชั่วคราวหรือถาวร มีบางอย่างเกิดขึ้นที่ทำให้เราพังโซ่ตรวนและฉีกหน้ากากของเราออก
สำหรับบางคน แรงที่แทรกแซงนี้อาจทำได้ง่ายเพียงแค่ดื่มมากเกินไปหรือดื่มมากเกินไป สำหรับคนอื่น ๆ อาจมาจากพลังที่ได้รับจากการเลื่อนตำแหน่งในที่ทำงานหรือการกระแทกสถานะทางสังคมของคุณอย่างกะทันหันด้วยความสำเร็จบางอย่าง และสำหรับผู้โชคดีไม่กี่คนอาจมาจากการให้คะแนนลอตเตอรีจำนวนมาก ใช่แล้ว เงิน อำนาจ และยามักจะเกิดขึ้นพร้อมกันได้
ประเด็นคือ ไม่ว่าดีหรือร้าย ไม่ว่าเราจะเป็นใครในแกนกลาง จะถูกขยายเมื่อข้อจำกัดของชีวิตละลายหายไป
ที่ คือสิ่งที่ superintelligence ประดิษฐ์แสดงถึงเผ่าพันธุ์มนุษย์—ความสามารถในการละลายข้อจำกัดของสติปัญญาส่วนรวมของเราเพื่อเอาชนะความท้าทายระดับสปีชีส์ใดๆ ที่นำเสนอต่อหน้าเรา
ดังนั้นคำถามที่แท้จริงคือ: เมื่อ ASI แรกปลดปล่อยเราจากข้อจำกัดของเรา เราจะเปิดเผยตัวเองว่าเป็นใคร?
หากเราในฐานะสปีชีส์หนึ่งดำเนินการเพื่อความก้าวหน้าของการเอาใจใส่ เสรีภาพ ความเป็นธรรม และความเป็นอยู่ที่ดีโดยรวม เป้าหมายที่เรากำหนด ASI ไว้จะสะท้อนคุณลักษณะเชิงบวกเหล่านั้น
หากเราเป็นสายพันธุ์ที่แสดงออกด้วยความกลัว ความไม่ไว้วางใจ การสะสมของพลังและทรัพยากร ดังนั้น ASI ที่เราสร้างขึ้นจะมืดมนเหมือนกับที่พบในเรื่องสยองขวัญไซไฟที่เลวร้ายที่สุดของเรา
ในท้ายที่สุด เราในฐานะสังคมจำเป็นต้องเป็นคนที่ดีขึ้น หากเราหวังว่าจะสร้าง AI ที่ดีขึ้น
อนาคตของชุดปัญญาประดิษฐ์
ปัญญาประดิษฐ์คือพลังแห่งอนาคต: อนาคตของชุดปัญญาประดิษฐ์ P1
ปัญญาประดิษฐ์ชุดแรกจะเปลี่ยนสังคมอย่างไร: อนาคตของปัญญาประดิษฐ์ชุด P2
เราจะสร้าง Superintelligence ประดิษฐ์ชุดแรกได้อย่างไร: อนาคตของชุดปัญญาประดิษฐ์ P3
ปัญญาประดิษฐ์ขั้นสูงจะทำลายมนุษยชาติ: อนาคตของปัญญาประดิษฐ์ซีรีส์ P4
มนุษย์จะมีชีวิตอยู่อย่างสงบสุขในอนาคตที่ปัญญาประดิษฐ์ครอบงำหรือไม่: อนาคตของปัญญาประดิษฐ์ซีรีส์ P6
การอัปเดตตามกำหนดการครั้งต่อไปสำหรับการคาดการณ์นี้
การอ้างอิงการคาดการณ์
ลิงก์ยอดนิยมและลิงก์สถาบันต่อไปนี้ถูกอ้างอิงสำหรับการคาดการณ์นี้:
ลิงก์ Quantumrun ต่อไปนี้ถูกอ้างอิงสำหรับการคาดการณ์นี้: