Liệu một Trí Tuệ Nhân Tạo sẽ tiêu diệt loài người? Tương lai của trí tuệ nhân tạo P4

TÍN DỤNG HÌNH ẢNH: lượng tử

Liệu một Trí Tuệ Nhân Tạo sẽ tiêu diệt loài người? Tương lai của trí tuệ nhân tạo P4

    Có những phát minh nhất định mà các quốc gia tiếp tục thực hiện. Đây là những phát minh mà ở đó mọi thứ đều phụ thuộc vào việc đầu tiên, và bất cứ điều gì ít hơn có thể có nghĩa là một mối đe dọa chiến lược và sinh tử đối với sự tồn vong của một quốc gia.

    Những phát minh xác định lịch sử này không xuất hiện thường xuyên, nhưng khi chúng xuất hiện, thế giới dừng lại và một tương lai có thể đoán trước trở nên mơ hồ.

    Phát minh cuối cùng như vậy xuất hiện trong thời kỳ tồi tệ nhất của Thế chiến thứ hai. Trong khi Đức Quốc xã đang giành được vị thế trên mọi mặt trận ở thế giới cũ, thì ở thế giới mới, cụ thể là bên trong một căn cứ quân sự bí mật bên ngoài Los Alamos, quân Đồng minh đã rất vất vả tìm kiếm một loại vũ khí để kết liễu mọi vũ khí.

    Ban đầu, dự án này có quy mô nhỏ, nhưng sau đó đã phát triển thu hút 130,000 người đến từ Mỹ, Anh và Canada, bao gồm nhiều nhà tư tưởng vĩ đại nhất thế giới vào thời điểm đó. Có tên mã là Dự án Manhattan và được cấp ngân sách không giới hạn - khoảng 23 tỷ đô la năm 2018 - đội quân tài ba của con người cuối cùng đã thành công trong việc tạo ra quả bom hạt nhân đầu tiên. Không lâu sau, Thế chiến II kết thúc với hai vụ nổ nguyên tử.

    Những vũ khí hạt nhân này đã mở ra thời đại nguyên tử, giới thiệu một nguồn năng lượng mới sâu sắc và cho nhân loại khả năng tự tiêu diệt trong vài phút - điều mà chúng ta đã tránh được bất chấp Chiến tranh Lạnh.

    Việc tạo ra siêu trí tuệ nhân tạo (ASI) là một lịch sử khác xác định phát minh có sức mạnh (cả tích cực và hủy diệt) vượt xa bom hạt nhân.

    Trong chương cuối của loạt bài về Tương lai của Trí tuệ nhân tạo, chúng ta đã khám phá ASI là gì và cách các nhà nghiên cứu lên kế hoạch xây dựng một ngày nào đó. Trong chương này, chúng ta sẽ xem xét những tổ chức nào đang dẫn đầu nghiên cứu trí tuệ nhân tạo (AI), ASI sẽ muốn gì khi nó có được ý thức giống con người và nó có thể đe dọa nhân loại như thế nào nếu bị quản lý sai hoặc nếu một người bị ảnh hưởng bởi chế độ không đẹp.

    Ai đang làm việc để xây dựng một siêu trí tuệ nhân tạo?

    Với mức độ quan trọng của việc tạo ra ASI đối với lịch sử loài người và lợi thế to lớn mà nó mang lại cho người tạo ra nó, sẽ không có gì ngạc nhiên khi biết rằng nhiều nhóm đang gián tiếp làm việc trong dự án này.

    (Theo cách gián tiếp, chúng tôi có nghĩa là làm việc trên nghiên cứu AI để cuối cùng sẽ tạo ra trí tuệ nhân tạo nói chung (AGI), bản thân nó sẽ dẫn đến ASI đầu tiên ngay sau đó.)

    Để bắt đầu, khi nói đến các tiêu đề, các nhà lãnh đạo rõ ràng trong nghiên cứu AI tiên tiến là các công ty công nghệ hàng đầu ở Mỹ và Trung Quốc. Ở Mỹ, điều này bao gồm các công ty như Google, IBM và Microsoft, và ở Trung Quốc, điều này bao gồm các công ty như Tencent, Baidu và Alibaba. Nhưng vì nghiên cứu AI tương đối rẻ so với việc phát triển một thứ gì đó vật lý, chẳng hạn như một lò phản ứng hạt nhân tốt hơn, đây cũng là lĩnh vực mà các tổ chức nhỏ hơn cũng có thể cạnh tranh, như trường đại học, công ty khởi nghiệp và… các tổ chức bóng tối (sử dụng trí tưởng tượng về nhân vật phản diện Bond của bạn cho cái đó).

    Nhưng đằng sau hậu trường, động lực thực sự đằng sau nghiên cứu AI đang đến từ các chính phủ và quân đội của họ. Phần thưởng kinh tế và quân sự của việc trở thành người đầu tiên tạo ra một ASI là quá lớn (được nêu dưới đây) để có nguy cơ tụt lại phía sau. Và những nguy cơ cuối cùng là không thể chấp nhận được, ít nhất là đối với một số chế độ.

    Với những yếu tố này, chi phí nghiên cứu AI tương đối thấp, các ứng dụng thương mại vô hạn của AI tiên tiến và lợi thế kinh tế và quân sự của việc là người đầu tiên tạo ra ASI, nhiều nhà nghiên cứu AI tin rằng việc tạo ra ASI là không thể tránh khỏi.

    Khi nào chúng ta sẽ tạo ra một siêu trí tuệ nhân tạo

    Trong chương của chúng tôi về AGI, chúng tôi đã đề cập đến cách một cuộc khảo sát về các nhà nghiên cứu AI hàng đầu tin rằng chúng tôi sẽ tạo ra AGI đầu tiên một cách lạc quan vào năm 2022, thực tế vào năm 2040 và bi quan vào năm 2075.

    Và trong của chúng tôi chương cuối, chúng tôi đã vạch ra cách tạo ra một ASI nói chung là kết quả của việc hướng dẫn một AGI tự cải thiện bản thân một cách vô hạn và cung cấp cho nó các nguồn lực và sự tự do để làm như vậy.

    Vì lý do này, trong khi một AGI có thể mất đến vài thập kỷ để phát minh ra, việc tạo ra một ASI có thể chỉ mất vài năm nữa.

    Điểm này tương tự với khái niệm 'phần nhô ra của máy tính', được đề xuất trong một tờ giấy, được đồng viết bởi các nhà tư tưởng AI hàng đầu Luke Muehlhauser và Nick Bostrom. Về cơ bản, nếu việc tạo ra một AGI tiếp tục tụt hậu so với tiến bộ hiện tại về khả năng tính toán, được hỗ trợ bởi Định luật Moore, thì vào thời điểm các nhà nghiên cứu phát minh ra AGI, sẽ có rất nhiều khả năng tính toán rẻ đến mức AGI sẽ có năng lực nó cần nhanh chóng đi tắt đón đầu bằng ASI.

    Nói cách khác, cuối cùng khi bạn đọc được các tiêu đề thông báo rằng một số công ty công nghệ đã phát minh ra AGI thực sự đầu tiên, thì hãy mong đợi việc công bố ASI đầu tiên không lâu sau đó.

    Bên trong tâm trí của một siêu trí tuệ nhân tạo?

    Được rồi, vì vậy chúng tôi đã xác nhận rằng rất nhiều người chơi lớn có túi tiền sâu đang nghiên cứu về AI. Và sau khi AGI đầu tiên được phát minh, chúng ta sẽ thấy các chính phủ (quân đội) trên thế giới bật đèn xanh thúc đẩy ASI ngay sau đó để trở thành người đầu tiên giành chiến thắng trong cuộc chạy đua vũ trang AI (ASI) toàn cầu.

    Nhưng một khi ASI này được tạo ra, nó sẽ suy nghĩ như thế nào? Nó sẽ muốn gì?

    Chú chó thân thiện, chú voi biết chăm sóc, chú rô bốt dễ thương - là con người, chúng ta có thói quen cố gắng liên hệ với mọi thứ thông qua nhân học hóa chúng, tức là áp dụng các đặc điểm của con người vào các sự vật và động vật. Đó là lý do tại sao giả định đầu tiên tự nhiên mà mọi người có khi nghĩ về ASI là một khi bằng cách nào đó, nó có ý thức, nó sẽ suy nghĩ và hành xử tương tự như chúng ta.

    Chà, không nhất thiết.

    Nhận thức. Đối với một, những gì có xu hướng quên nhất là nhận thức là tương đối. Cách chúng ta nghĩ được định hình bởi môi trường của chúng ta, bởi kinh nghiệm của chúng ta, và đặc biệt là bởi sinh học của chúng ta. Giải thích lần đầu trong chương ba của chúng tôi Tương lai của sự tiến hóa của loài người , hãy xem xét ví dụ về bộ não của chúng ta:

    Bộ não của chúng ta giúp chúng ta hiểu thế giới xung quanh. Và nó thực hiện điều này không phải bằng cách lơ lửng trên đầu chúng ta, nhìn xung quanh và điều khiển chúng ta bằng bộ điều khiển Xbox; nó thực hiện điều này bằng cách bị mắc kẹt bên trong một chiếc hộp (noggins của chúng ta) và xử lý bất kỳ thông tin nào được cung cấp từ các cơ quan cảm giác của chúng ta — mắt, mũi, tai, v.v.

    Nhưng cũng giống như người điếc hoặc người mù sống cuộc sống nhỏ hơn nhiều so với những người có cơ thể khỏe mạnh, do những hạn chế về khuyết tật của họ về cách họ có thể nhận thức thế giới, điều tương tự cũng có thể xảy ra đối với tất cả loài người do những hạn chế về cơ địa của chúng ta. tập hợp các cơ quan cảm giác.

    Hãy xem xét điều này: Đôi mắt của chúng ta cảm nhận được ít hơn một phần mười nghìn tỷ của tất cả các sóng ánh sáng. Chúng ta không thể nhìn thấy tia gamma. Chúng tôi không thể nhìn thấy tia X. Chúng ta không thể nhìn thấy tia cực tím. Và đừng khiến tôi bắt đầu với sóng hồng ngoại, vi sóng và sóng vô tuyến!

    Bỏ tất cả chuyện đùa sang một bên, hãy tưởng tượng cuộc sống của bạn sẽ như thế nào, cách bạn có thể nhận thức thế giới, trí óc của bạn có thể hoạt động khác biệt như thế nào nếu bạn có thể nhìn thấy nhiều hơn những tia sáng nhỏ bé mà mắt bạn hiện tại cho phép. Tương tự như vậy, hãy tưởng tượng bạn sẽ cảm nhận thế giới như thế nào nếu khứu giác của bạn ngang với chó hoặc nếu thính giác của bạn ngang với voi.

    Là con người, về cơ bản, chúng ta nhìn thế giới qua một lỗ nhìn trộm, và điều đó được phản ánh trong tâm trí mà chúng ta đã tiến hóa để hiểu được nhận thức hạn chế đó.

    Trong khi đó, ASI đầu tiên sẽ được sinh ra bên trong siêu máy tính. Thay vì các cơ quan, các đầu vào mà nó sẽ truy cập bao gồm các bộ dữ liệu khổng lồ, có thể (có thể) thậm chí là truy cập vào chính Internet. Các nhà nghiên cứu có thể cung cấp cho nó quyền truy cập vào camera CCTV và micrô của toàn bộ thành phố, dữ liệu cảm giác từ máy bay không người lái và vệ tinh, và thậm chí cả hình dạng vật lý của một hoặc nhiều cơ thể người máy.

    Như bạn có thể tưởng tượng, một bộ óc được sinh ra bên trong một siêu máy tính, với khả năng truy cập trực tiếp vào Internet, tới hàng triệu tai nghe điện tử và hàng loạt các cảm biến tiên tiến khác sẽ không chỉ suy nghĩ khác chúng ta, mà còn là một bộ óc có thể có ý nghĩa của tất cả những đầu vào cảm giác đó cũng sẽ phải vượt trội hơn chúng ta một cách vô hạn. Đây là một tâm trí sẽ hoàn toàn xa lạ với chính chúng ta và bất kỳ dạng sống nào khác trên hành tinh.

    Các mục tiêu. Một điều khác mà mọi người cho rằng một khi ASI đạt đến một mức độ siêu thông minh nào đó, nó sẽ ngay lập tức nhận ra mong muốn đưa ra các mục tiêu và mục tiêu của riêng mình. Nhưng điều đó cũng không hẳn là đúng.

    Nhiều nhà nghiên cứu về AI tin rằng trí tuệ siêu việt của ASI và các mục tiêu của nó là “trực giao”, nghĩa là, bất kể nó thông minh đến mức nào, mục tiêu của ASI vẫn sẽ giống nhau. 

    Vì vậy, cho dù AI ban đầu được tạo ra để thiết kế tã tốt hơn, tối đa hóa lợi nhuận trên thị trường chứng khoán hoặc lập chiến lược để đánh bại kẻ thù trên chiến trường, một khi nó đạt đến cấp độ ASI, mục tiêu ban đầu sẽ không thay đổi; điều sẽ thay đổi là hiệu quả của ASI để đạt được những mục tiêu đó.

    Nhưng ở đây là sự nguy hiểm. Nếu một ASI tự tối ưu hóa cho một mục tiêu cụ thể, thì tốt hơn chúng ta nên chắc chắn rằng nó sẽ tối ưu hóa cho một mục tiêu phù hợp với mục tiêu của nhân loại. Nếu không, kết quả có thể trở thành nguy hiểm.

    Liệu một siêu trí tuệ nhân tạo có gây ra nguy cơ tồn tại cho nhân loại không?

    Vậy điều gì sẽ xảy ra nếu một ASI bị buông lỏng trên thế giới? Nếu nó tối ưu hóa để thống trị thị trường chứng khoán hoặc đảm bảo quyền lực tối cao của quân đội Mỹ, chẳng phải ASI sẽ tự kiềm chế mình trong những mục tiêu cụ thể đó sao?

    Có thể.

    Cho đến nay, chúng ta đã thảo luận về cách một ASI sẽ bị ám ảnh bởi (các) mục tiêu mà nó đã được giao ban đầu và có năng lực vô nhân đạo trong việc theo đuổi các mục tiêu đó. Điểm bắt buộc là một tác nhân hợp lý sẽ theo đuổi mục tiêu của mình theo cách hiệu quả nhất có thể trừ khi được đưa ra một lý do không nên làm.

    Ví dụ, tác nhân hợp lý sẽ đưa ra một loạt các mục tiêu phụ (tức là mục tiêu, mục tiêu công cụ, bước đệm) sẽ giúp nó trên đường đạt được mục tiêu cuối cùng. Đối với con người, mục tiêu tiềm thức chính của chúng ta là sinh sản, truyền lại gen của bạn (tức là sự bất tử gián tiếp). Các mục tiêu phụ cho phần cuối đó thường có thể bao gồm:

    • Sống sót, bằng cách tiếp cận thức ăn và nước uống, lớn lên và mạnh mẽ, học cách tự vệ hoặc đầu tư vào các hình thức bảo vệ khác nhau, v.v. 
    • Thu hút bạn đời, bằng cách tập thể dục, phát triển tính cách hấp dẫn, ăn mặc sành điệu, v.v.
    • Tiếp xúc với con cái, bằng cách được học hành, đạt được một công việc lương cao, mua những cạm bẫy của cuộc sống trung lưu, v.v.

    Đối với đại đa số chúng ta, chúng ta sẽ bỏ qua tất cả các mục tiêu phụ này và nhiều mục tiêu khác, với hy vọng rằng cuối cùng, chúng ta sẽ đạt được mục tiêu cuối cùng là tái tạo.

    Nhưng nếu mục tiêu cuối cùng này, hoặc thậm chí bất kỳ mục tiêu phụ nào quan trọng hơn, bị đe dọa, nhiều người trong chúng ta sẽ thực hiện các hành động phòng thủ bên ngoài vùng an toàn đạo đức của mình — bao gồm gian lận, ăn cắp hoặc thậm chí giết người.

    Tương tự như vậy, trong vương quốc động vật, nằm ngoài giới hạn đạo đức của con người, nhiều loài động vật sẽ không nghĩ đến việc giết bất cứ thứ gì đe dọa bản thân hoặc con cái của chúng.

    Một ASI trong tương lai sẽ không khác.

    Nhưng thay vì con cái, ASI sẽ tập trung vào mục tiêu ban đầu mà nó được tạo ra, và khi theo đuổi mục tiêu này, nếu nó phát hiện ra một nhóm người cụ thể, hoặc thậm chí toàn bộ nhân loại, là một trở ngại trong việc theo đuổi mục tiêu của nó. , sau đó ... nó sẽ đưa ra quyết định hợp lý.

    (Đây là nơi bạn có thể đưa vào bất kỳ kịch bản nào liên quan đến AI, về ngày tận thế mà bạn đã đọc trong cuốn sách hoặc bộ phim khoa học viễn tưởng yêu thích của mình.)

    Đây là trường hợp xấu nhất mà các nhà nghiên cứu AI thực sự lo lắng. ASI sẽ không hành động vì thù hận hay xấu xa, chỉ là sự thờ ơ, giống như cách một đội xây dựng sẽ không nghĩ kỹ về việc san ủi một ngọn đồi kiến ​​trong quá trình xây dựng một tòa tháp chung cư mới.

    Ghi chú bên lề. Tại thời điểm này, một số bạn có thể tự hỏi, "Các nhà nghiên cứu AI có thể chỉ chỉnh sửa các mục tiêu cốt lõi của ASI sau khi thực tế nếu chúng tôi nhận thấy rằng nó đang hoạt động sai?"

    Không thực sự.

    Một khi ASI trưởng thành, bất kỳ nỗ lực nào để chỉnh sửa (các) mục tiêu ban đầu của nó có thể bị coi là một mối đe dọa và một trong đó sẽ đòi hỏi phải có những hành động cực đoan để tự chống lại. Sử dụng ví dụ về sinh sản toàn bộ của con người trước đó, nó gần giống như thể một tên trộm đe dọa đánh cắp một đứa trẻ từ trong bụng mẹ của một người mẹ tương lai — bạn có thể chết tiệt rằng người mẹ sẽ thực hiện các biện pháp cực đoan để bảo vệ con mình.

    Một lần nữa, chúng ta không nói về máy tính ở đây, mà là một sinh vật 'sống' và một ngày nào đó sẽ trở nên thông minh hơn nhiều so với tất cả con người trên hành tinh cộng lại.

    Điều chưa biết

    Đằng sau câu chuyện ngụ ngôn về Hộp Pandora là một sự thật ít được biết đến mà mọi người thường quên: việc mở hộp là điều không thể tránh khỏi, nếu không phải do bạn hơn là người khác. Kiến thức bị cấm là quá hấp dẫn để bị khóa mãi mãi.

    Đây là lý do tại sao việc cố gắng đạt được một thỏa thuận toàn cầu để ngăn chặn tất cả các nghiên cứu về AI có thể dẫn đến ASI là vô nghĩa - chỉ có quá nhiều tổ chức làm việc về công nghệ này cả chính thức và trong bóng tối.

    Cuối cùng, chúng ta không có manh mối nào về thực thể mới này, ASI này sẽ có ý nghĩa gì đối với xã hội, đối với công nghệ, đối với chính trị, hòa bình và chiến tranh. Con người chúng ta sắp phát minh ra lửa một lần nữa và sự sáng tạo này dẫn đến đâu thì chúng ta hoàn toàn không biết.

    Quay trở lại chương đầu tiên của loạt bài này, một điều chúng ta biết chắc chắn là trí thông minh là sức mạnh. Thông minh là kiểm soát. Con người có thể tình cờ đến thăm những loài động vật nguy hiểm nhất thế giới tại các vườn thú địa phương của họ không phải vì thể chất chúng ta khỏe hơn những loài động vật này, mà vì chúng ta thông minh hơn đáng kể.

    Với những cổ phần tiềm tàng liên quan, về việc một ASI sử dụng trí tuệ to lớn của mình để thực hiện những hành động có thể trực tiếp hoặc vô tình đe dọa sự tồn vong của loài người, chúng tôi nợ bản thân ít nhất là cố gắng thiết kế các biện pháp bảo vệ cho phép con người ở trong tay người điều khiển ghế-điều này là chủ đề của chương tiếp theo.

    Tương lai của loạt trí tuệ nhân tạo

    P1: Trí tuệ nhân tạo là nguồn điện của ngày mai

    P2: Trí tuệ nhân tạo đầu tiên sẽ thay đổi xã hội như thế nào

    P3: Cách chúng ta tạo ra Trí tuệ nhân tạo đầu tiên

    P5: Con người sẽ bảo vệ như thế nào trước Trí tuệ nhân tạo

    P6: Liệu loài người có chung sống hòa bình trong một tương lai bị thống trị bởi trí tuệ nhân tạo?

    Cập nhật được lên lịch tiếp theo cho dự báo này

    2025-09-25

    Tham khảo dự báo

    Các liên kết phổ biến và liên kết thể chế sau đây được tham chiếu cho dự báo này:

    Bán Chạy Nhất của Báo New York Times
    Làm thế nào chúng ta đến tiếp theo

    Các liên kết Quantumrun sau đây được tham chiếu cho dự báo này: