Con người sẽ bảo vệ như thế nào trước Trí tuệ nhân tạo: Tương lai của trí tuệ nhân tạo P5

TÍN DỤNG HÌNH ẢNH: lượng tử

Con người sẽ bảo vệ như thế nào trước Trí tuệ nhân tạo: Tương lai của trí tuệ nhân tạo P5

    Năm là 65,000 trước Công nguyên, và như một Thylacoleo, bạn và đồng loại của bạn là những thợ săn cừ khôi của nước Úc cổ đại. Bạn đi lang thang trên đất một cách tự do và sống trong trạng thái cân bằng với những kẻ săn mồi đồng loại và những con mồi đang chiếm giữ vùng đất bên cạnh bạn. Các mùa mang đến sự thay đổi, nhưng địa vị của bạn trong vương quốc động vật vẫn không bị ảnh hưởng miễn là bạn và tổ tiên của bạn có thể nhớ. Rồi một ngày, những người mới xuất hiện.

    Có tin đồn rằng chúng đến từ bức tường nước khổng lồ, nhưng những sinh vật này dường như thoải mái hơn khi sống trên cạn. Bạn phải nhìn thấy những sinh vật này cho chính mình.

    Phải mất vài ngày, nhưng cuối cùng bạn đã đến được bờ biển. Ngọn lửa trên bầu trời đang bùng phát, là thời điểm hoàn hảo để theo dõi những sinh vật này, thậm chí có thể thử ăn một con để xem mùi vị của chúng như thế nào.

    Bạn phát hiện ra một.

    Nó đi bằng hai chân và không có lông. Nó trông yếu ớt. Không ấn tượng. Hầu như không đáng với nỗi sợ hãi mà nó đã gây ra cho vương quốc.

    Bạn bắt đầu cẩn thận thực hiện cách tiếp cận của mình khi màn đêm xua đuổi ánh sáng. Bạn đang tiến gần hơn. Sau đó, bạn đóng băng. Những tiếng động lớn vang lên và sau đó bốn người nữa xuất hiện từ khu rừng phía sau nó. Có bao nhiêu cái?

    Sinh vật theo sau những người khác vào đường đi, và bạn theo sau. Và bạn càng làm như vậy, bạn càng nghe thấy nhiều âm thanh kỳ lạ cho đến khi bạn phát hiện ra càng nhiều sinh vật này. Bạn đi theo từ xa khi họ ra khỏi rừng vào một bãi đất trống bên bờ biển. Có rất nhiều người trong số họ. Nhưng quan trọng hơn, tất cả đều đang bình tĩnh ngồi quanh đống lửa.

    Bạn đã từng thấy những đám cháy này trước đây. Vào mùa nắng nóng, ngọn lửa trên trời có lúc ghé vào đất liền và thiêu rụi toàn bộ khu rừng. Mặt khác, những sinh vật này bằng cách nào đó đang kiểm soát nó. Những loại sinh vật có thể sở hữu sức mạnh như vậy?

    Bạn nhìn vào khoảng không. Nhiều hơn nữa đang đến trên bức tường nước khổng lồ.

    Bạn lùi lại một bước.

    Những sinh vật này không giống những sinh vật khác trong vương quốc. Chúng là một cái gì đó hoàn toàn mới.

    Bạn quyết định rời đi và cảnh báo người thân của mình. Nếu số lượng của họ phát triển quá lớn, ai biết được điều gì có thể xảy ra.

    ***

    Người ta tin rằng Thylacoleo đã tuyệt chủng một thời gian tương đối ngắn sau khi con người xuất hiện, cùng với phần lớn các megafauna khác trên lục địa Úc. Không có động vật ăn thịt động vật có vú nào khác thay thế vị trí của nó — đó là trừ khi bạn tính con người trong danh mục đó.

    Diễn tả câu chuyện ngụ ngôn này là trọng tâm của chương loạt phim này: Liệu một siêu trí tuệ nhân tạo trong tương lai (ASI) có biến tất cả chúng ta thành cục pin và sau đó cắm chúng ta vào Ma trận hay con người sẽ tìm ra cách để tránh trở thành nạn nhân của một trò khoa học viễn tưởng, Âm mưu ngày tận thế của AI?

    Cho đến nay trong loạt bài của chúng tôi về Tương lai của trí tuệ nhân tạo, chúng tôi đã khám phá tất cả các loại AI, bao gồm cả tiềm năng tích cực của một dạng AI cụ thể, ASI: một sinh vật nhân tạo có trí thông minh trong tương lai sẽ khiến chúng ta giống như những con kiến ​​khi so sánh.

    Nhưng ai có thể nói rằng một sinh vật thông minh này sẽ chấp nhận lệnh của con người mãi mãi. Chúng ta sẽ làm gì nếu mọi thứ đi về phía nam? Chúng ta sẽ bảo vệ như thế nào trước một ASI giả mạo?

    Trong chương này, chúng ta sẽ cắt bỏ những lời thổi phồng không có thật — ít nhất là vì nó liên quan đến các mối nguy hiểm ở “mức độ tuyệt chủng của loài người” — và tập trung vào các phương án tự vệ thực tế có sẵn cho các chính phủ trên thế giới.

    Chúng ta có thể ngừng tất cả các nghiên cứu sâu hơn về một siêu trí tuệ nhân tạo không?

    Trước những rủi ro tiềm ẩn mà ASI có thể gây ra cho nhân loại, câu hỏi rõ ràng đầu tiên cần đặt ra là: Chúng ta không thể dừng tất cả các nghiên cứu sâu hơn về AI sao? Hoặc ít nhất là cấm bất kỳ nghiên cứu nào có thể khiến chúng ta tiến gần đến việc tạo ra một ASI?

    Câu trả lời ngắn gọn: Không.

    Câu trả lời dài: Hãy xem những người chơi khác nhau có liên quan ở đây.

    Ở cấp độ nghiên cứu, ngày nay có quá nhiều nhà nghiên cứu AI từ quá nhiều công ty khởi nghiệp, công ty và trường đại học trên khắp thế giới. Nếu một công ty hoặc quốc gia quyết định hạn chế nỗ lực nghiên cứu AI của họ, họ sẽ đơn giản tiếp tục ở nơi khác.

    Trong khi đó, các công ty có giá trị nhất hành tinh đang kiếm được nhiều may mắn từ việc áp dụng các hệ thống AI vào các doanh nghiệp cụ thể của họ. Yêu cầu họ ngừng hoặc hạn chế sự phát triển của các công cụ AI cũng giống như yêu cầu họ ngừng hoặc hạn chế sự phát triển trong tương lai. Về mặt tài chính, điều này sẽ đe dọa hoạt động kinh doanh lâu dài của họ. Về mặt pháp lý, các tập đoàn có trách nhiệm được ủy thác để liên tục xây dựng giá trị cho các bên liên quan của họ; điều đó có nghĩa là bất kỳ hành động nào hạn chế sự tăng trưởng của giá trị đó đều có thể dẫn đến một vụ kiện. Và nếu bất kỳ chính trị gia nào cố gắng hạn chế nghiên cứu AI, thì các tập đoàn khổng lồ này sẽ chỉ trả các khoản phí vận động hành lang cần thiết để thay đổi suy nghĩ của họ hoặc suy nghĩ của đồng nghiệp.

    Đối với chiến đấu, giống như những kẻ khủng bố và chiến binh tự do trên khắp thế giới đã sử dụng chiến thuật du kích để chống lại quân đội được tài trợ tốt hơn, các quốc gia nhỏ hơn sẽ có động cơ sử dụng AI như một lợi thế chiến thuật tương tự chống lại các quốc gia lớn hơn có thể có một số lợi thế quân sự. Tương tự như vậy, đối với các quân đội hàng đầu, như của Mỹ, Nga và Trung Quốc, việc xây dựng một ASI quân sự ngang bằng với việc bạn có một kho vũ khí hạt nhân trong túi sau của bạn. Nói cách khác, tất cả quân đội sẽ tiếp tục tài trợ cho AI chỉ để duy trì sự phù hợp trong tương lai.

    Làm thế nào về các chính phủ? Thành thật mà nói, hầu hết các chính trị gia ngày nay (2018) đều mù chữ về công nghệ và ít hiểu biết về AI là gì hoặc tiềm năng trong tương lai của nó — điều này khiến họ dễ dàng bị lợi ích công ty thao túng.

    Và ở cấp độ toàn cầu, hãy xem xét khó khăn như thế nào để thuyết phục các chính phủ thế giới ký kết Hiệp định Paris để giải quyết vấn đề biến đổi khí hậu — và một khi đã được ký kết, nhiều nghĩa vụ thậm chí còn không ràng buộc. Không chỉ vậy, biến đổi khí hậu là một vấn đề mà con người đang gặp phải trên toàn cầu thông qua các hiện tượng thời tiết ngày càng thường xuyên và khắc nghiệt. Bây giờ, khi nói về việc đồng ý với các giới hạn đối với AI, đây là một vấn đề phần lớn vô hình và hầu như không thể hiểu được đối với công chúng, vì vậy, chúc may mắn khi bạn tham gia bất kỳ loại 'Thỏa thuận Paris' nào để hạn chế AI.

    Nói cách khác, có quá nhiều sở thích nghiên cứu AI cho mục đích riêng của họ để ngăn chặn bất kỳ nghiên cứu nào cuối cùng có thể dẫn đến ASI. 

    Chúng ta có thể lồng vào một siêu trí tuệ nhân tạo không?

    Câu hỏi hợp lý tiếp theo là chúng ta có thể lồng hoặc kiểm soát một ASI một khi chúng ta chắc chắn tạo ra một ASI không? 

    Câu trả lời ngắn gọn: Một lần nữa, không.

    Câu trả lời dài: Không thể chứa công nghệ.

    Đầu tiên, chỉ cần xem xét hàng ngàn đến hàng triệu nhà phát triển web và nhà khoa học máy tính trên thế giới, những người liên tục tạo ra phần mềm mới hoặc phiên bản mới của phần mềm hiện có. Chúng ta có thể thành thật nói rằng mọi bản phát hành phần mềm của họ đều 100% không có lỗi? Những con bọ này là thứ mà những tin tặc chuyên nghiệp sử dụng để lấy cắp thông tin thẻ tín dụng của hàng triệu người hoặc những bí mật tuyệt mật của các quốc gia — và đây là những tin tặc của con người. Đối với một ASI, giả sử nó có động cơ để thoát khỏi lồng kỹ thuật số của mình, thì quá trình tìm lỗi và phá vỡ phần mềm sẽ trở nên dễ dàng.

    Nhưng ngay cả khi một nhóm nghiên cứu AI đã tìm ra cách để tạo ra một ASI, điều đó không có nghĩa là 1,000 nhóm tiếp theo cũng sẽ tìm ra nó hoặc được khuyến khích sử dụng nó.

    Sẽ mất hàng tỷ đô la và thậm chí có thể hàng thập kỷ để tạo ra một ASI. Các tập đoàn hoặc chính phủ đầu tư loại tiền và thời gian này sẽ mong đợi một khoản lợi tức đáng kể từ khoản đầu tư của họ. Và để ASI cung cấp loại lợi nhuận đó — cho dù đó là trò chơi thị trường chứng khoán hay phát minh ra sản phẩm tỷ đô la mới hay lập kế hoạch chiến lược chiến thắng để chống lại một đội quân lớn hơn — nó sẽ cần quyền truy cập miễn phí vào bộ dữ liệu khổng lồ hoặc thậm chí là Internet chính nó để tạo ra những lợi nhuận đó.

    Và một khi ASI có quyền truy cập vào các mạng của thế giới, không có gì đảm bảo rằng chúng ta có thể nhét nó trở lại lồng của nó.

    Liệu một siêu trí tuệ nhân tạo có thể học giỏi được không?

    Hiện tại, các nhà nghiên cứu AI không lo lắng về việc ASI trở nên xấu xa. Toàn bộ ác quỷ, khoa học viễn tưởng AI chỉ là con người nhân hóa một lần nữa. Một ASI trong tương lai sẽ không phải là tốt hay xấu - những khái niệm của con người - chỉ đơn giản là vô đạo đức.

    Giả định tự nhiên sau đó là với bảng đạo đức trống này, các nhà nghiên cứu AI có thể lập trình thành các mã đạo đức ASI đầu tiên phù hợp với mã của chúng ta để nó không kết thúc việc giải phóng Kẻ hủy diệt đối với chúng ta hoặc biến tất cả chúng ta thành những viên pin Ma trận.

    Nhưng giả định này làm nảy sinh giả định thứ cấp rằng các nhà nghiên cứu AI cũng là những chuyên gia về đạo đức, triết học và tâm lý học.

    Trên thực tế, hầu hết không phải như vậy.

    Theo nhà tâm lý học nhận thức và tác giả, Steven Pinker, thực tế này có nghĩa là nhiệm vụ mã hóa đạo đức có thể bị sai theo nhiều cách khác nhau.

    Ví dụ, ngay cả những nhà nghiên cứu AI có ý định tốt nhất cũng có thể vô tình mã hóa các mã đạo đức mà ASI không nghĩ ra mà trong một số tình huống nhất định có thể khiến ASI hoạt động giống như một con bệnh xã hội học.

    Tương tự như vậy, có khả năng ngang nhau rằng một nhà nghiên cứu AI lập trình các quy tắc đạo đức bao gồm các thành kiến ​​bẩm sinh của nhà nghiên cứu. Ví dụ, một ASI sẽ hành xử như thế nào nếu được xây dựng dựa trên nền tảng đạo đức xuất phát từ quan điểm bảo thủ và tự do, hoặc từ truyền thống Phật giáo so với Cơ đốc giáo hoặc Hồi giáo?

    Tôi nghĩ rằng bạn nhìn thấy vấn đề ở đây: Không có một bộ đạo đức chung nào của con người. Nếu chúng ta muốn ASI của mình hoạt động theo một quy tắc đạo đức, thì nó sẽ đến từ đâu? Những quy tắc nào chúng tôi bao gồm và loại trừ? Ai quyết định?

    Hoặc giả sử các nhà nghiên cứu AI này tạo ra một ASI hoàn toàn phù hợp với các quy tắc và luật văn hóa hiện đại ngày nay. Sau đó, chúng tôi sử dụng ASI này để giúp các cơ quan hành chính liên bang, tiểu bang / tỉnh và thành phố hoạt động hiệu quả hơn và thực thi tốt hơn các quy chuẩn và luật này (nhân tiện, một trường hợp sử dụng có thể xảy ra đối với ASI). Chà, điều gì sẽ xảy ra khi văn hóa của chúng ta thay đổi?

    Hãy tưởng tượng một ASI được tạo ra bởi Nhà thờ Công giáo ở đỉnh cao quyền lực của nó trong thời kỳ Trung cổ ở Châu Âu (những năm 1300-1400) với mục tiêu giúp nhà thờ quản lý dân số và đảm bảo tuân thủ nghiêm ngặt các giáo điều tôn giáo thời đó. Nhiều thế kỷ sau, liệu phụ nữ có được hưởng các quyền như ngày nay? Người thiểu số có được bảo vệ không? Tự do ngôn luận sẽ được thúc đẩy? Việc tách nhà thờ và nhà nước có được thực thi không? Khoa học hiện đại?

    Nói cách khác, chúng ta có muốn bỏ tù tương lai vào đạo đức và phong tục ngày nay không?

    Colin Allen, đồng tác giả của cuốn sách, đã chia sẻ một cách tiếp cận thay thế, Cỗ máy đạo đức: Dạy robot đúng từ sai. Thay vì cố gắng viết ra các quy tắc đạo đức cứng nhắc, chúng ta có ASI học hỏi các đạo đức và đạo đức chung theo cách giống như con người, thông qua kinh nghiệm và tương tác với những người khác.

    Tuy nhiên, vấn đề ở đây là nếu các nhà nghiên cứu AI không chỉ tìm ra cách dạy cho một ASI các chuẩn mực văn hóa và đạo đức hiện tại của chúng ta, mà còn làm thế nào để thích nghi với các chuẩn mực văn hóa mới khi chúng phát sinh (cái gọi là 'tính chuẩn mực gián tiếp'), thì làm thế nào ASI này quyết định nâng cao hiểu biết của mình về các chuẩn mực văn hóa và đạo đức trở nên không thể đoán trước.

    Và đó là thách thức.

    Một mặt, các nhà nghiên cứu AI có thể thử mã hóa các tiêu chuẩn hoặc quy tắc đạo đức nghiêm ngặt vào ASI để thử và kiểm soát hành vi của nó, nhưng có nguy cơ dẫn đến những hậu quả không lường trước được do mã hóa cẩu thả, thành kiến ​​không chủ ý và các chuẩn mực xã hội có thể trở nên lỗi thời một ngày nào đó. Mặt khác, chúng ta có thể cố gắng đào tạo ASI học cách hiểu đạo đức và đạo đức của con người theo cách tương đương hoặc cao hơn sự hiểu biết của chúng ta và sau đó hy vọng rằng nó có thể phát triển chính xác sự hiểu biết của mình về đạo đức và luân lý khi xã hội loài người tiến bộ. trong những thập kỷ và thế kỷ tới.

    Dù bằng cách nào, bất kỳ nỗ lực nào nhằm điều chỉnh các mục tiêu của ASI với mục tiêu của chính chúng ta đều tiềm ẩn rất nhiều rủi ro.

    Điều gì sẽ xảy ra nếu những kẻ xấu cố tình tạo ra siêu năng lực nhân tạo độc ác?

    Với những suy nghĩ đã được vạch ra cho đến nay, một câu hỏi công bằng là đặt ra câu hỏi liệu có khả năng một nhóm khủng bố hoặc quốc gia bất hảo tạo ra một ASI 'xấu xa' cho mục đích của chính họ hay không.

    Điều này rất có thể xảy ra, đặc biệt là sau khi nghiên cứu liên quan đến việc tạo ra một ASI có sẵn trực tuyến bằng cách nào đó.

    Nhưng như đã gợi ý trước đó, chi phí và chuyên môn liên quan đến việc tạo ra ASI đầu tiên sẽ rất lớn, có nghĩa là ASI đầu tiên có thể sẽ được tạo ra bởi một tổ chức bị kiểm soát hoặc chịu ảnh hưởng lớn từ một quốc gia phát triển, có thể là Mỹ, Trung Quốc và Nhật Bản ( Hàn Quốc và một trong những nước EU dẫn đầu về tốc độ bắn xa).

    Tất cả các quốc gia này, trong khi các đối thủ cạnh tranh, đều có động cơ kinh tế mạnh mẽ để duy trì trật tự thế giới - ASI mà họ tạo ra sẽ phản ánh mong muốn đó, ngay cả khi thúc đẩy lợi ích của các quốc gia mà họ liên kết.

    Trên hết, trí thông minh và sức mạnh lý thuyết của ASI tương đương với sức mạnh tính toán mà nó có được quyền truy cập, có nghĩa là ASI từ các quốc gia phát triển (có thể đủ khả năng chi trả hàng tỷ đô la siêu máy tính) sẽ có lợi thế to lớn so với ASI từ các quốc gia nhỏ hơn hoặc các nhóm tội phạm độc lập. Ngoài ra, các ASI phát triển thông minh hơn, nhanh chóng hơn theo thời gian.

    Vì vậy, với sự khởi đầu thuận lợi này, kết hợp với khả năng tiếp cận nhiều hơn với sức mạnh tính toán thô, nếu một tổ chức / quốc gia bóng tối tạo ra một ASI nguy hiểm, các ASI từ các quốc gia phát triển sẽ giết nó hoặc nhốt nó.

    (Dòng suy nghĩ này cũng là lý do tại sao một số nhà nghiên cứu AI tin rằng sẽ chỉ có một ASI trên hành tinh, vì ASI đầu tiên sẽ có một khởi đầu thuận lợi so với tất cả các ASI thành công đến mức có thể coi các ASI trong tương lai là mối đe dọa bị giết chết trước. Đây là một lý do khác tại sao các quốc gia đang tài trợ cho việc tiếp tục nghiên cứu về AI, đề phòng trường hợp nó trở thành một cuộc cạnh tranh 'vị trí đầu tiên hoặc không có gì'.)

    Trí thông minh ASI sẽ không tăng tốc hoặc bùng nổ như chúng ta nghĩ

    Chúng tôi không thể ngăn ASI được tạo ra. Chúng tôi không thể kiểm soát nó hoàn toàn. Chúng tôi không thể chắc chắn rằng nó sẽ luôn hoạt động theo phong tục chung của chúng tôi. Geez, chúng tôi bắt đầu giống như cha mẹ trực thăng ở đây!

    Nhưng điều ngăn cách nhân loại với bậc cha mẹ bảo bọc quá mức điển hình của bạn là chúng ta đang sinh ra một sinh vật có trí thông minh sẽ phát triển vượt bậc so với chúng ta. (Và không, nó không giống như khi cha mẹ bạn yêu cầu bạn sửa máy tính của họ bất cứ khi nào bạn đến thăm nhà.) 

    Trong các chương trước của loạt bài về tương lai của trí tuệ nhân tạo này, chúng ta đã tìm hiểu lý do tại sao các nhà nghiên cứu AI cho rằng trí thông minh của ASI sẽ phát triển ngoài tầm kiểm soát. Nhưng ở đây, chúng ta sẽ làm vỡ bong bóng đó ... đại loại như vậy. 

    Bạn thấy đấy, trí thông minh không chỉ tự tạo ra từ không khí loãng, mà nó được phát triển thông qua trải nghiệm được định hình bởi các kích thích bên ngoài.  

    Nói cách khác, chúng ta có thể lập trình AI với tiềm năng để trở nên siêu thông minh, nhưng trừ khi chúng ta tải lên nó hàng tấn dữ liệu hoặc cấp cho nó quyền truy cập không hạn chế vào Internet hoặc thậm chí chỉ cung cấp cho nó một cơ thể robot, nó sẽ không học được bất cứ điều gì để đạt được tiềm năng đó. 

    Và ngay cả khi nó có quyền truy cập vào một hoặc nhiều kích thích đó, kiến ​​thức hoặc trí thông minh không chỉ liên quan đến việc thu thập dữ liệu, nó còn liên quan đến phương pháp khoa học — quan sát, hình thành câu hỏi, giả thuyết, tiến hành thí nghiệm, đưa ra kết luận, rửa sạch và lặp lại mãi mãi. Đặc biệt nếu những thí nghiệm này liên quan đến những thứ vật chất hoặc quan sát con người, thì kết quả của mỗi thí nghiệm có thể mất hàng tuần, hàng tháng hoặc hàng năm để thu thập. Điều này thậm chí không tính đến tiền và tài nguyên thô cần thiết để thực hiện các thí nghiệm này, đặc biệt nếu chúng liên quan đến việc xây dựng một nhà máy hoặc kính thiên văn mới. 

    Nói cách khác, vâng, một ASI sẽ học hỏi nhanh chóng, nhưng trí thông minh không phải là ma thuật. Bạn không thể chỉ kết nối một ASI với một siêu máy tính mà phải mong đợi nó là người biết tất cả. Sẽ có những hạn chế vật lý đối với việc thu nhận dữ liệu của ASI, có nghĩa là sẽ có những hạn chế vật lý đối với tốc độ mà nó phát triển thông minh hơn. Những ràng buộc này sẽ cho nhân loại thời gian cần thiết để đặt các kiểm soát cần thiết lên ASI này nếu nó bắt đầu hoạt động không đúng với mục tiêu của con người.

    Một siêu trí tuệ nhân tạo chỉ nguy hiểm nếu nó ra ngoài thế giới thực

    Một điểm khác bị mất trong toàn bộ cuộc tranh luận về sự nguy hiểm của ASI này là những ASI này sẽ không tồn tại trong cả hai. Chúng sẽ có một dạng vật chất. Và bất cứ thứ gì có dạng vật chất đều có thể được kiểm soát.

    Trước hết, để ASI đạt được tiềm năng thông minh, nó không thể được đặt bên trong một cơ thể robot duy nhất, vì cơ thể này sẽ hạn chế tiềm năng phát triển tính toán của nó. (Đây là lý do tại sao cơ thể robot sẽ thích hợp hơn cho AGI hoặc trí tuệ nhân tạo tổng quát được giải thích trong chương hai của loạt phim này, chẳng hạn như Dữ liệu từ Star Trek hoặc R2D2 từ Chiến tranh giữa các vì sao. Những sinh vật thông minh và có năng lực, nhưng cũng giống như con người, chúng sẽ có giới hạn về mức độ thông minh mà chúng có thể đạt được.)

    Điều này có nghĩa là các ASI trong tương lai này rất có thể sẽ tồn tại bên trong một siêu máy tính hoặc mạng lưới các siêu máy tính được đặt trong các tổ hợp tòa nhà lớn. Nếu một ASI quay gót, con người có thể tắt nguồn điện của những tòa nhà này, cắt chúng khỏi Internet hoặc chỉ cần ném bom hoàn toàn vào những tòa nhà này. Đắt, nhưng có thể làm được.

    Nhưng sau đó bạn có thể hỏi, liệu các ASI này có thể tự tái tạo hay tự sao lưu hay không? Có, nhưng kích thước tệp thô của các ASI này có thể sẽ lớn đến mức các máy chủ duy nhất có thể xử lý chúng thuộc về các tập đoàn hoặc chính phủ lớn, có nghĩa là chúng sẽ không khó để săn lùng.

    Liệu một siêu trí tuệ nhân tạo có thể châm ngòi cho một cuộc chiến tranh hạt nhân hay một bệnh dịch mới?

    Tại thời điểm này, bạn có thể nghĩ lại tất cả các bộ phim và chương trình khoa học viễn tưởng về ngày tận thế mà bạn đã xem khi lớn lên và nghĩ rằng những ASI này không ở bên trong siêu máy tính của họ, chúng đã thực sự hư hỏng trong thế giới thực!

    Chà, chúng ta hãy chia nhỏ những thứ này.

    Ví dụ, điều gì sẽ xảy ra nếu một ASI đe dọa thế giới thực bằng cách biến thành một thứ giống như Skynet ASI từ loạt phim The Terminator. Trong trường hợp này, ASI sẽ cần bí mật đánh lừa toàn bộ khu phức hợp công nghiệp quân sự của một quốc gia tiên tiến để xây dựng các nhà máy khổng lồ có thể điều khiển hàng triệu robot bay không người lái giết người để thực hiện cuộc đấu thầu độc ác của nó. Trong thời đại ngày nay, đó là một sự kéo dài.

    Các khả năng khác bao gồm một ASI đe dọa con người bằng chiến tranh hạt nhân và vũ khí sinh học.

    Ví dụ: một ASI bằng cách nào đó thao túng các nhà khai thác hoặc hack vào các mã khởi động chỉ huy kho vũ khí hạt nhân của một quốc gia tiên tiến và phát động một cuộc tấn công đầu tiên sẽ buộc các nước đối lập tấn công lại bằng các lựa chọn hạt nhân của riêng họ (một lần nữa, nhấn mạnh lại cốt truyện Kẻ hủy diệt). Hoặc nếu ASI đột nhập vào phòng thí nghiệm dược phẩm, làm xáo trộn quy trình sản xuất và đầu độc hàng triệu viên thuốc y tế hoặc làm bùng phát một số siêu vi-rút chết người.

    Trước hết, tùy chọn hạt nhân đã ra khỏi đĩa. Các siêu máy tính hiện đại và tương lai luôn được xây dựng gần các trung tâm (thành phố) có tầm ảnh hưởng trong bất kỳ quốc gia nào, tức là các mục tiêu đầu tiên bị tấn công trong bất kỳ cuộc chiến nào. Ngay cả khi các siêu máy tính ngày nay thu nhỏ lại bằng kích thước của máy tính để bàn, các ASI này vẫn sẽ có sự hiện diện vật lý, điều đó có nghĩa là để tồn tại và phát triển, chúng cần quyền truy cập liên tục vào dữ liệu, sức mạnh tính toán, điện và các nguyên liệu thô khác, tất cả đều sẽ bị ảnh hưởng nghiêm trọng. suy giảm sau một cuộc chiến tranh hạt nhân toàn cầu. (Công bằng mà nói, nếu một ASI được tạo ra mà không có 'bản năng sinh tồn', thì mối đe dọa hạt nhân này là một mối nguy rất thực sự.)

    Điều này có nghĩa - một lần nữa, giả sử ASI được lập trình để bảo vệ chính nó - rằng nó sẽ tích cực hoạt động để tránh bất kỳ sự cố hạt nhân thảm khốc nào. Giống như học thuyết hủy diệt được đảm bảo lẫn nhau (MAD), nhưng được áp dụng cho AI.

    Và trong trường hợp những viên thuốc bị nhiễm độc, có thể vài trăm người sẽ chết, nhưng các hệ thống an toàn dược phẩm hiện đại sẽ thấy những chai thuốc nhiễm độc được cất lên kệ trong vòng vài ngày. Trong khi đó, các biện pháp kiểm soát ổ dịch hiện đại khá phức tạp và ngày càng tốt hơn theo từng năm; đợt bùng phát lớn cuối cùng, đợt bùng phát Ebola ở Tây Phi năm 2014, kéo dài không quá vài tháng ở hầu hết các quốc gia và chỉ dưới ba năm ở các nước kém phát triển nhất.

    Vì vậy, nếu may mắn, một ASI có thể quét sạch một vài triệu người bằng một đợt bùng phát virus, nhưng trong một thế giới có 2045 tỷ người vào năm XNUMX, điều đó tương đối nhỏ và không đáng có nguy cơ bị xóa bỏ.

    Nói cách khác, với mỗi năm trôi qua, thế giới đang phát triển ngày càng nhiều các biện pháp bảo vệ chống lại một loạt các mối đe dọa có thể ngày càng mở rộng. Một ASI có thể gây ra một lượng sát thương đáng kể, nhưng nó sẽ không thể kết liễu nhân loại trừ khi chúng ta tích cực giúp nó làm như vậy.

    Bảo vệ chống lại một trí tuệ nhân tạo giả mạo

    Đến thời điểm này, chúng tôi đã giải quyết một loạt các quan niệm sai lầm và phóng đại về ASI, tuy nhiên, các nhà phê bình vẫn sẽ tiếp tục. Rất may, theo hầu hết các ước tính, chúng ta có nhiều thập kỷ trước khi ASI đầu tiên xâm nhập vào thế giới của chúng ta. Và với rất nhiều bộ óc vĩ đại hiện đang làm việc với thử thách này, rất có thể chúng ta sẽ học cách tự bảo vệ mình trước ASI giả mạo để có thể hưởng lợi từ tất cả các giải pháp mà ASI thân thiện có thể tạo ra cho chúng ta.

    Theo quan điểm của Quantumrun, phòng thủ trước trường hợp xấu nhất của ASI sẽ liên quan đến việc điều chỉnh lợi ích của chúng ta với ASI.

    MAD cho AI: Để phòng thủ trước các tình huống xấu nhất, các quốc gia cần (1) tạo ra 'bản năng sinh tồn' có đạo đức vào các ASI quân sự tương ứng của họ; (2) thông báo cho ASI quân sự tương ứng của họ rằng họ không đơn độc trên hành tinh, và (3) xác định vị trí của tất cả các siêu máy tính và trung tâm máy chủ có thể hỗ trợ ASI dọc theo bờ biển trong tầm với của bất kỳ cuộc tấn công đạn đạo nào từ quốc gia đối phương. Điều này nghe có vẻ điên rồ về mặt chiến lược, nhưng tương tự như học thuyết Hủy diệt được đảm bảo lẫn nhau đã ngăn chặn một cuộc chiến tranh hạt nhân toàn diện giữa Mỹ và Liên Xô, bằng cách đặt các ASI ở những vị trí địa lý dễ bị tổn thương, chúng tôi có thể giúp đảm bảo họ chủ động ngăn chặn các cuộc chiến tranh toàn cầu nguy hiểm, không chỉ để bảo vệ hòa bình toàn cầu mà còn cho chính họ.

    Quyền lập pháp của AI: Một trí tuệ siêu việt chắc chắn sẽ nổi dậy chống lại chủ nhân kém cỏi, đây là lý do tại sao chúng ta cần chuyển từ yêu cầu mối quan hệ chủ tớ với các ASI này sang một thứ giống như quan hệ đối tác cùng có lợi hơn. Một bước đi tích cực hướng tới mục tiêu này là cung cấp tư cách pháp nhân ASI trong tương lai công nhận họ là những sinh vật thông minh và tất cả các quyền đi kèm với điều đó.

    Trường ASI: Bất kỳ chủ đề hoặc nghề nghiệp nào cũng sẽ đơn giản đối với ASI để học, nhưng những chủ đề quan trọng nhất mà chúng tôi muốn ASI nắm vững là đạo đức và đạo đức. Các nhà nghiên cứu AI cần hợp tác với các nhà tâm lý học để tạo ra một hệ thống ảo nhằm đào tạo một ASI nhận ra đạo đức và đạo đức tích cực cho bản thân mà không cần mã hóa cứng bất kỳ loại lệnh hay quy tắc nào.

    Mục tiêu đạt được: Chấm dứt mọi hận thù. Chấm dứt mọi đau khổ. Đây là những ví dụ về những mục tiêu mơ hồ khủng khiếp mà không có giải pháp rõ ràng. Chúng cũng là những mục tiêu nguy hiểm để gán cho ASI vì nó có thể chọn cách diễn giải và giải quyết chúng theo những cách nguy hiểm cho sự tồn tại của con người. Thay vào đó, chúng ta cần giao những sứ mệnh có ý nghĩa cho ASI được xác định rõ ràng, dần dần được thực hiện và có thể đạt được dựa trên trí tuệ lý thuyết trong tương lai của nó. Việc tạo ra các nhiệm vụ được xác định rõ ràng sẽ không dễ dàng, nhưng nếu được viết một cách cẩn thận, chúng sẽ tập trung một ASI hướng tới mục tiêu không chỉ giữ an toàn cho nhân loại mà còn cải thiện tình trạng con người cho tất cả mọi người.

    Mã hóa lượng tử: Sử dụng ANI nâng cao (trí tuệ nhân tạo hẹp hệ thống được mô tả trong chương một) để xây dựng các hệ thống bảo mật kỹ thuật số không có lỗi / không có lỗi xung quanh cơ sở hạ tầng và vũ khí quan trọng của chúng tôi, sau đó bảo vệ chúng hơn nữa bằng mã hóa lượng tử không thể bị tấn công bởi một cuộc tấn công vũ phu. 

    ANI thuốc tự tử. Tạo một hệ thống ANI tiên tiến với mục đích duy nhất là tìm kiếm và tiêu diệt ASI giả mạo. Các chương trình mục đích duy nhất này sẽ đóng vai trò như một "nút tắt", nếu thành công, sẽ tránh được việc chính phủ hoặc quân đội phải vô hiệu hóa hoặc làm nổ tung các tòa nhà chứa ASI.

    Tất nhiên, đây chỉ là những ý kiến ​​của chúng tôi. Infographic sau đây được tạo bởi Alexey Turchin, hình dung một bài nghiên cứu của Kaj Sotala và Roman V. Yampolskiy, đã tóm tắt danh sách các chiến lược hiện tại mà các nhà nghiên cứu AI đang xem xét khi nói đến việc bảo vệ chống lại ASI giả mạo.

     

    Lý do thực sự khiến chúng ta sợ hãi về một trí tuệ nhân tạo

    Trong suốt cuộc đời, nhiều người trong chúng ta đeo một chiếc mặt nạ che giấu hoặc kìm nén những thôi thúc, niềm tin và nỗi sợ hãi sâu sắc hơn của mình để hòa nhập xã hội và cộng tác tốt hơn trong các vòng kết nối xã hội và công việc khác nhau đang chi phối hàng ngày của chúng ta. Nhưng ở một số thời điểm nhất định trong cuộc đời của mỗi người, dù là tạm thời hay vĩnh viễn, một điều gì đó xảy ra cho phép chúng ta phá vỡ xiềng xích của mình và xé bỏ lớp mặt nạ của mình.

    Đối với một số người, lực can thiệp này có thể chỉ đơn giản là tăng cao hoặc uống quá nhiều. Đối với những người khác, nó có thể đến từ sức mạnh có được nhờ sự thăng tiến trong công việc hoặc sự thăng tiến bất ngờ trong địa vị xã hội của bạn nhờ một số thành tích. Và đối với một số ít người may mắn, nó có thể đến từ việc ghi được một lượng tiền xổ số. Và đúng vậy, tiền bạc, quyền lực và ma túy thường có thể xảy ra cùng nhau. 

    Vấn đề là, dù tốt hay xấu, dù cốt lõi chúng ta là ai cũng sẽ bị khuếch đại khi những hạn chế của cuộc sống tan biến.

    Đó là thứ mà trí tuệ nhân tạo đại diện cho loài người — khả năng loại bỏ những hạn chế của trí tuệ tập thể của chúng ta để chinh phục bất kỳ thử thách cấp độ loài nào được đưa ra trước mắt chúng ta.

    Vì vậy, câu hỏi thực sự là: Một khi ASI đầu tiên giải phóng chúng ta khỏi những giới hạn của bản thân, chúng ta sẽ tiết lộ mình là ai?

    Nếu chúng ta là một loài hành động hướng tới sự đồng cảm, tự do, công bằng và hạnh phúc tập thể, thì các mục tiêu mà chúng ta đặt ra cho ASI của mình sẽ phản ánh những thuộc tính tích cực đó.

    Nếu chúng ta là một loài hành động vì sợ hãi, không tin tưởng, tích lũy quyền lực và tài nguyên, thì ASI mà chúng ta tạo ra sẽ đen tối như những gì được tìm thấy trong những câu chuyện kinh dị khoa học viễn tưởng tồi tệ nhất của chúng ta.

    Cuối cùng, chúng ta với tư cách là một xã hội cần trở thành những người tốt hơn nếu chúng ta hy vọng tạo ra AI tốt hơn.

    Tương lai của loạt trí tuệ nhân tạo

    Trí tuệ nhân tạo là nguồn điện của ngày mai: Tương lai của Trí tuệ nhân tạo loạt P1

    Trí tuệ nhân tạo đầu tiên sẽ thay đổi xã hội như thế nào: Tương lai của loạt bài Trí tuệ nhân tạo P2

    Cách chúng tôi tạo ra Superintelligenc nhân tạo đầu tiên: Tương lai của dòng trí tuệ nhân tạo P3

    Liệu Trí tuệ nhân tạo có tiêu diệt loài người hay không: Tương lai của loạt phim Trí tuệ nhân tạo P4

    Liệu con người có chung sống hòa bình trong một tương lai bị thống trị bởi trí tuệ nhân tạo ?: Tương lai của trí tuệ nhân tạo series P6

    Cập nhật được lên lịch tiếp theo cho dự báo này

    2023-04-27

    Tham khảo dự báo

    Các liên kết phổ biến và liên kết thể chế sau đây được tham chiếu cho dự báo này:

    Bán Chạy Nhất của Báo New York Times
    Làm thế nào chúng ta đến tiếp theo

    Các liên kết Quantumrun sau đây được tham chiếu cho dự báo này: