Căn chỉnh AI: Kết hợp mục tiêu trí tuệ nhân tạo phù hợp với giá trị con người

TÍN DỤNG HÌNH ẢNH:
Tín dụng hình ảnh
iStock

Căn chỉnh AI: Kết hợp mục tiêu trí tuệ nhân tạo phù hợp với giá trị con người

Căn chỉnh AI: Kết hợp mục tiêu trí tuệ nhân tạo phù hợp với giá trị con người

Văn bản tiêu đề phụ
Một số nhà nghiên cứu cho rằng nên thực hiện các biện pháp để đảm bảo trí tuệ nhân tạo không gây hại cho xã hội.
    • tác giả:
    • tên tác giả
      Tầm nhìn lượng tử
    • 25 Tháng một, 2023

    Căn chỉnh trí tuệ nhân tạo (AI) là khi các mục tiêu của hệ thống AI phù hợp với các giá trị của con người. Các công ty như OpenAI, DeepMind và Anthropic có các nhóm nhà nghiên cứu với trọng tâm duy nhất là nghiên cứu các biện pháp bảo vệ cho các tình huống khác nhau mà điều này có thể xảy ra.

    Bối cảnh căn chỉnh AI

    Theo một nghiên cứu năm 2021 của Đại học Cornell, một số nghiên cứu đã chỉ ra rằng các công cụ hoặc mô hình do thuật toán tạo ra hiển thị sai lệch bắt nguồn từ dữ liệu mà chúng được đào tạo. Ví dụ: trong xử lý ngôn ngữ tự nhiên (NLP), các mô hình NLP chọn lọc được đào tạo trên các tập dữ liệu hạn chế đã được ghi lại để đưa ra các dự đoán dựa trên định kiến ​​giới có hại đối với phụ nữ. Tương tự như vậy, các nghiên cứu khác phát hiện ra rằng các thuật toán được đào tạo trên tập dữ liệu bị giả mạo dẫn đến các khuyến nghị thiên về chủng tộc, đặc biệt là trong việc kiểm soát chính sách.

    Có rất nhiều ví dụ trong đó các hệ thống máy học đã hoạt động kém hơn đối với các nhóm thiểu số hoặc các nhóm chịu nhiều thiệt thòi. Đặc biệt, phân tích khuôn mặt tự động và chẩn đoán chăm sóc sức khỏe thường không hoạt động tốt đối với phụ nữ và người da màu. Khi các hệ thống quan trọng nên dựa trên sự thật và logic thay vì cảm xúc được sử dụng trong các bối cảnh như phân bổ chăm sóc sức khỏe hoặc giáo dục, chúng có thể gây ra nhiều thiệt hại hơn bằng cách khiến việc xác định lý do đằng sau những khuyến nghị này trở nên khó khăn hơn.

    Do đó, các công ty công nghệ đang thành lập các nhóm liên kết AI để tập trung vào việc giữ cho các thuật toán công bằng và nhân đạo. Nghiên cứu là điều cần thiết để hiểu hướng đi của các hệ thống AI tiên tiến, cũng như những thách thức mà chúng ta có thể gặp phải khi năng lực AI phát triển.

    Tác động gián đoạn

    Theo Jan Leike, người đứng đầu bộ phận căn chỉnh AI tại OpenAI (2021), do các hệ thống AI chỉ mới có khả năng hoạt động vào những năm 2010, nên có thể hiểu rằng hầu hết các nghiên cứu về căn chỉnh AI đều thiên về lý thuyết. Khi các hệ thống AI vô cùng mạnh mẽ được điều chỉnh, một trong những thách thức mà con người phải đối mặt là những cỗ máy này có thể tạo ra các giải pháp quá phức tạp để xem xét và đánh giá liệu chúng có hợp lý về mặt đạo đức hay không.

    Leike đã nghĩ ra chiến lược lập mô hình phần thưởng đệ quy (RRM) để khắc phục vấn đề này. Với RRM, một số AI "trợ giúp" được dạy để giúp con người đánh giá mức độ hoạt động của một AI phức tạp hơn. Anh ấy lạc quan về khả năng tạo ra thứ mà anh ấy gọi là "MVP liên kết". Theo thuật ngữ khởi nghiệp, MVP (hoặc sản phẩm khả thi tối thiểu) là sản phẩm đơn giản nhất có thể mà một công ty có thể xây dựng để thử nghiệm một ý tưởng. Hy vọng là một ngày nào đó, AI phù hợp với hiệu suất của con người trong việc nghiên cứu AI và sự liên kết của nó với các giá trị trong khi vẫn hoạt động.

    Mặc dù sự quan tâm ngày càng tăng đối với sự liên kết của AI là một điều tích cực, nhưng nhiều nhà phân tích trong lĩnh vực này cho rằng phần lớn công việc "đạo đức" tại các phòng thí nghiệm AI hàng đầu chỉ là quan hệ công chúng được thiết kế để làm cho các công ty công nghệ có hình ảnh tốt và tránh dư luận tiêu cực. Những cá nhân này không mong đợi các hoạt động phát triển đạo đức sẽ sớm trở thành ưu tiên của các công ty này.

    Những quan sát này nhấn mạnh tầm quan trọng của các phương pháp tiếp cận liên ngành đối với các nỗ lực liên kết giá trị, vì đây là một lĩnh vực tương đối mới về điều tra đạo đức và kỹ thuật. Các nhánh kiến ​​thức khác nhau nên là một phần của chương trình nghiên cứu toàn diện. Sáng kiến ​​này cũng chỉ ra rằng các nhà công nghệ và hoạch định chính sách cần phải luôn nhận thức được bối cảnh xã hội và các bên liên quan của họ, ngay cả khi các hệ thống AI trở nên tiên tiến hơn.

    Ý nghĩa của sự liên kết AI

    Ý nghĩa rộng hơn của sự liên kết AI có thể bao gồm: 

    • Các phòng thí nghiệm trí tuệ nhân tạo thuê các ban đạo đức đa dạng để giám sát các dự án và thực hiện các nguyên tắc đạo đức về AI. 
    • Các chính phủ tạo ra luật yêu cầu các công ty đệ trình khuôn khổ AI có trách nhiệm của họ và cách họ lên kế hoạch phát triển hơn nữa các dự án AI của mình.
    • Tranh cãi gia tăng về việc sử dụng các thuật toán trong tuyển dụng, giám sát công cộng và thực thi pháp luật.
    • Các nhà nghiên cứu bị sa thải khỏi các phòng thí nghiệm AI lớn do xung đột lợi ích giữa đạo đức và mục tiêu của công ty.
    • Nhiều áp lực hơn đối với các chính phủ trong việc điều chỉnh các hệ thống AI tiên tiến vừa cực kỳ mạnh mẽ nhưng lại có khả năng vi phạm nhân quyền.

    Các câu hỏi để bình luận

    • Làm cách nào để các công ty có thể chịu trách nhiệm về các hệ thống AI mà họ tạo ra?
    • Những mối nguy hiểm tiềm ẩn khác nếu có sự sai lệch của AI là gì?

    Tham khảo thông tin chi tiết

    Các liên kết phổ biến và liên kết thể chế sau đây đã được tham chiếu cho thông tin chi tiết này: