Penjajaran AI: Memadankan matlamat kecerdasan buatan sepadan dengan nilai manusia

KREDIT GAMBAR:
Kredit Image
iStock

Penjajaran AI: Memadankan matlamat kecerdasan buatan sepadan dengan nilai manusia

Penjajaran AI: Memadankan matlamat kecerdasan buatan sepadan dengan nilai manusia

Teks subtajuk
Sesetengah penyelidik percaya bahawa langkah perlu dilaksanakan untuk memastikan kecerdasan buatan tidak membahayakan masyarakat.
    • Pengarang
    • Nama pengarang
      Quantumrun Foresight
    • Januari 25, 2023

    Penjajaran kecerdasan buatan (AI) ialah apabila matlamat sistem AI sepadan dengan nilai manusia. Syarikat seperti OpenAI, DeepMind dan Anthropic mempunyai pasukan penyelidik yang fokus tunggalnya adalah untuk mengkaji pagar untuk senario yang berbeza di mana perkara ini mungkin berlaku.

    Konteks penjajaran AI

    Menurut kajian penyelidikan Universiti Cornell 2021, beberapa kajian telah menunjukkan bahawa alat atau model yang dicipta oleh algoritma memaparkan bias yang diperoleh daripada data yang mereka latih. Contohnya, dalam pemprosesan bahasa semula jadi (NLP), model NLP terpilih yang dilatih pada set data terhad telah didokumenkan membuat ramalan berdasarkan stereotaip jantina yang berbahaya terhadap wanita. Begitu juga, kajian lain mendapati bahawa algoritma yang dilatih pada set data yang dirosakkan menghasilkan pengesyoran berat sebelah kaum, terutamanya dalam kepolisan.

    Terdapat banyak contoh di mana sistem pembelajaran mesin telah menjadi lebih teruk untuk minoriti atau kumpulan yang mengalami pelbagai kelemahan. Khususnya, analisis muka automatik dan diagnostik penjagaan kesihatan biasanya tidak berfungsi dengan baik untuk wanita dan orang kulit berwarna. Apabila sistem kritikal yang harus berdasarkan fakta dan logik dan bukannya emosi digunakan dalam konteks seperti memperuntukkan penjagaan kesihatan atau pendidikan, mereka boleh melakukan lebih banyak kerosakan dengan menjadikannya lebih sukar untuk mengenal pasti alasan di sebalik pengesyoran ini.

    Akibatnya, firma teknologi mencipta pasukan penjajaran AI untuk menumpukan pada memastikan algoritma adil dan berperikemanusiaan. Penyelidikan adalah penting untuk memahami hala tuju sistem AI lanjutan, serta cabaran yang mungkin kita hadapi apabila keupayaan AI berkembang.

    Kesan yang mengganggu

    Menurut Jan Leike, ketua penjajaran AI di OpenAI (2021), memandangkan sistem AI hanya menjadi berkebolehan pada tahun 2010-an, dapat difahami bahawa kebanyakan penyelidikan penjajaran AI adalah teori yang berat. Apabila sistem AI yang sangat berkuasa diselaraskan, salah satu cabaran yang dihadapi manusia ialah mesin ini mungkin mencipta penyelesaian yang terlalu rumit untuk disemak dan dinilai sama ada ia masuk akal dari segi etika.

    Leike mencipta strategi pemodelan ganjaran rekursif (RRM) untuk menyelesaikan masalah ini. Dengan RRM, beberapa AI "pembantu" diajar untuk membantu manusia menilai prestasi AI yang lebih kompleks. Dia optimistik tentang kemungkinan mencipta sesuatu yang dia rujuk sebagai "MVP penjajaran." Dari segi permulaan, MVP (atau produk berdaya maju minimum) ialah produk paling mudah yang boleh dibina oleh syarikat untuk menguji idea. Harapannya ialah suatu hari nanti, AI memadankan prestasi manusia dalam menyelidik AI dan penjajarannya dengan nilai sambil juga berfungsi.

    Walaupun peningkatan minat dalam penjajaran AI adalah positif bersih, ramai penganalisis dalam bidang itu berpendapat bahawa kebanyakan kerja "etika" di makmal AI terkemuka hanyalah perhubungan awam yang direka untuk menjadikan syarikat teknologi kelihatan baik dan mengelakkan publisiti negatif. Individu ini tidak menjangkakan amalan pembangunan etika menjadi keutamaan bagi syarikat-syarikat ini dalam masa terdekat.

    Pemerhatian ini menyerlahkan kepentingan pendekatan antara disiplin untuk usaha penjajaran nilai, kerana ini adalah bidang siasatan moral dan teknikal yang agak baharu. Cabang ilmu yang berbeza harus menjadi sebahagian daripada agenda penyelidikan yang inklusif. Inisiatif ini juga menunjukkan keperluan untuk ahli teknologi dan penggubal dasar untuk terus menyedari konteks sosial dan pihak berkepentingan mereka, walaupun sistem AI menjadi lebih maju.

    Implikasi penjajaran AI

    Implikasi yang lebih luas daripada penjajaran AI mungkin termasuk: 

    • Makmal kecerdasan buatan mengupah papan etika yang pelbagai untuk menyelia projek dan memenuhi garis panduan AI beretika. 
    • Kerajaan mewujudkan undang-undang yang memerlukan syarikat menyerahkan rangka kerja AI yang bertanggungjawab dan cara mereka merancang untuk membangunkan lagi projek AI mereka.
    • Peningkatan kontroversi mengenai penggunaan algoritma dalam pengambilan, pengawasan awam dan penguatkuasaan undang-undang.
    • Penyelidik dipecat dari makmal AI yang besar kerana konflik kepentingan antara etika dan matlamat korporat.
    • Lebih banyak tekanan bagi kerajaan untuk mengawal selia sistem AI canggih yang kedua-duanya sangat berkuasa tetapi berpotensi melanggar hak asasi manusia.

    Soalan untuk diulas

    • Bagaimanakah firma boleh dipertanggungjawabkan untuk sistem AI yang mereka cipta?
    • Apakah potensi bahaya lain jika terdapat ketidakjajaran AI?

    Rujukan wawasan

    Pautan popular dan institusi berikut telah dirujuk untuk cerapan ini: