Penyelarasan AI: Mencocokkan tujuan kecerdasan buatan cocok dengan nilai-nilai kemanusiaan

KREDIT GAMBAR:
Gambar kredit
iStock

Penyelarasan AI: Mencocokkan tujuan kecerdasan buatan cocok dengan nilai-nilai kemanusiaan

Penyelarasan AI: Mencocokkan tujuan kecerdasan buatan cocok dengan nilai-nilai kemanusiaan

Teks subjudul
Beberapa peneliti percaya bahwa langkah-langkah harus diterapkan untuk memastikan kecerdasan buatan tidak merugikan masyarakat.
    • Penulis:
    • nama penulis
      Pandangan ke Depan Quantumrun
    • Januari 25, 2023

    Penyelarasan kecerdasan buatan (AI) adalah ketika tujuan sistem AI cocok dengan nilai-nilai manusia. Perusahaan seperti OpenAI, DeepMind, dan Anthropic memiliki tim peneliti yang satu-satunya fokus adalah mempelajari pagar pembatas untuk berbagai skenario di mana hal ini mungkin terjadi.

    Konteks penyelarasan AI

    Menurut studi penelitian University of Cornell tahun 2021, beberapa penelitian telah menunjukkan bahwa alat atau model yang dibuat oleh algoritme menampilkan bias yang bersumber dari data yang mereka latih. Misalnya, dalam pemrosesan bahasa alami (NLP), model NLP terpilih yang dilatih pada kumpulan data terbatas telah didokumentasikan membuat prediksi berdasarkan stereotip gender yang berbahaya terhadap perempuan. Demikian pula, penelitian lain menemukan bahwa algoritme yang dilatih pada kumpulan data yang dirusak menghasilkan rekomendasi yang bias rasial, khususnya dalam kepolisian.

    Ada banyak contoh di mana sistem pembelajaran mesin menjadi lebih buruk bagi minoritas atau kelompok yang menderita berbagai kerugian. Secara khusus, analisis wajah otomatis dan diagnostik perawatan kesehatan biasanya tidak bekerja dengan baik untuk wanita dan orang kulit berwarna. Ketika sistem kritis yang seharusnya didasarkan pada fakta dan logika alih-alih emosi digunakan dalam konteks seperti mengalokasikan layanan kesehatan atau pendidikan, sistem tersebut dapat menimbulkan lebih banyak kerusakan dengan membuat lebih sulit untuk mengidentifikasi alasan di balik rekomendasi ini.

    Akibatnya, perusahaan teknologi membuat tim penyelarasan AI untuk fokus menjaga algoritme tetap adil dan manusiawi. Penelitian sangat penting untuk memahami arah sistem AI tingkat lanjut, serta tantangan yang mungkin kita hadapi saat kemampuan AI berkembang.

    Dampak yang mengganggu

    Menurut Jan Leike, kepala penyelarasan AI di OpenAI (2021), mengingat bahwa sistem AI baru menjadi mampu di tahun 2010-an, dapat dimengerti bahwa sebagian besar penelitian penyelarasan AI terlalu banyak teori. Ketika sistem AI yang sangat kuat diselaraskan, salah satu tantangan yang dihadapi manusia adalah bahwa mesin ini mungkin menciptakan solusi yang terlalu rumit untuk ditinjau dan dinilai jika masuk akal secara etis.

    Leike menyusun strategi recursive reward modeling (RRM) untuk memperbaiki masalah ini. Dengan RRM, beberapa AI "pembantu" diajarkan untuk membantu manusia mengevaluasi seberapa baik kinerja AI yang lebih kompleks. Dia optimis tentang kemungkinan menciptakan sesuatu yang dia sebut sebagai "MVP penyelarasan". Dalam istilah startup, MVP (atau produk minimum yang layak) adalah produk paling sederhana yang dapat dibangun perusahaan untuk menguji ide. Harapannya, suatu saat nanti, AI menyamai kinerja manusia dalam meneliti AI dan penyelarasannya dengan nilai-nilai sekaligus fungsional.

    Sementara minat yang meningkat pada penyelarasan AI adalah hal yang positif, banyak analis di lapangan berpikir bahwa banyak "etika" yang bekerja di laboratorium AI terkemuka hanyalah hubungan masyarakat yang dirancang untuk membuat perusahaan teknologi terlihat baik dan menghindari publisitas negatif. Orang-orang ini tidak berharap praktik pengembangan etis menjadi prioritas bagi perusahaan-perusahaan ini dalam waktu dekat.

    Pengamatan ini menyoroti pentingnya pendekatan interdisipliner untuk upaya penyelarasan nilai, karena ini adalah bidang penyelidikan moral dan teknis yang relatif baru. Berbagai cabang pengetahuan harus menjadi bagian dari agenda penelitian inklusif. Inisiatif ini juga menunjukkan perlunya para teknolog dan pembuat kebijakan untuk tetap sadar akan konteks sosial dan pemangku kepentingan mereka, bahkan ketika sistem AI menjadi lebih maju.

    Implikasi penyelarasan AI

    Implikasi yang lebih luas dari penyelarasan AI dapat meliputi: 

    • Laboratorium kecerdasan buatan mempekerjakan beragam dewan etika untuk mengawasi proyek dan memenuhi pedoman AI etis. 
    • Pemerintah membuat undang-undang yang mewajibkan perusahaan untuk menyerahkan kerangka kerja AI mereka yang bertanggung jawab dan bagaimana rencana mereka untuk mengembangkan lebih lanjut proyek AI mereka.
    • Meningkatnya kontroversi tentang penggunaan algoritma dalam rekrutmen, pengawasan publik, dan penegakan hukum.
    • Peneliti dipecat dari laboratorium AI besar karena konflik kepentingan antara etika dan tujuan perusahaan.
    • Lebih banyak tekanan bagi pemerintah untuk mengatur sistem AI canggih yang sangat kuat tetapi berpotensi melanggar hak asasi manusia.

    Pertanyaan untuk dikomentari

    • Bagaimana perusahaan dapat dimintai pertanggungjawaban atas sistem AI yang mereka buat?
    • Apa potensi bahaya lainnya jika terjadi misalignment AI?

    Referensi wawasan

    Tautan populer dan institusional berikut dirujuk untuk wawasan ini: