Bias kecerdasan buatan: Mesin tidak objektif seperti yang kami harapkan

KREDIT GAMBAR:
Kredit Image
iStock

Bias kecerdasan buatan: Mesin tidak objektif seperti yang kami harapkan

Bias kecerdasan buatan: Mesin tidak objektif seperti yang kami harapkan

Teks subtajuk
Semua orang bersetuju bahawa AI sepatutnya tidak berat sebelah, tetapi mengalih keluar berat sebelah terbukti bermasalah
    • Pengarang
    • Nama pengarang
      Quantumrun Foresight
    • Februari 8, 2022

    Ringkasan cerapan

    Walaupun teknologi yang dipacu data memegang janji untuk memupuk masyarakat yang adil, mereka sering mencerminkan berat sebelah yang sama yang dimiliki manusia, yang membawa kepada potensi ketidakadilan. Sebagai contoh, berat sebelah dalam sistem kecerdasan buatan (AI) secara tidak sengaja boleh memburukkan lagi stereotaip yang berbahaya. Walau bagaimanapun, usaha sedang dijalankan untuk menjadikan sistem AI lebih saksama, walaupun ini menimbulkan persoalan rumit tentang keseimbangan antara utiliti dan keadilan, dan keperluan untuk peraturan dan kepelbagaian yang bertimbang rasa dalam pasukan teknologi.

    konteks umum bias AI

    Harapannya ialah teknologi yang didorong oleh data akan membantu manusia dalam mewujudkan masyarakat di mana keadilan adalah norma untuk semua. Namun, realiti semasa memberi gambaran berbeza. Banyak sikap berat sebelah yang ada pada manusia, yang telah membawa kepada ketidakadilan pada masa lalu, kini dicerminkan dalam algoritma yang mengawal dunia digital kita. Kecondongan dalam sistem AI ini sering berpunca daripada prasangka individu yang membangunkan sistem ini, dan berat sebelah ini kerap meresap ke dalam kerja mereka.

    Sebagai contoh, ambil satu projek pada tahun 2012 yang dikenali sebagai ImageNet, yang berusaha untuk mendapatkan sumber ramai pelabelan imej untuk latihan sistem pembelajaran mesin. Rangkaian saraf besar yang dilatih pada data ini kemudiannya dapat mengenal pasti objek dengan ketepatan yang mengagumkan. Walau bagaimanapun, selepas pemeriksaan lebih dekat, penyelidik menemui bias yang tersembunyi dalam data ImageNet. Dalam satu kes tertentu, algoritma yang dilatih mengenai data ini adalah berat sebelah terhadap andaian bahawa semua pengaturcara perisian adalah lelaki kulit putih.

    Kecondongan ini berpotensi menyebabkan wanita terlepas pandang untuk peranan sedemikian apabila proses pengambilan pekerja diautomasikan. Kecondongan menjumpai set data kerana individu yang menambahkan label pada imej "wanita" termasuk label tambahan yang terdiri daripada istilah yang menghina. Contoh ini menggambarkan bagaimana berat sebelah, sama ada disengajakan atau tidak disengajakan, boleh menyusup walaupun sistem AI yang paling canggih, yang berpotensi mengekalkan stereotaip dan ketidaksamaan yang berbahaya.

    Kesan yang mengganggu 

    Usaha untuk menangani berat sebelah dalam data dan algoritma telah dimulakan oleh penyelidik merentasi pelbagai organisasi awam dan swasta. Dalam kes projek ImageNet, contohnya, crowdsourcing digunakan untuk mengenal pasti dan menghapuskan istilah pelabelan yang menimbulkan cahaya yang menghina pada imej tertentu. Langkah-langkah ini menunjukkan bahawa memang mungkin untuk mengkonfigurasi semula sistem AI untuk menjadi lebih saksama.

    Walau bagaimanapun, sesetengah pakar berpendapat bahawa mengalih keluar berat sebelah berpotensi menyebabkan set data kurang berkesan, terutamanya apabila berbilang berat sebelah sedang dimainkan. Set data yang dilucutkan daripada berat sebelah tertentu mungkin akhirnya kekurangan maklumat yang mencukupi untuk kegunaan berkesan. Ia menimbulkan persoalan tentang rupa set data imej yang benar-benar pelbagai, dan bagaimana ia boleh digunakan tanpa menjejaskan utilitinya.

    Trend ini menekankan keperluan untuk pendekatan yang bertimbang rasa terhadap penggunaan AI dan teknologi dipacu data. Bagi syarikat, ini mungkin bermakna melabur dalam alat pengesanan berat sebelah dan mempromosikan kepelbagaian dalam pasukan teknologi. Bagi kerajaan, ia boleh melibatkan pelaksanaan peraturan untuk memastikan penggunaan AI yang adil. 

    Implikasi bias AI

    Implikasi yang lebih luas dari bias AI mungkin termasuk:

    • Organisasi menjadi proaktif dalam memastikan keadilan dan tanpa diskriminasi kerana mereka memanfaatkan AI untuk meningkatkan produktiviti dan prestasi. 
    • Mempunyai ahli etika AI dalam pasukan pembangunan untuk mengesan dan mengurangkan risiko etika pada awal projek. 
    • Mereka bentuk produk AI dengan faktor kepelbagaian seperti jantina, bangsa, kelas dan budaya dengan jelas dalam fikiran.
    • Mendapatkan wakil daripada pelbagai kumpulan yang akan menggunakan produk AI syarikat untuk mengujinya sebelum dikeluarkan.
    • Pelbagai perkhidmatan awam dihadkan daripada orang awam tertentu.
    • Orang awam tertentu tidak dapat mengakses atau layak untuk peluang pekerjaan tertentu.
    • Agensi penguatkuasaan undang-undang dan profesional secara tidak adil menyasarkan anggota masyarakat tertentu lebih daripada yang lain. 

    Soalan yang perlu dipertimbangkan

    • Adakah anda yakin bahawa pembuatan keputusan automatik akan adil pada masa hadapan?
    • Bagaimana pula dengan pembuatan keputusan AI membuatkan anda paling gementar?

    Rujukan wawasan

    Pautan popular dan institusi berikut telah dirujuk untuk cerapan ini: