Algoritma Franken: Algoritma menjadi nakal

KREDIT GAMBAR:
Gambar kredit
iStock

Algoritma Franken: Algoritma menjadi nakal

Algoritma Franken: Algoritma menjadi nakal

Teks subjudul
Dengan perkembangan kecerdasan buatan, algoritme berkembang lebih cepat dari yang diperkirakan manusia.
    • Penulis:
    • nama penulis
      Pandangan ke Depan Quantumrun
    • 12 April, 2023

    Saat algoritme pembelajaran mesin (ML) menjadi lebih maju, mereka dapat mempelajari dan beradaptasi dengan pola dalam kumpulan data besar sendiri. Proses ini, yang dikenal sebagai "belajar otonom", dapat mengakibatkan algoritme menghasilkan kode atau aturannya sendiri untuk membuat keputusan. Masalah dengan ini adalah bahwa kode yang dihasilkan oleh algoritme mungkin sulit atau tidak mungkin dipahami manusia, sehingga sulit untuk menunjukkan bias. 

    Konteks Algoritma Franken

    Algoritma Franken mengacu pada algoritme (aturan yang diikuti komputer saat memproses data dan merespons perintah) yang telah menjadi begitu rumit dan saling terkait sehingga manusia tidak dapat lagi menguraikannya. Istilah ini mengacu pada fiksi ilmiah Mary Shelley tentang "monster" yang diciptakan oleh ilmuwan gila Dr. Frankenstein. Sementara algoritme dan kode adalah blok bangunan teknologi besar dan telah memungkinkan Facebook dan Google menjadi perusahaan berpengaruh seperti sekarang, masih banyak hal tentang teknologi yang tidak diketahui manusia. 

    Saat pemrogram membuat kode dan menjalankannya melalui perangkat lunak, ML memungkinkan komputer memahami dan memprediksi pola. Sementara teknologi besar mengklaim bahwa algoritme bersifat objektif karena emosi manusia dan ketidakpastian tidak memengaruhinya, algoritme ini dapat berkembang dan menulis aturannya sendiri, yang mengarah ke hasil yang menghancurkan. Kode yang dihasilkan oleh algoritme ini seringkali kompleks dan buram, sehingga menyulitkan peneliti atau praktisi untuk menginterpretasikan keputusan algoritme atau mengidentifikasi bias yang mungkin ada dalam proses pengambilan keputusan algoritme. Hambatan ini dapat menimbulkan tantangan yang signifikan bagi bisnis yang mengandalkan algoritme ini untuk mengambil keputusan, karena mereka mungkin tidak dapat memahami atau menjelaskan alasan di balik keputusan tersebut.

    Dampak yang mengganggu

    Ketika Algoritma Franken menjadi nakal, itu bisa menjadi masalah hidup dan mati. Contohnya adalah kecelakaan pada tahun 2018 ketika sebuah mobil self-driving di Arizona menabrak dan menewaskan seorang wanita yang mengendarai sepeda. Algoritme mobil tidak dapat mengidentifikasinya dengan benar sebagai manusia. Para ahli bingung tentang akar penyebab kecelakaan itu—apakah mobil itu diprogram dengan tidak benar, dan apakah algoritmenya menjadi terlalu rumit untuk kebaikannya sendiri? Namun, apa yang dapat disetujui oleh pemrogram adalah bahwa perlu ada sistem pengawasan untuk perusahaan perangkat lunak—kode etik. 

    Namun, kode etik ini datang dengan beberapa penolakan dari teknologi besar karena mereka berada dalam bisnis penjualan data dan algoritme, dan tidak dapat diatur atau diharuskan transparan. Selain itu, perkembangan baru-baru ini yang menimbulkan kekhawatiran bagi karyawan teknologi besar adalah meningkatnya penggunaan algoritme dalam militer, seperti kemitraan Google dengan Departemen Pertahanan AS untuk memasukkan algoritme dalam teknologi militer, seperti drone otonom. Aplikasi ini telah menyebabkan beberapa karyawan mengundurkan diri dan para ahli menyuarakan keprihatinan bahwa algoritme masih terlalu tidak dapat diprediksi untuk digunakan sebagai mesin pembunuh. 

    Kekhawatiran lain adalah bahwa Franken-Algorithms dapat melanggengkan dan bahkan memperkuat bias karena kumpulan data tempat mereka dilatih. Proses ini dapat menyebabkan berbagai masalah sosial, termasuk diskriminasi, ketidaksetaraan, dan salah tangkap. Karena risiko yang meningkat ini, banyak perusahaan teknologi mulai menerbitkan pedoman AI etis mereka agar transparan tentang cara mereka mengembangkan, menggunakan, dan memantau algoritme mereka.

    Implikasi yang lebih luas untuk Algoritma Franken

    Implikasi potensial untuk Algoritma Franken dapat meliputi:

    • Pengembangan sistem otonom yang dapat membuat keputusan dan mengambil tindakan tanpa pengawasan manusia, menimbulkan kekhawatiran tentang akuntabilitas dan keamanan. Namun, algoritme semacam itu dapat mengurangi biaya pengembangan perangkat lunak dan robotika yang dapat mengotomatiskan tenaga manusia di sebagian besar industri. 
    • Lebih banyak pengawasan tentang bagaimana algoritme dapat mengotomatiskan teknologi militer dan mendukung senjata dan kendaraan otonom.
    • Meningkatnya tekanan bagi pemerintah dan pemimpin industri untuk menerapkan kode etik dan peraturan algoritme.
    • Algoritma Franken secara tidak proporsional memengaruhi kelompok demografis tertentu, seperti komunitas berpenghasilan rendah atau populasi minoritas.
    • Algoritma Franken dapat melanggengkan dan memperkuat diskriminasi dan bias dalam pengambilan keputusan, seperti keputusan perekrutan dan peminjaman.
    • Algoritme ini digunakan oleh penjahat dunia maya untuk memantau dan mengeksploitasi kelemahan dalam sistem, khususnya di lembaga keuangan.
    • Aktor politik yang menggunakan algoritme jahat untuk mengotomatiskan kampanye pemasaran menggunakan sistem AI generatif dengan cara yang dapat memengaruhi opini publik dan memengaruhi pemilihan.

    Pertanyaan untuk dipertimbangkan

    • Bagaimana menurut Anda algoritma akan berkembang lebih jauh di masa depan?
    • Apa yang dapat dilakukan oleh pemerintah dan perusahaan untuk mengontrol Algoritma Franken?

    Referensi wawasan

    Tautan populer dan institusional berikut dirujuk untuk wawasan ini: