Algoritma Franken: Algoritma menjadi penyangak

KREDIT GAMBAR:
Kredit Image
iStock

Algoritma Franken: Algoritma menjadi penyangak

Algoritma Franken: Algoritma menjadi penyangak

Teks subtajuk
Dengan perkembangan dalam kecerdasan buatan, algoritma berkembang lebih pantas daripada jangkaan manusia.
    • Pengarang
    • Nama pengarang
      Quantumrun Foresight
    • April 12, 2023

    Apabila algoritma pembelajaran mesin (ML) menjadi lebih maju, mereka dapat belajar dan menyesuaikan diri dengan corak dalam set data yang besar. Proses ini, yang dikenali sebagai "pembelajaran autonomi," boleh mengakibatkan algoritma menghasilkan kod atau peraturannya sendiri untuk membuat keputusan. Isu dengan ini ialah kod yang dijana oleh algoritma mungkin sukar atau mustahil untuk difahami manusia, menjadikannya mencabar untuk menentukan berat sebelah. 

    Konteks Franken-Algoritma

    Algoritma Franken merujuk kepada algoritma (peraturan yang dipatuhi oleh komputer semasa memproses data dan bertindak balas kepada arahan) yang telah menjadi sangat kompleks dan saling berkaitan sehingga manusia tidak dapat menguraikannya lagi. Istilah ini merujuk kepada fiksyen sains Mary Shelley tentang "raksasa" yang dicipta oleh saintis gila Dr. Frankenstein. Walaupun algoritma dan kod adalah bahan binaan teknologi besar dan telah membenarkan Facebook dan Google menjadi syarikat yang berpengaruh sekarang, masih terdapat banyak tentang teknologi yang manusia tidak tahu. 

    Apabila pengaturcara membina kod dan menjalankannya melalui perisian, ML membenarkan komputer memahami dan meramal corak. Walaupun teknologi besar mendakwa bahawa algoritma adalah objektif kerana emosi manusia dan ketidakpastian tidak mempengaruhi mereka, algoritma ini boleh berkembang dan menulis peraturan mereka sendiri, yang membawa kepada keputusan yang buruk. Kod yang dihasilkan oleh algoritma ini selalunya kompleks dan legap, menyukarkan penyelidik atau pengamal untuk mentafsir keputusan algoritma atau mengenal pasti sebarang bias yang mungkin terdapat dalam proses membuat keputusan algoritma. Sekatan jalan ini boleh mencipta cabaran yang ketara untuk perniagaan yang bergantung pada algoritma ini untuk membuat keputusan, kerana mereka mungkin tidak dapat memahami atau menjelaskan alasan di sebalik keputusan tersebut.

    Kesan yang mengganggu

    Apabila Algoritma Franken menjadi penyangak, ia boleh menjadi masalah hidup dan mati. Contohnya ialah kemalangan pada 2018 apabila kereta pandu sendiri di Arizona melanggar dan membunuh seorang wanita yang menunggang basikal. Algoritma kereta itu tidak dapat mengenal pasti dia sebagai manusia dengan betul. Pakar terkoyak mengenai punca kemalangan itu—adakah kereta itu tidak diprogramkan dengan betul, dan adakah algoritma itu menjadi terlalu rumit untuk kebaikannya sendiri? Walau bagaimanapun, apa yang boleh dipersetujui oleh pengaturcara ialah perlu ada sistem pengawasan untuk syarikat perisian—kod etika. 

    Walau bagaimanapun, kod etika ini disertakan dengan beberapa penolakan daripada teknologi besar kerana mereka menjalankan perniagaan menjual data dan algoritma, dan tidak mampu untuk dikawal atau dikehendaki telus. Selain itu, perkembangan terbaharu yang menimbulkan kebimbangan kepada pekerja teknologi besar ialah peningkatan penggunaan algoritma dalam tentera, seperti perkongsian Google dengan Jabatan Pertahanan AS untuk menggabungkan algoritma dalam teknologi ketenteraan, seperti dron autonomi. Aplikasi ini telah menyebabkan beberapa pekerja meletak jawatan dan pakar menyuarakan kebimbangan bahawa algoritma masih terlalu tidak dapat diramalkan untuk digunakan sebagai mesin pembunuh. 

    Kebimbangan lain ialah Algoritma Franken mungkin mengekalkan dan bahkan menguatkan bias disebabkan set data yang dilatih. Proses ini boleh membawa kepada pelbagai isu masyarakat, termasuk diskriminasi, ketidaksamaan dan penangkapan yang salah. Oleh kerana risiko yang semakin meningkat ini, banyak syarikat teknologi mula menerbitkan garis panduan AI beretika mereka untuk menjadi telus tentang cara mereka membangun, menggunakan dan memantau algoritma mereka.

    Implikasi yang lebih luas untuk Franken-Algorithm

    Implikasi yang berpotensi untuk Algoritma Franken mungkin termasuk:

    • Pembangunan sistem autonomi yang boleh membuat keputusan dan mengambil tindakan tanpa pengawasan manusia, menimbulkan kebimbangan tentang akauntabiliti dan keselamatan. Walau bagaimanapun, algoritma sedemikian boleh mengurangkan kos untuk membangunkan perisian dan robotik yang boleh mengautomasikan tenaga kerja manusia merentas kebanyakan industri. 
    • Lebih banyak penelitian tentang cara algoritma boleh mengautomasikan teknologi ketenteraan dan menyokong senjata dan kenderaan autonomi.
    • Tekanan yang meningkat untuk kerajaan dan pemimpin industri untuk melaksanakan kod etika dan peraturan algoritma.
    • Algoritma Franken memberi kesan yang tidak seimbang kepada kumpulan demografi tertentu, seperti komuniti berpendapatan rendah atau populasi minoriti.
    • Algoritma Franken boleh mengekalkan dan menguatkan diskriminasi dan berat sebelah dalam membuat keputusan, seperti keputusan pengambilan dan pemberian pinjaman.
    • Algoritma ini digunakan oleh penjenayah siber untuk memantau dan mengeksploitasi kelemahan dalam sistem, terutamanya dalam institusi kewangan.
    • Aktor politik menggunakan algoritma penyangak untuk mengautomasikan kempen pemasaran menggunakan sistem AI generatif dengan cara yang boleh mempengaruhi pendapat umum dan mempengaruhi pilihan raya.

    Soalan yang perlu dipertimbangkan

    • Pada pendapat anda, bagaimanakah algoritma akan terus berkembang pada masa hadapan?
    • Apakah yang boleh dilakukan oleh kerajaan dan syarikat untuk mengawal Algoritma Franken?

    Rujukan wawasan

    Pautan popular dan institusi berikut telah dirujuk untuk cerapan ini: