AI TRiSM: Memastikan AI tetap etis

KREDIT GAMBAR:
Gambar kredit
iStock

AI TRiSM: Memastikan AI tetap etis

DIBANGUN UNTUK FUTURIS MASA DEPAN

Platform Quantumrun Trends akan memberi Anda wawasan, alat, dan komunitas untuk mengeksplorasi dan berkembang dari tren masa depan.

PENAWARAN KHUSUS

$5 PER BULAN

AI TRiSM: Memastikan AI tetap etis

Teks subjudul
Perusahaan didesak untuk membuat standar dan kebijakan yang secara jelas mendefinisikan batasan kecerdasan buatan.
    • Penulis:
    • nama penulis
      Pandangan ke Depan Quantumrun
    • Oktober 20, 2023

    Ringkasan wawasan

    Pada tahun 2022, firma riset Gartner memperkenalkan AI TRiSM, singkatan dari AI Trust, Risk, and Security Management, untuk memastikan tata kelola dan keandalan model AI. Kerangka kerja ini terdiri dari lima pilar: kemampuan menjelaskan, operasi model, deteksi anomali data, ketahanan terhadap serangan musuh, dan perlindungan data. Laporan tersebut menyoroti bahwa pengelolaan risiko AI yang buruk dapat menyebabkan kerugian besar dan pelanggaran keamanan. Penerapan AI TRiSM memerlukan tim lintas fungsi mulai dari hukum, kepatuhan, TI, dan analisis data. Kerangka kerja ini bertujuan untuk membangun budaya "AI yang Bertanggung Jawab", yang berfokus pada masalah etika dan hukum, dan kemungkinan besar akan memengaruhi tren perekrutan, peraturan pemerintah, dan pertimbangan etika dalam AI.

    Konteks AI TRiSM

    Menurut Gartner, ada lima pilar AI TriSM: kemampuan menjelaskan, Model Operations (ModelOps), deteksi anomali data, ketahanan terhadap serangan musuh, dan perlindungan data. Berdasarkan proyeksi Gartner, organisasi yang menerapkan pilar-pilar ini akan mengalami peningkatan sebesar 50 persen dalam kinerja model AI mereka terkait dengan adopsi, tujuan bisnis, dan penerimaan pengguna pada tahun 2026. Selain itu, mesin yang didukung AI akan mencakup 20 persen tenaga kerja di dunia. dan berkontribusi 40 persen terhadap produktivitas perekonomian secara keseluruhan pada tahun 2028.

    Temuan survei Gartner menunjukkan bahwa banyak organisasi telah menerapkan ratusan atau ribuan model AI yang tidak dapat dipahami atau ditafsirkan oleh para eksekutif TI. Organisasi yang tidak mengelola risiko terkait AI secara signifikan lebih rentan menghadapi dampak buruk dan pelanggaran. Model tersebut mungkin tidak berfungsi sebagaimana mestinya, sehingga menyebabkan pelanggaran keamanan dan privasi, serta kerugian finansial, individu, dan reputasi. Penerapan AI yang tidak akurat juga dapat menyebabkan organisasi mengambil keputusan bisnis yang salah.

    Agar berhasil menerapkan AI TRiSM, diperlukan tim lintas fungsi yang terdiri dari personel hukum, kepatuhan, keamanan, TI, dan analisis data. Membentuk tim atau gugus tugas khusus dengan representasi yang tepat dari setiap area bisnis yang terlibat dalam proyek AI juga akan memberikan hasil yang optimal. Penting juga untuk memastikan bahwa setiap anggota tim memahami dengan jelas peran dan tanggung jawab mereka, serta tujuan dan sasaran inisiatif AI TRiSM.

    Dampak yang mengganggu

    Untuk membuat AI aman, Gartner merekomendasikan beberapa langkah penting. Pertama, organisasi perlu memahami potensi risiko yang terkait dengan AI dan cara memitigasinya. Upaya ini memerlukan penilaian risiko komprehensif yang tidak hanya mempertimbangkan teknologi itu sendiri tetapi juga dampaknya terhadap manusia, proses, dan lingkungan.

    Kedua, organisasi perlu berinvestasi pada tata kelola AI, yang mencakup kebijakan, prosedur, dan kontrol untuk mengelola risiko AI. Strategi ini mencakup memastikan bahwa sistem AI bersifat transparan, dapat dijelaskan, akuntabel, dan mematuhi undang-undang dan peraturan terkait. Selain itu, pemantauan dan audit berkelanjutan terhadap model AI sangat penting untuk mengidentifikasi dan memitigasi potensi risiko yang mungkin timbul seiring berjalannya waktu. Terakhir, organisasi perlu mengembangkan budaya keselamatan AI, meningkatkan kesadaran, pendidikan, dan pelatihan di kalangan karyawan dan pemangku kepentingan. Langkah-langkah ini mencakup pelatihan tentang penggunaan AI yang etis, risiko yang terkait dengan AI, dan cara mengidentifikasi dan melaporkan masalah atau kekhawatiran. 

    Upaya ini kemungkinan besar akan menghasilkan lebih banyak perusahaan yang membangun departemen AI yang Bertanggung Jawab. Kerangka tata kelola yang baru ini mengatasi hambatan hukum dan etika terkait AI dengan mendokumentasikan cara organisasi melakukan pendekatan terhadap hal tersebut. Kerangka kerja ini dan inisiatif terkaitnya ingin menghilangkan ambiguitas untuk mencegah konsekuensi negatif yang tidak diinginkan. Prinsip-prinsip kerangka kerja AI yang Bertanggung Jawab berfokus pada perancangan, pengembangan, dan penggunaan AI dengan cara yang bermanfaat bagi karyawan, memberikan nilai kepada pelanggan, dan memberikan dampak positif bagi masyarakat.

    Implikasi AI TRiSM

    Implikasi yang lebih luas dari AI TRiSM dapat mencakup: 

    • Ketika AI TRiSM menjadi semakin penting, perusahaan perlu mempekerjakan lebih banyak pekerja terampil yang memiliki pengetahuan di bidang ini, seperti analis keamanan AI, manajer risiko, dan ahli etika.
    • Pertimbangan etika dan moral baru, seperti perlunya transparansi, keadilan, dan akuntabilitas dalam penggunaan sistem AI.
    • Inovasi yang dilengkapi AI yang aman, tepercaya, dan andal.
    • Meningkatnya tekanan terhadap peraturan pemerintah untuk melindungi individu dan organisasi dari risiko yang terkait dengan sistem AI.
    • Fokus yang lebih besar untuk memastikan bahwa sistem AI tidak bias terhadap kelompok atau individu tertentu.
    • Peluang baru bagi mereka yang memiliki keterampilan AI dan berpotensi menggantikan mereka yang tidak memiliki keterampilan tersebut.
    • Peningkatan konsumsi energi dan kapasitas penyimpanan data untuk data pelatihan yang terus diperbarui.
    • Semakin banyak perusahaan yang didenda karena tidak menerapkan standar AI global yang Bertanggung Jawab.

    Pertanyaan untuk dipertimbangkan

    • Jika Anda bekerja di bidang AI, bagaimana perusahaan Anda melatih algoritmenya agar etis?
    • Apa saja tantangan dalam membangun sistem AI yang Bertanggung Jawab?

    Referensi wawasan

    Tautan populer dan institusional berikut dirujuk untuk wawasan ini: