弗蘭肯算法:流氓算法

圖片來源:
圖片來源
iStock

弗蘭肯算法:流氓算法

弗蘭肯算法:流氓算法

副標題文字
隨著人工智能的發展,算法的發展速度比人類預期的要快。
    • 作者:
    • 作者姓名
      量子運行遠見
    • 2023 年 4 月 12 日

    隨著機器學習 (ML) 算法變得更加先進,它們能夠自行學習並適應大型數據集中的模式。 這個過程被稱為“自主學習”,可以使算法生成自己的代碼或規則來做出決策。 問題在於,算法生成的代碼對於人類來說可能很難或不可能理解,這使得查明偏差變得具有挑戰性。 

    弗蘭肯算法上下文

    弗蘭肯算法指的是算法(計算機在處理數據和響應命令時遵循的規則),這些算法已經變得如此復雜和相互交織,以至於人類無法再破譯它們。 這個術語是對瑪麗·雪萊關於瘋狂科學家弗蘭肯斯坦博士創造的“怪物”的科幻小說的致敬。 雖然算法和代碼是大型科技的基石,並讓 Facebook 和 Google 成為如今頗具影響力的公司,但這項技術仍然有很多人類不了解的地方。 

    當程序員構建代碼並通過軟件運行它們時,機器學習可以讓計算機理解和預測模式。 雖然大型科技公司聲稱算法是客觀的,因為人類的情感和不可預測性不會影響它們,但這些算法可以進化並編寫自己的規則,從而導致災難性的結果。 這些算法生成的代碼通常複雜且不透明,使得研究人員或從業者很難解釋算法的決策或識別算法決策過程中可能存在的任何偏差。 這一障礙可能會給依賴這些算法做出決策的企業帶來重大挑戰,因為他們可能無法理解或解釋這些決策背後的原因。

    破壞性影響

    當弗蘭肯算法失控時,這可能是生死攸關的問題。 一個例子是 2018 年發生的一起事故,亞利桑那州的一輛自動駕駛汽車撞死了一名騎自行車的婦女。 汽車的算法無法正確地將她識別為人類。 專家們對事故的根本原因爭論不休——汽車是否編程不當,算法是否變得過於復雜? 然而,程序員們一致認為,軟件公司需要一個監督體系——道德準則。 

    然而,這一道德準則遭到了大型科技公司的一些抵制,因為它們從事的是銷售數據和算法的業務,無法承受監管或要求透明。 此外,最近引起大型科技員工擔憂的一個發展是算法在軍隊中的使用越來越多,例如穀歌與美國國防部合作將算法納入軍事技術,如自主無人機。 該應用程序導致一些員工辭職,專家表示擔心算法仍然難以預測,無法用作殺人機器。 

    另一個擔憂是,弗蘭肯算法可能會由於訓練的數據集而永久存在甚至放大偏差。 這一過程可能會導致各種社會問題,包括歧視、不平等和錯誤逮捕。 由於這些風險加大,許多科技公司開始發佈人工智能道德準則,以使其開發、使用和監控算法的方式保持透明。

    對弗蘭肯算法的更廣泛影響

    對弗蘭肯算法的潛在影響可能包括:

    • 開發可以在沒有人類監督的情況下做出決策並採取行動的自主系統,引發了人們對責任和安全的擔憂。 然而,此類算法可能會降低開發軟件和機器人的成本,從而使大多數行業的人力自動化。 
    • 對算法如何實現軍事技術自動化並支持自主武器和車輛進行更多審查。
    • 政府和行業領導者實施算法道德規範和法規的壓力越來越大。
    • 弗蘭肯算法對某些人口群體產生了不成比例的影響,例如低收入社區或少數民族人口。
    • 弗蘭肯算法可能會延續並放大決策中的歧視和偏見,例如招聘和貸款決策。
    • 網絡犯罪分子使用這些算法來監控和利用系統的弱點,特別是金融機構的弱點。
    • 政治行為者使用流氓算法利用生成人工智能係統來自動化營銷活動,從而影響公眾輿論和影響選舉。

    需要考慮的問題

    • 您認為未來算法會如何進一步發展?
    • 政府和公司可以採取哪些措施來控制弗蘭肯算法?

    洞察參考

    此見解引用了以下流行和機構鏈接:

    埃弗弗茲薩瑟蘭 不可預測的代碼的後果