思想解讀:人工智能應該知道我們在想什麼嗎?

圖片來源:
圖片來源
iStock

思想解讀:人工智能應該知道我們在想什麼嗎?

思想解讀:人工智能應該知道我們在想什麼嗎?

副標題文字
腦機接口和大腦閱讀機制的未來正在引入對隱私和道德的新擔憂。
    • 作者:
    • 作者姓名
      量子運行遠見
    • 2023 年 1 月 16 日

    科學家正在開發腦機接口(BCI)技術,通過芯片和電極植入直接“讀取”人腦。 這些創新利用新穎的方法與計算機和控制設備進行通信,從而利用人腦。 然而,正如我們所知,這一發展可能會終結隱私。

    思考閱讀情境

    來自美國、中國和日本的科學家一直在利用功能磁共振成像(fMRI)來更好地了解大腦活動。 這些功能磁共振成像機器跟踪血流和腦電波,而不僅僅是大腦活動。 從掃描中收集的數據通過稱為深度生成網絡 (DGN) 算法的複雜神經網絡轉換為圖像格式。 但首先,人類必須訓練系統了解大腦如何思考,包括血液到達大腦的速度和方向。 系統跟踪血流後,會生成所收集信息的圖像。 DGN 通過掃描面部、眼睛和文本圖案來生成高質量的視覺圖像。 根據這項研究,該算法能夠在 99% 的時間內匹配解碼圖像。

    思想解讀方面的其他研究甚至更加先進。 2018 年,日產推出了腦對車技術,使車輛能夠解讀駕駛員大腦的駕駛命令。 同樣,加州大學舊金山分校 (USCF) 的科學家於 2019 年發布了 Facebook 支持的一項大腦活動研究結果; 研究表明,使用腦電波技術來解碼語音是可能的。 最後,Neuralink 的 BCI 於 2020 年開始測試; 目標是將大腦信號直接連接到機器。

    破壞性影響

    一旦完善,未來的思想讀取技術將在各個部門和領域產生深遠的應用。 有一天,精神科醫生和治療師可能會依靠這項技術來揭示根深蒂固的創傷。 醫生也許能夠更好地診斷患者,並隨後用更合適的藥物治療他們。 截肢者也許能夠佩戴能夠對其思想命令立即做出反應的機器人肢體。 同樣,執法部門可以在審訊期間使用這項技術來確保嫌疑人沒有說謊。 在工業環境中,人類工人有一天可能能夠更安全、遠程地控制工具和復雜的機械(一台或多台)。

    然而,從倫理角度來看,人工智能讀心術可能會成為一個有爭議的話題。 許多人將這種發展視為對隱私的侵犯和對其福祉的威脅,導致許多人權組織反對這些方法和設備。 此外,據《南華早報》報導,中國的讀腦技術已經被用來檢測多種環境下員工的情緒變化,例如工廠生產線。 一個或多個國家試圖在人口規模上應用這項技術來監控各自民眾的思想只是時間問題。

    另一個爭論是,大多數科學家認為機器學習仍然無法正確檢測和解碼人類的想法、感受或慾望。 截至 2022 年,大腦仍然是一個過於復雜的器官,無法分解為組件和信號,就像面部識別技術作為準確識別人類情緒的工具遭到反對一樣。 原因之一是人們有很多方式來掩蓋自己的真實感受和想法。 因此,機器學習技術距離解碼人類意識的複雜性還有很長的路要走。

    思想閱讀的意義

    思想解讀的更廣泛影響可能包括:

    • 採礦、物流和製造公司使用簡單的大腦活動讀取頭盔來確定員工的疲勞程度並對潛在事故發出警報。 
    • BCI 設備使行動不便的人能夠與輔助技術(例如智能設備和計算機)進行通信。
    • 技術和營銷公司使用 BCI 工具來利用個人信息來改進營銷和電子商務活動。
    • 管理 BCI 技術在整個社會的使用和應用的國家和國際立法。
    • 軍隊應用腦機接口技術,使士兵與其指揮的戰車和武器之間建立更深入的聯繫。 例如,使用 BCI 的戰鬥機飛行員可能能夠以更快的反應時間駕駛飛機。
    • 到 2050 年代,一些民族國家將部署思想解讀技術,以讓各自的公民(尤其是少數群體)保持一致。
    • 民間團體對旨在監視民眾的大腦讀取技術的抵制和抗議。 

    需要考慮的問題

    • 政府在監管腦機接口技術方面應發揮什麼作用?
    • 擁有可以讀取我們想法的設備還有哪些其他潛在危險?

    洞察參考

    此見解引用了以下流行和機構鏈接: