思想解读:人工智能应该知道我们在想什么吗?

图片来源:
图片来源
iStock

思想解读:人工智能应该知道我们在想什么吗?

思想解读:人工智能应该知道我们在想什么吗?

副标题文字
脑机接口和大脑阅读机制的未来正在引入对隐私和道德的新担忧。
    • 作者:
    • 作者姓名
      量子运行远见
    • 2023 年 1 月 16 日

    科学家正在开发脑机接口(BCI)技术,通过芯片和电极植入直接“读取”人脑。这些创新利用新颖的方法与计算机和控制设备进行通信,从而利用人脑。然而,正如我们所知,这一发展可能会终结隐私。

    思考阅读情境

    来自美国、中国和日本的科学家一直在利用功能磁共振成像(fMRI)来更好地了解大脑活动。这些功能磁共振成像机器跟踪血流和脑电波,而不仅仅是大脑活动。从扫描中收集的数据通过称为深度生成网络 (DGN) 算法的复杂神经网络转换为图像格式。但首先,人类必须训练系统了解大脑如何思考,包括血液到达大脑的速度和方向。系统跟踪血流后,会生成所收集信息的图像。 DGN 通过扫描面部、眼睛和文本图案来生成高质量的视觉图像。根据这项研究,该算法能够在 99% 的时间内匹配解码图像。

    思想解读方面的其他研究甚至更加先进。 2018 年,日产推出了脑对车技术,使车辆能够解读驾驶员大脑的驾驶命令。同样,加州大学旧金山分校 (USCF) 的科学家于 2019 年发布了 Facebook 支持的一项大脑活动研究结果;研究表明,使用脑电波技术来解码语音是可能的。最后,Neuralink 的 BCI 于 2020 年开始测试;目标是将大脑信号直接连接到机器。

    破坏性影响

    一旦完善,未来的思想读取技术将在各个部门和领域产生深远的应用。有一天,精神科医生和治疗师可能会依靠这项技术来揭示根深蒂固的创伤。医生也许能够更好地诊断患者,并随后用更合适的药物治疗他们。截肢者也许能够佩戴能够对其思想命令立即做出反应的机器人肢体。同样,执法部门可以在审讯期间使用这项技术来确保嫌疑人没有说谎。在工业环境中,人类工人有一天可能能够更安全、远程地控制工具和复杂的机械(一台或多台)。

    然而,从伦理角度来看,人工智能读心术可能会成为一个有争议的话题。许多人将这种发展视为对隐私的侵犯和对其福祉的威胁,导致许多人权组织反对这些方法和设备。此外,据《南华早报》报道,中国的读脑技术已经被用来检测多种环境下员工的情绪变化,例如工厂生产线。一个或多个国家试图在人口规模上应用这项技术来监控各自民众的思想只是时间问题。

    另一个争论是,大多数科学家认为机器学习仍然无法正确检测和解码人类的想法、感受或欲望。截至 2022 年,大脑仍然是一个过于复杂的器官,无法分解为组件和信号,就像面部识别技术作为准确识别人类情绪的工具遭到反对一样。原因之一是人们有很多方式来掩盖自己的真实感受和想法。因此,机器学习技术距离解码人类意识的复杂性还有很长的路要走。

    思想阅读的意义

    思想解读的更广泛影响可能包括:

    • 采矿、物流和制造公司使用简单的大脑活动读取头盔来确定员工的疲劳程度并对潜在事故发出警报。 
    • BCI 设备使行动不便的人能够与辅助技术(例如智能设备和计算机)进行通信。
    • 技术和营销公司使用 BCI 工具来利用个人信息来改进营销和电子商务活动。
    • 管理 BCI 技术在整个社会的使用和应用的国家和国际立法。
    • 军队应用脑机接口技术,使士兵与其指挥的战车和武器之间建立更深入的联系。例如,使用 BCI 的战斗机飞行员可能能够以更快的反应时间驾驶飞机。
    • 到 2050 年代,一些民族国家将部署思想解读技术,以让各自的公民(尤其是少数群体)保持一致。
    • 民间团体对旨在监视民众的大脑读取技术的抵制和抗议。 

    需要考虑的问题

    • 政府在监管脑机接口技术方面应发挥什么作用?
    • 拥有可以读取我们想法的设备还有哪些其他潜在危险?

    洞察参考

    此见解引用了以下流行和机构链接: