弗兰肯算法:流氓算法

图片来源:
图片来源
iStock

弗兰肯算法:流氓算法

弗兰肯算法:流氓算法

副标题文字
随着人工智能的发展,算法的发展速度比人类预期的要快。
    • 作者:
    • 作者姓名
      量子运行远见
    • 2023 年 4 月 12 日

    随着机器学习 (ML) 算法变得更加先进,它们能够自行学习和适应大型数据集中的模式。 这个过程称为“自主学习”,可以导致算法生成自己的代码或规则来做出决策。 这样做的问题是,算法生成的代码可能很难或不可能被人类理解,这使得查明偏见具有挑战性。 

    弗兰肯算法上下文

    弗兰肯算法指的是算法(计算机在处理数据和响应命令时遵循的规则)变得如此复杂和交织在一起,以至于人类无法再破译它们。 这个词是对玛丽雪莱关于疯狂科学家科学怪人博士创造的“怪物”的科幻小说的致敬。 虽然算法和代码是大型科技的基石,并让 Facebook 和谷歌成为现在这样有影响力的公司,但人类仍然不知道的技术还有很多。 

    当程序员构建代码并通过软件运行它们时,ML 允许计算机理解和预测模式。 虽然大型科技公司声称算法是客观的,因为人类的情绪和不可预测性不会影响它们,但这些算法可以进化并编写自己的规则,从而导致灾难性的结果。 这些算法生成的代码通常复杂且不透明,使研究人员或从业人员难以解释算法的决策或识别算法决策过程中可能存在的任何偏差。 这一障碍可能会给依赖这些算法做出决策的企业带来重大挑战,因为他们可能无法理解或解释这些决策背后的原因。

    破坏性影响

    当弗兰肯算法失控时,这可能是生死攸关的问题。 一个例子是 2018 年发生的一起事故,当时亚利桑那州的一辆自动驾驶汽车撞死了一名骑自行车的妇女。 汽车的算法无法正确地将她识别为人类。 专家们对事故的根本原因感到困惑——汽车的编程是否不正确,算法是否变得过于复杂而不利于自身的利益? 然而,程序员们可以达成共识的是,软件公司需要一个监督系统——道德准则。 

    然而,这一道德准则遭到了大型科技公司的一些抵制,因为它们从事的是销售数据和算法的业务,无法承受监管或要求透明。 此外,最近引起大型科技公司员工担忧的一项发展是军方越来越多地使用算法,例如谷歌与美国国防部合作,将算法纳入军事技术,如自主无人机。 此应用程序已导致一些员工辞职,专家表示担心算法仍然太不可预测,无法用作杀人机器。 

    另一个问题是,弗兰肯算法可能会由于训练它们的数据集而使偏差永久化甚至放大。 这一过程可能导致各种社会问题,包括歧视、不平等和非法逮捕。 由于这些风险增加,许多科技公司开始发布他们的人工智能道德准则,以在他们如何开发、使用和监控他们的算法方面保持透明。

    对弗兰肯算法的更广泛影响

    弗兰肯算法的潜在影响可能包括:

    • 开发可以在没有人为监督的情况下做出决定和采取行动的自治系统,引发了对问责制和安全性的担忧。 然而,此类算法可能会降低开发软件和机器人技术的成本,这些软件和机器人技术可以在大多数行业中实现人工劳动自动化。 
    • 对算法如何使军事技术自动化并支持自主武器和车辆进行更多审查。
    • 政府和行业领导者实施道德和法规算法代码的压力越来越大。
    • Franken-Algorithms 不成比例地影响某些人口群体,例如低收入社区或少数民族人口。
    • 弗兰肯算法可能会延续和扩大决策中的歧视和偏见,例如雇用和借贷决策。
    • 网络犯罪分子使用这些算法来监控和利用系统中的弱点,特别是在金融机构中。
    • 政治人物使用流氓算法通过生成人工智能系统以影响公众舆论和影响选举的方式自动化营销活动。

    需要考虑的问题

    • 您认为未来算法将如何进一步发展?
    • 政府和公司可以做什么来控制弗兰肯算法?

    洞察参考

    此见解引用了以下流行和机构链接:

    Eversheds Sutherland 不可预测代码的后果