预测性警务:预防犯罪还是强化偏见?

图片来源:
图片来源
iStock

预测性警务:预防犯罪还是强化偏见?

预测性警务:预防犯罪还是强化偏见?

副标题文字
算法现在被用来预测下一步可能发生犯罪的地点,但是数据是否可以保持客观?
    • 作者:
    • 作者姓名
      量子运行远见
    • 2023 年 5 月 25 日

    使用人工智能 (AI) 系统来识别犯罪模式并提出干预方案以防止未来的犯罪活动对于执法机构来说可能是一种很有前途的新方法。 通过分析犯罪报告、警察记录和其他相关信息等数据,算法可以识别人类可能难以察觉的模式和趋势。 然而,人工智能在预防犯罪中的应用引发了一些重要的伦理和实践问题。 

    预测性警务环境

    预测性警务使用当地的犯罪统计数据和算法来预测接下来最有可能发生犯罪的地方。 一些预测性警务提供者进一步改进了这项技术,以预测地震余震,以查明警察应经常巡逻以阻止犯罪的区域。 除了“热点”之外,该技术还使用本地逮捕数据来识别可能犯罪的个人类型。 

    总部位于美国的预测警务软件提供商 Geolitica(以前称为 PredPol),其技术目前已被多个执法实体使用,声称他们已将种族成分删除到他们的数据集中,以消除对有色人种的过度监管。 然而,科技网站 Gizmodo 和研究机构 The Citizen Lab 进行的一些独立研究发现,这些算法实际上强化了对弱势群体的偏见。

    例如,一个使用算法来预测谁有可能卷入与枪支有关的暴力犯罪的警察计划在被揭露被确定为风险得分最高的人中有 85% 是非洲裔美国男性后遭到批评。以前没有暴力犯罪记录。 2017 年,当芝加哥太阳时报获得并发布了该列表的数据库时,该项目被称为战略主题列表,受到了审查。 这一事件凸显了在执法中使用人工智能可能存在的偏见,以及在实施这些系统之前仔细考虑潜在风险和后果的重要性。

    破坏性影响

    如果做得好,预测性警务会带来一些好处。 正如洛杉矶警察局所证实的那样,预防犯罪是一个主要优势,他们表示他们的算法使指定热点内的盗窃案减少了 19%。 另一个好处是基于数字的决策,数据决定模式,而不是人为偏见。 

    然而,批评者强调,由于这些数据集是从当地警察部门获得的,这些部门有逮捕更多有色人种(尤其是非裔美国人和拉丁美洲人)的历史,因此这些模式只是突出了对这些社区的现有偏见。 根据 Gizmodo 使用 Geolitica 和几个执法机构的数据进行的研究,Geolitica 的预测模仿了过度监管和识别黑人和拉丁裔社区的现实生活模式,甚至是这些群体中逮捕记录为零的个人。 

    民权组织对在没有适当治理和监管政策的情况下越来越多地使用预测性警务表示担忧。 一些人认为,这些算法背后使用了“脏数据”(通过腐败和非法行为获得的数据),使用它们的机构将这些偏见隐藏在“技术清洗”(声称该技术是客观的,只是因为没有人为干预)。

    预测性警务面临的另一个批评是,公众通常很难理解这些算法是如何工作的。 这种透明度的缺乏使得执法机构难以对他们根据这些系统的预测做出的决定负责。 因此,许多人权组织呼吁禁止预测警察技术,特别是面部识别技术。 

    预测性警务的影响

    预测性警务的更广泛影响可能包括:

    • 民权和边缘化群体游说和反对广泛使用预测性警务,尤其是在有色人种社区内。
    • 要求政府实施监督政策或部门以限制预测性警务的使用方式的压力。 未来的立法可能会迫使警察机构使用来自政府批准的第三方的无偏见公民分析数据来训练他们各自的预测性警务算法。
    • 全球越来越多的执法机构依靠某种形式的预测性警务来补充他们的巡逻策略。
    • 威权政府使用这些算法的修改版本来预测和防止公民抗议和其他公共骚乱。
    • 在公众的压力越来越大的情况下,越来越多的国家在其执法机构中禁止面部识别技术。
    • 因滥用导致非法或错误逮捕的算法而对警察机构提起的诉讼有所增加。

    需要考虑的问题

    • 您认为应该使用预测性警务吗?
    • 您认为预测性警务算法将如何改变司法的实施方式?

    洞察参考

    此见解引用了以下流行和机构链接:

    布伦南正义中心 预测性警务解释