[ad_1]
小号弗朗西斯科的一个监事会最近投票决定让他们的警察部署配备致命炸药的机器人——但几周后又撤回了。 在美国,投票引发了一场关于警察军事化的激烈辩论,但它向我们所有人提出了一些基本问题,包括机器人和人工智能在打击犯罪中的作用、如何做出警务决定,以及我们犯罪分子的真正目的司法系统。 在英国,警察的执法原则是“征得同意”而不是武力。 但根据 2020 年英格兰和威尔士犯罪调查,公众对警察的信心已从 2017 年的 62% 下降至 55%。 最近的一项民意调查询问伦敦人,大都会艺术博物馆是否在制度上存在性别歧视和种族歧视。 近三分之二的人回答“可能”或“肯定”。
这也许不足为奇,因为警察的犯罪案件备受瞩目,例如谋杀莎拉·埃弗拉德的韦恩·库曾斯和大卫·卡里克最近承认了 49 项罪行,包括强奸和性侵犯。
新任专员马克·罗利 (Mark Rowley) 表示,“我们必须为更多痛苦的故事做好准备”,并警告说,未来几个月,预计每周会有两到三名警官因刑事指控出庭。 但是,如果警务问题超出了所谓的“害群之马”,甚至超出了允许歧视肆虐的文化和政策呢? 如果它也嵌入到人类实际做出决定的方式中会怎样?
警务工作需要每天做出数百项判断,通常是在极端压力和不确定的情况下:由谁和在哪里进行警察,优先处理哪些案件和受害者,应该相信谁以及遵循哪些调查线索。 正如马尔科姆·格拉德威尔 (Malcolm Gladwell) 在 Blink 中解释的那样, 这些快速的决定——通常被描述为“直觉”——是基于我们个人的社会和情感经历,以及我们从更广泛的社会中内化的偏见,如种族主义、性别歧视、恐同症和跨性别恐惧症。
因此,人工智能能否为 21 世纪的警务工作提供更公平、更有效的方法? 人工智能大致分为两种类型:“狭义人工智能”,可以执行图像识别等特定任务,以及“通用人工智能”,它可以做出更复杂的判断和决策,涵盖所有领域。 通用人工智能依赖于深度学习——吸收大量数据并使用它来不断调整和提高性能,并有可能接管人类在工作中所做的越来越多的任务。 ChatGPT 是一种最先进的语言处理模型,能够在几秒钟内撰写研究论文、文章甚至诗歌,是这方面吸引公众想象力的最新例子。
人工智能已经可以搜索数百万张图片并分析大量社交媒体帖子,以识别和定位潜在嫌疑人。 利用其他类型的数据,它还可以帮助预测最有可能发生犯罪的时间和地点。 在特定情况下,它可以检验假设并过滤掉错误,使官员能够专注于现有证据最合理的调查线索。
以一小部分成本更快、更公平、基于证据的决策听起来确实很有吸引力,但早期研究表明需要谨慎。 所谓的“预测性警务”使用历史信息来识别未来可能的肇事者和受害者,但研究表明,这种建模的源数据可能充满先入之见,例如,生成的结果将有色人种不成比例地归类为“危险”或“无法无天”。 兰德公司 2016 年的一项研究得出结论,芝加哥的预期暴力犯罪“热图”未能减少枪支暴力,反而导致更多人在低收入和种族多元化的社区被捕。
更深刻地说,人工智能旨在实现我们设定的目标。 因此,正如 Stuart Russell 教授在其 2021 年 Reith 讲座中警告的那样,任何任务都必须在有利于人类的框架内仔细定义,以免像《魔法师的学徒》中那样,取水的命令会导致无法阻挡的洪水。
最终我们可能会学会消除偏见并避免不良后果,但这就足够了吗? 正如华盛顿大学信息学院的 Batya Friedman 教授所说:“正义不仅仅是一个正确的决定。 这是人类相互见证、相互认同、相互交代、相互修复的过程。”
与其争论人工智能在未来能做什么或不能做什么,不如问问我们想从我们的刑事和司法系统中得到什么,以及人工智能如何帮助我们实现它。 我们的雄心壮志不太可能仅仅通过用计算机取代军官来实现——但想想在人机团队中可能会实现什么,在这个团队中,每个人都可以互相学习并为对方增加价值。 如果我们对人类进行与我们对 AI 完全正确的审查相同的审查,将我们的偏见和假设暴露于持续和建设性的挑战,会怎样? 如果 AI 可以协助执行重复性和资源密集型任务,给警察 Eric Topol 教授在撰写有关 AI 医学革命的文章时所说的“时间的礼物”,会怎样? 这将使他们能够以只有人类才能体现的尊严和社会所有成员应得的尊严来对待受害者和被告。
也许这会赢得公众的信任和同意,而公众正是警务工作所依赖的。
乔·卡拉汉 (Jo Callaghan) 是一位专门研究未来工作的战略家,也是西蒙与舒斯特 (Simon & Schuster) 出版的处女作犯罪小说《眨眼之间》的作者。
延伸阅读
Life 3.0:Max Tegmark 在人工智能时代成为人类(企鹅出版社,10.99 英镑)
Malcolm Gladwell 的 Blink(企鹅出版社,10.99 英镑)
Mark Coeckelbergh 的《人工智能的政治哲学》(Polity,16.99 英镑)
[ad_2]
Source link