[ad_1]
人工智能算法越来越多地应用于金融服务,但它们也带来了一些严重的歧视风险。
萨迪克·德米罗斯 | 光碟| 盖蒂图片社
阿姆斯特丹——人工智能存在种族偏见问题。
从错误识别黑人和少数族裔面孔的生物识别系统,到无法区分具有明显地区口音的语音识别软件的应用,人工智能在歧视方面还有很多工作要做。
当涉及银行和金融服务时,放大现有偏见的问题可能更加严重。
德勤指出,人工智能系统的好坏最终取决于它们所获得的数据:不完整或不具代表性的数据集可能会限制人工智能的客观性,而训练此类系统的开发团队的偏见可能会延续这种偏见循环。
人工智能可能很愚蠢
FIS Worldpay 的加密货币和 Web3 主管 Nabil Manji 表示,了解人工智能产品的关键一点是,该技术的强度在很大程度上取决于用于训练它的源材料。
Manji 在接受 CNBC 采访时表示:“人工智能产品有多好,存在两个变量。” “一是它可以访问的数据,二是大型语言模型有多好。这就是为什么在数据方面,你会看到像 Reddit 和其他公司这样的公司,他们公开表示我们不会允许如果公司窃取我们的数据,你就必须为此付费。”
至于金融服务,Manji 表示,许多后端数据系统都以不同的语言和格式分散。
“这些都没有得到巩固或协调,”他补充道。 “这将导致人工智能驱动的产品在金融服务中的效率远低于其他垂直行业或其他拥有统一性和更现代系统或数据访问权限的公司。”
较小 建议区块链或分布式账本技术可以作为一种方式来更清晰地了解隐藏在传统银行杂乱系统中的不同数据。
然而,他补充说,银行作为受到严格监管、行动缓慢的机构,在采用新的人工智能工具方面不太可能像更灵活的科技同行那样采取同样的速度。
“你有 微软 和 谷歌在过去的一两年里,他们被视为推动创新的人。 他们跟不上这个速度。 然后你会想到金融服务。 银行并不以速度快而闻名,”曼吉说。
银行业的人工智能问题
Twitter 机器学习道德、透明度和问责制前负责人鲁曼·乔杜里 (Rumman Chowdhury) 表示,贷款是人工智能系统对边缘化社区的偏见如何抬头的一个典型例子。
“算法歧视在贷款领域实际上非常明显,”乔杜里在阿姆斯特丹举行的 Money20/20 会议上表示。 “芝加哥有着否认这些的历史 [loans] 主要是黑人社区。”
20 世纪 30 年代,芝加哥因“红线划定”的歧视性做法而闻名,其中房产的信用度在很大程度上取决于特定社区的种族人口统计数据。
“芝加哥所有地区的墙上都会有一张巨大的地图,他们会在所有主要是非裔美国人的地区划出红线,并且不给他们贷款,”她补充道。
“快进几十年后,你正在开发算法来确定不同地区和个人的风险。虽然你可能不包括某人种族的数据点,但它会被隐式地获取。”
事实上,人工智能黑人女性组织的创始人安格尔·布什 (Angle Bush) 是一个旨在赋予人工智能领域黑人女性权力的组织, 告诉 CNBC,当人工智能系统专门用于贷款审批决策时,她发现存在复制用于训练算法的历史数据中存在的偏见的风险。
布什补充说:“这可能会导致边缘化社区的个人自动被拒绝贷款,从而加剧种族或性别差异。”
她说:“银行必须承认,采用人工智能作为解决方案可能会无意中延续歧视。”
从事人工智能和机器学习十多年的开发人员 Frost Li 告诉 CNBC,人工智能集成的“个性化”维度也可能存在问题。
“人工智能的有趣之处在于我们如何选择训练的‘核心特征’,”李说,他创立并经营着 Loup,该公司帮助在线零售商将人工智能集成到他们的平台中。 “有时,我们选择与我们想要预测的结果无关的特征。”
李说,当人工智能应用于银行业时,由于计算中的一切都非常复杂,因此很难识别偏差的“罪魁祸首”。
“一个很好的例子是,有多少金融科技初创公司专门针对外国人,因为东京大学的毕业生即使在谷歌工作也无法获得任何信用卡;但一个人可以轻松地从社区大学信用合作社获得一张信用卡,因为银行家更好地了解当地学校,”李补充道。
生成式人工智能通常不用于创建信用评分或对消费者进行风险评分。
Taktile 是一家帮助金融科技公司实现决策自动化的初创公司,其首席运营官尼克拉斯·古斯克 (Niklas Guske) 表示:“这不是该工具的初衷。”
相反,古斯克表示,最强大的应用程序是预处理非结构化数据,例如文本文件,例如对交易进行分类。
“然后,这些信号可以输入到更传统的承保模型中,”古斯克说。 “因此,生成式人工智能将提高此类决策的基础数据质量,而不是取代常见的评分流程。”

但这也很难证明。 苹果 和 高盛例如,被指控为女性提供较低的 Apple Card 限额。 但纽约州金融服务部驳回了这些指控,因为监管机构没有发现性别歧视的证据。
欧洲反种族主义网络组织主任 Kim Smouter 表示,问题在于,要证实基于人工智能的歧视是否确实发生可能具有挑战性。
“大规模部署人工智能的困难之一,”他说,“是这些决定如何产生的不透明性,以及存在哪些补救机制,即使种族化的个人注意到存在歧视。”
“人们对人工智能系统如何工作知之甚少,他们的个人案例实际上可能只是整个系统的冰山一角。因此,也很难发现出现问题的具体实例,”他补充道。
斯穆特引用了荷兰儿童福利丑闻的例子,其中数千份福利申请被错误地指控为欺诈。 2020 年的一份报告发现受害者“受到制度性偏见”后,荷兰政府被迫辞职。
斯穆特说,这“证明了此类功能障碍的传播速度有多快,以及一旦发现它们并获得纠正并同时造成重大且往往不可逆转的损害是多么困难。”
监管人工智能的偏见
乔杜里表示,需要像联合国这样的全球监管机构来解决人工智能的一些风险。
尽管人工智能已被证明是一种创新工具,但一些技术专家和伦理学家对该技术的道德和伦理健全性表示怀疑。 业内人士表示最担心的是错误信息; 人工智能算法中嵌入的种族和性别偏见; 以及类似 ChatGPT 的工具产生的“幻觉”。
“我非常担心,由于生成式人工智能,我们正在进入一个后真相世界,在这个世界里,我们在网上看到的任何东西都是不可信的——任何文本、任何视频、任何音频都不可信,但是接下来如何我们如何获取信息?我们如何确保信息具有高度的完整性?” 乔杜里说道。
现在是对人工智能进行有意义的监管的时候了——但知道欧盟人工智能法案等监管提案需要多长时间才能生效,一些人担心这不会很快发生。
“我们呼吁提高算法及其运作方式的透明度和问责制,以及外行人的声明,允许非人工智能专家的个人自行判断、测试证明和结果发布、独立的投诉流程、定期审计和报告、参与在设计和考虑部署技术时,社区会被种族化,”斯穆特说。
斯穆特表示,《人工智能法案》是同类中的第一个监管框架,纳入了基本权利方法和补救等概念,并补充说该法规将在大约两年内实施。
他说:“如果能够缩短这一时期,以确保透明度和问责制成为创新的核心,那就太好了。”

[ad_2]
Source link