[ad_1]
R乌曼乔杜里经常失眠,但对她来说,这不是需要解决的问题。 她拥有她所谓的“凌晨 2 点的大脑”,这是一种不同于她日常使用的大脑,也是她解决特别紧急或困难问题时所依赖的大脑。 她说,想法,即使是小规模的想法,也需要细心和关注,以及一种炼金术般的直觉。 “这就像烘焙一样,”她说。 “你不能强迫它,你不能调高温度,你不能让它走得更快。 无论需要多长时间,它都会花费。 当它完成烘烤后,它就会出现。”
Chowdhury 凌晨 2 点的大脑首先创造了一个概念“道德外包”这个词,现在,作为人工智能领域的主要思想家之一,这个概念已经成为她在潜在革命性影响方面如何考虑问责制和治理的关键点人工智能。
她说,道德外包将感知和选择的逻辑应用于人工智能,使技术人员能够有效地将他们构建的产品的责任重新分配到产品本身——技术进步成为注定的增长,偏见变得难以解决。
“你永远不会说‘我的种族主义烤面包机’或‘我的性别歧视笔记本电脑’,”她在 2018 年的 Ted 演讲中说。“然而我们在关于人工智能的语言中使用了这些修饰语。 这样做我们不对我们制造的产品负责。” 把我们自己排除在等式之外会产生系统性的矛盾心理,这与哲学家汉娜·阿伦特所说的“邪恶的平庸”——导致大屠杀的故意和合作的无知不相上下。 “这不仅仅是为了选举某人掌权而意图杀死这么多人,”她说。 “但整个国家的人民也抢走了工作和职位,并做了这些可怕的事情。”
乔杜里实际上没有一个头衔,她有几十个头衔,其中包括哈佛大学负责任的人工智能研究员、人工智能全球政策顾问和 Twitter 元团队(机器学习伦理、透明度和问责制)的前任负责人。 一段时间以来,AI 一直在给她凌晨 2 点的大脑。 早在 2018 年,福布斯就将她评为“打造我们的 AI 未来”的五个人之一。
作为一名贸易数据科学家,她一直在一个有点难以定义、混乱的领域工作,穿越社会科学、法律、哲学和技术领域,因为她在制定政策和最佳实践方面与公司和立法者进行磋商。 围绕人工智能,她的监管方法在其坚定的中间性方面是独一无二的——既欢迎进步,又坚定地主张“问责机制”应该存在。
乔杜里 (Chowdhury) 精力充沛、耐心且说话轻声细语,聆听时非常小心。 她总是发现人们比他们建造或做的事情更有趣。 在对技术的怀疑成为反身之前,乔杜里也有恐惧——不是对技术本身,而是对开发和销售它的公司。
作为负责任的 AI 公司 Accenture 的全球负责人,她领导的团队设计了一种公平性评估工具,该工具可以先发制人并纠正算法偏差。 她继续创办了 Parity,这是一个道德人工智能咨询平台,旨在弥合“不同的专业知识社区”。 在 Twitter——在它成为埃隆·马斯克 (Elon Musk) 领导下解散的首批团队之一之前——她主持了公司有史以来的第一次算法偏见赏金活动,邀请外部程序员和数据科学家评估该网站的代码是否存在潜在偏见。 该练习揭示了一些问题,包括该网站的照片裁剪软件似乎压倒性地偏爱年轻、女性化和白人的面孔。
这是一种被称为红队的策略,其中鼓励组织外部的程序员和黑客尝试并减少某些安全措施,以推动技术“做坏事以确定它能够做什么坏事”,Chowdhury 说。 由于技术人员害怕“人们触摸他们的孩子”,因此这种外部制衡在技术领域很少实施。
她目前正在为 Def Con 举办另一场红队活动——由黑客组织 AI Village 主办的大会。 这一次,在其创始人 OpenAI 以及微软、谷歌和拜登政府的合作下,数百名黑客聚集在一起测试 ChatGPT。 “黑客马拉松”计划运行 20 多个小时,为他们提供“完全前所未有”的数据集,Chowdhury 说,他与 AI Village 的创始人 Sven Cattell 和负责任的 AI 总裁 Austin Carson 一起组织了这次活动非营利性 SeedAI。
在乔杜里看来,只有通过这种集体主义,才能进行适当的监管和执法。 除了第三方审计,她还在欧洲和美国的多个董事会任职,帮助制定人工智能政策。 她告诉我,她对过度监管的本能持谨慎态度,这可能会导致模型过度纠正而不是解决根深蒂固的问题。 例如,当被问及同性婚姻时,ChatGPT 和其他生成式 AI 工具“完全沉默”,试图弥补推动模型说负面事情的人数。 但她补充说,定义什么是有毒的,什么是可恶的并不容易。 “这是一段永无止境的旅程,”她微笑着告诉我。 “但我没意见。”
早些时候,当她刚开始从事技术工作时,她意识到“技术人员并不总是了解人,而人们并不总是了解技术”,并试图弥合这种差距。 她告诉我,在最广泛的解释中,她的工作涉及通过数据理解人类。 “技术的核心是这样一种观念,比如,人性是有缺陷的,而技术可以拯救我们,”她说,并指出像“身体黑客”这样的语言暗示了这个特定技术时代独有的一种优化。 它的一个方面是希望我们“脱离人类”。
Chowdhury 总是被人类所吸引,他们的混乱、混沌和不可预测。 作为麻省理工学院的一名本科生,她学习政治学,后来,在非营利组织度过了几个月的幻灭期后,她“知道我们可以更有效地使用模型和数据,但没有人做到”,她去了哥伦比亚大学攻读硕士学位定量方法学位。
通讯推广后
上个月,她在西班牙度过了一个星期帮助启动数字服务法案,另一个在旧金山参加网络安全会议,另一个在波士顿参加她的研究金,并在纽约呆了几天进行另一轮Def Con 出版社。 在她居住的休斯敦短暂停留后,她即将在维也纳和匹兹堡分别就 AI 核错误信息和 Duolingo 进行会谈。
她的核心是一个相对简单的格言:倾听、沟通、协作。 然而,即使 OpenAI 的创始人兼首席执行官山姆奥特曼在国会作证说他致力于防止人工智能受到伤害,她仍然看到熟悉的策略在起作用。 当一个行业经历更严格的审查时,禁止禁止性监管通常意味着控制一种说法——即呼吁监管,同时花费数百万美元进行游说以阻止监管法律的通过。
她说,问题在于缺乏问责制。 内部风险分析在公司内部经常被扭曲,因为风险管理并不经常采用道德。 “只是存在风险,然后你愿意承担这种风险,”她告诉我。 当失败或名誉受损的风险变得太大时,它就会转移到一个规则朝着特定方向弯曲的舞台。 换句话说:“让我们玩一个我能赢的游戏,因为我有所有的钱。”
但与机器不同,人有不确定的优先事项和动机。 “世界上很少有基本好的或坏的演员,”她说。 “人们只是在激励结构上运作。” 这反过来意味着推动变革的唯一方法是利用这些结构,使它们远离任何一种动力源。 某些问题只能通过许多不同力量的合作和妥协来大规模解决,人工智能就是其中之一。
不过,她很容易证明存在局限性。 不能妥协的地方。 她说,监控资本主义的兴起让她非常担忧。 这是一种技术的使用,其核心是明确的种族主义,因此不应该被娱乐。 “我们不能给猪涂口红,”她最近在纽约大学社会科学学院关于人工智能未来的演讲中说。 “我认为道德监督不存在。”
Chowdhury 最近为 Wired 撰写了一篇专栏文章,其中详细介绍了她对全球治理委员会的愿景。 无论是监视资本主义、工作中断还是核错误信息,只有一个外部人员委员会才能被信任来管理该技术——一个由像她这样的人组成、不隶属于任何机构、并且具有全球代表性的委员会。 在 Twitter 上,一些用户称她的框架过于理想化,称其为“蓝天思维”或“不可行”。 她告诉我,这很有趣,因为这些人“真的在尝试建造有感知力的机器”。
她对这种不和谐很熟悉。 “这是有道理的,”她说。 我们被英雄故事所吸引,假设一个人在任何特定时间都是并且应该负责。 她告诉我,即使在她组织 Def Con 活动时,人们也很难理解每一步都有一群人一起工作。 “我们受到了所有媒体的关注,”她说,“每个人都在问,’谁在负责?’ 然后我们都看着对方,我们就像,’嗯。 每个人?’”
[ad_2]
Source link