[ad_1]
AI 开发人员必须迅速采取行动,开发和部署解决算法偏差的系统,Salesforce 道德 AI 实践首席架构师 Kathy Baxter 说。 在接受 ZDNET 采访时,Baxter 强调了数据集和用户研究中多样化表现的必要性,以确保公平和公正的 AI 系统。 她还强调了在保护个人隐私的同时使人工智能系统透明、易于理解和负责的重要性。 Baxter 强调跨部门协作的必要性,例如美国国家标准与技术研究院 (NIST) 使用的模型,这样我们才能开发出强大而安全的 AI 系统,造福于所有人。
人工智能伦理的基本问题之一是确保人工智能系统的开发和部署不会强化现有的社会偏见或创造新的偏见。 为实现这一目标,Baxter 强调了询问谁受益以及谁为 AI 技术买单的重要性。 考虑所使用的数据集并确保它们代表每个人的声音至关重要。 开发过程中的包容性和通过用户研究识别潜在危害也很重要。
还: ChatGPT 的智能为零,但它是实用性的革命,AI 专家说
“这是我们必须讨论的基本问题之一,”巴克斯特说。 “尤其是有色人种女性,多年来一直在问这个问题,并在这一领域进行研究。我很高兴看到很多人谈论这个问题,尤其是在使用生成人工智能方面。但我们需要做的事情从根本上说,是问谁受益于这项技术,谁为这项技术买单。包括谁的声音?
社会偏见可以通过用于训练它们的数据集注入人工智能系统。 包含偏见的不具代表性的数据集,例如主要包含一个种族或缺乏文化差异的图像数据集,可能会导致人工智能系统出现偏见。 此外,人工智能系统在社会中的应用不均衡可能会延续现有的刻板印象。
为了使人工智能系统对普通人透明和易于理解,在开发过程中优先考虑可解释性是关键。 “思维提示链”等技术可以帮助人工智能系统展示它们的工作,并使它们的决策过程更易于理解。 用户研究对于确保解释清晰以及用户能够识别 AI 生成内容中的不确定性也至关重要。
还: 人工智能可以使 25% 的工作自动化。 这是风险最大(和最小)的
保护个人隐私和确保负责任地使用人工智能需要透明度和同意。 Salesforce 遵循负责任的生成 AI 准则,其中包括尊重数据来源和仅在征得客户同意的情况下使用客户数据。 允许用户选择加入、选择退出或控制他们的数据使用对于隐私至关重要。
“我们仅在征得客户同意后才使用客户数据,”巴克斯特说。 “当你使用某人的数据时保持透明,允许他们选择加入,并允许他们返回并说出他们何时不再希望他们的数据被包括在内,这一点非常重要。”
随着生成式 AI 创新竞争的加剧,保持人类对日益自主的 AI 系统的控制和自主权比以往任何时候都更加重要。 让用户能够就人工智能生成的内容的使用做出明智的决定,并让人类参与其中,有助于保持控制。
确保人工智能系统安全、可靠和可用至关重要; 全行业的合作对于实现这一目标至关重要。 Baxter 称赞了 NIST 创建的 AI 风险管理框架,该框架涉及来自各个领域的 240 多位专家。 这种协作方法为识别风险和共享解决方案提供了一种通用语言和框架。
未能解决这些道德人工智能问题可能会产生严重后果,例如由于面部识别错误或有害图像的生成而被错误逮捕的案例。 投资保障措施并关注此时此地,而不是仅仅关注未来潜在的危害,可以帮助缓解这些问题并确保负责任地开发和使用人工智能系统。
还: ChatGPT 的工作原理
虽然 AI 的未来和通用人工智能的可能性是有趣的话题,但 Baxter 强调了关注当下的重要性。 确保负责任的 AI 使用和解决当今的社会偏见将使社会更好地为未来的 AI 进步做好准备。 通过投资符合道德规范的 AI 实践和跨行业合作,我们可以帮助为 AI 技术创造一个更安全、更具包容性的未来。
“我认为时间表很重要,”巴克斯特说。 “我们真的必须在此时此地进行投资,创造这种肌肉记忆,创造这些资源,制定法规,让我们能够继续前进,但要安全地进行。”
[ad_2]
Source link