[ad_1]
去年 11 月下旬,ChatGPT 让世界陷入了对人工智能未来的狂热。 ChatGPT 是生成式 AI 模型家族中的一员,它处理大量现有数据并吐出连贯的书面、口头和视觉内容字符串。 例如,您可以通过输入相关命令在几秒钟内查看使用佳能 300mm f/2.8 镜头拍摄的霸王龙图像。 这些生成式 AI 模型正在彻底改变从医疗保健到教育到金融再到娱乐业的各个行业。
随着人工智能的快速发展,人们越来越担心它会被用于有害的方式。 联邦贸易委员会主席莉娜·汗 (Lina Khan) 在一份 纽约时报 专栏指出,生成人工智能需要受到严格监管,以避免消费者受到伤害和反竞争行为。 “除了创建深度伪造视频和语音克隆的工具,”她写道,“这些技术还可以用于促进大规模欺诈和勒索。”
然而,对生成式 AI 模型实施全面监管将严重扰乱创新并延迟随之而来的改变生活的好处。 即使政府拥有适当的监管工具,人工智能技术的发展速度也将难以驾驭,任何形式的严格监管都将失效。
除了这种方法,我们应该选择“更软”的法规,例如行业最佳实践和利益相关者之间的非正式谈判,以鼓励形成自下而上的治理。 通过这种方式,创新可以继续快速发展,同时可以出现去中心化的治理形式来解决与生成人工智能系统相关的潜在危害。
除了 Khan 提出的担忧之外,许多人还认为,这种新一代 AI 将增加在线性剥削、骚扰和虚假信息。 为了解决这些问题,像 OpenAI 和谷歌这样的公司正在招募和培训人工审查员来删除恶意和不准确的内容。 在某些情况下,OpenAI 通过其服务条款合同对用户行为设置限制。 这些例子代表了人工智能公司越来越努力地整合不需要严厉监管的自下而上的治理。
美国国家标准与技术研究院 (NIST) 与行业领导者和其他有价值的利益相关者合作,创建了一个框架来减少人工智能系统中的负面偏见,“旨在以提高可信度的方式开发和使用人工智能,提高实用性,并解决潜在的危害。”
电气和电子工程师协会 (IEEE) 是一个在 160 个国家/地区拥有超过 420,000 名成员的专业协会,它发布了一份概述行业标准的报告,“确保参与自主和智能系统设计和开发的每个利益相关者都接受过教育、培训、并有权优先考虑道德考虑,以便为人类的利益推进这些技术。”
通过咨询众多利益相关者,NIST 和 IEEE 正在创建分散式框架,向 AI 社区通报最佳实践,并建立一套可以在问题出现之前缓解问题的标准。
当然,没有灵丹妙药可以消除围绕生成人工智能的不确定性。 但是,培养自发的管理机构将促进创新,从而改善从营销和客户服务到艺术和音乐娱乐的方方面面。 一家营销公司最近预测,到 2025 年,30% 的营销内容将由 AI 生成。更令人震惊的是,他们预计到 2030 年,AI 将贡献 90% 的好莱坞大片文本和视频生成。
此外,通过提高生产力,生成式人工智能正在扩大技术前沿。 例如,麻省理工学院的研究人员正在探索生成式人工智能可以“加速新药开发并降低不良副作用的可能性”的方法。 公司还使用 AI 生成计算机代码,以增加软件开发并增强用户体验。
与新兴的自下而上的治理结构形成鲜明对比的是,欧洲议会正在考虑一项名为人工智能法案的提案,该提案将对整个欧盟的人工智能公司实施繁重的监管。 Future of Life Institute 等利益相关方认为,生成人工智能必须经过“合格评定”,这是人工智能公司在向公众发布技术之前需要满足的严格要求。 该研究所还发表了一封公开信,其中包括埃隆·马斯克 (Elon Musk) 在内的 27,000 多个签名,呼吁人工智能实验室暂停开发至少六个月,直到“一套共享安全协议”得到全面实施。
随着欧洲监管人工智能的呼声越来越高,白宫发布了人工智能权利法案,概述了拜登政府认为其首要任务是“建立和部署符合民主价值观并保护公民权利、公民权利的自动化系统”。自由和隐私。”
不幸的是,这些提议忽视了在缺乏严格政府监督的情况下形成的自下而上的治理体系。 诚然,在一个无限的世界中存在着严重的风险,在这个世界中,人工智能可以被用来通过面部识别来追踪数百万人,传播虚假信息,并通过模仿亲戚的声音来欺骗家人。 但正如 Adam Thierer 在他的书中所写, 回避创业,“更软”的方法包含一种无需许可的创新态度,它创造了一个更有生产力的环境,在这个环境中,我们可以解决复杂的问题,而不会损害创新和发现新做事方式的动力。
随着人工智能以如此快速的速度发展,我们很容易让对它的恐惧压倒我们。 毕竟,我们对新技术的态度最终决定了我们采用的监管环境。 与其让这种恐惧淹没我们的感官,我们还应该对生成式 AI 模型所释放的不可思议的可能性保持谨慎乐观。 采用自下而上的治理方法虽然不完美,但却是确保人工智能的好处成为现实而又不危及我们珍视的重要价值观的最佳策略。
[ad_2]
Source link