[ad_1]
最近,关于生成式 AI 新变体的公告如雨后春笋般涌现,引发了一阵炒作和恐慌。 OpenAI 的 ChatGPT 似乎已经改变了游戏规则,但现在本周的新版本 GPT-4 又向前迈进了一步。 GPT-4 可以生成足够的文本来写一本书,用每种计算机语言编写代码,并且——最值得注意的是——“理解”图像。
如果你的头脑没有被这种可能性所困扰,那么你就没有注意过。 在过去的五年里,我一直在研究人工智能如何改变世界各地的新闻业。 我已经看到了它如何推动新闻媒体以更高效和有效的方式收集、创建和分发内容。 它已经是技术变革的“下一波”。 现在,生成式 AI 已经将潜在的进步提升了一两档。
但是等一下。 这并不是对“有感知力”的人工智能的突破。 机器人不会来取代我们。 然而,这些大型语言模型 (LLM)——例如 ChatGPT——是一种促进剂,它们以如此规模和速度运行,以至于它们似乎可以按照你的提示去做任何事情。 我们使用它们并向它们提供数据和问题的次数越多,它们学会预测结果的速度就越快。
数以百万计的初创公司已经声称使用这种秘方来创造新产品,这些产品将彻底改变从法律管理到股票交易、游戏到医疗诊断的一切。 其中很多是营销泡沫。 与所有技术突破一样,总会有炒作周期和意想不到的好坏后果。 但我已经看到足够多的东西知道它会改变我们的生活。 试想一下,当时尚或建筑领域的创意人士使用这些工具时,它们可以做什么。
机器学习、自动化或自然语言处理等人工智能已经成为我们世界的一部分。 例如,当您在线搜索时,您正在使用在大量数据集上训练的机器学习驱动算法来为您提供所需的内容。 现在,变革的步伐正在加快。 仅在 2021 年,全球私营企业对 AI 的投资就翻了一番,我预计生成性 AI 的突破会再次翻番。
现在深吸一口气。 我不建议任何人现在使用 ChatGPT 或 GPT-4 来创建任何东西——至少不要在没有人工检查以确保其准确、可靠和高效且无害的情况下使用。 AI 不是关于内容制作从头到尾的完全自动化:它是关于增强功能,为专业人士和创意人员提供更快工作的工具,让他们有更多时间花在人类最擅长的事情上。
我们知道使用生成式 AI 存在一些真正的额外风险。 它在编造事情的地方有“幻觉”。 它有时会产生有害内容。 它肯定会被用来传播虚假信息或侵犯隐私。 例如,人们已经用它创造了破解计算机的新方法。 您可能想用它来创建一个精彩的新视频游戏,但如果某个大反派使用它来创建致命病毒怎么办?
我们知道这些风险,因为当我们试用技术公司公开提供的这些原型时,我们可以看到它的缺陷。 用它来写诗或歌曲或创作超现实主义的图像,你会得到很多乐趣。 直接问它,你通常会得到一个明智而安全的答案。 问它一个愚蠢或复杂的问题,它会挣扎。 许多技术专家和记者都乐于测试它的破坏性,并让它以奇怪和令人不安的方式做出反应。 AI 研究人员会很高兴,因为这一切都有助于改进他们的编程。 他们部分地在公开场合进行实验。
我们也知道这些风险,因为 OpenAI 本身已将它们列在其“系统卡”上,解释了这项技术的新功能和危险,以及它如何在每次新迭代中寻求改善它们。 谁最终决定哪些风险是可以接受的,或者我们应该如何应对这些风险,这是一个没有实际意义的问题。
将这项技术“放回原处”为时已晚。 它有太多的潜力可以帮助人类应对我们面临的全球挑战。 至关重要的是,我们必须就所有形式的人工智能的伦理、经济、政治和社会影响进行公开辩论。 我希望我们的政客们能够比过去更好地了解这种快速兴起的技术,并且我们都变得更加了解 AI。 但最终,我的主要希望是我们花时间和精力仔细思考可以积极使用它的最佳方式。 您不必相信炒作就会有希望。
[ad_2]
Source link