[ad_1]
马克·扎克伯格 (Mark Zuckerberg) 的 Meta 本周发布了人工智能模型 Llama 2 的开源版本,供公众使用。 大语言模型 (LLM) 可用于创建类似 ChatGPT 的聊天机器人,可供初创公司、成熟企业和独立运营商使用。 但 Meta 为何要这样做?其中存在哪些潜在风险?
开源 LLM 做什么?
法学硕士是聊天机器人等人工智能工具的基础。 他们接受了海量数据集的训练,使他们能够模仿人类语言甚至计算机编码。 如果法学硕士是开源的,这意味着它的内容可以免费供人们访问、使用和调整以达到自己的目的。
Llama 2 发布了三个版本,其中一个版本可以内置到人工智能聊天机器人中。 这个想法是,初创公司或老牌企业可以访问 Llama 2 模型并修改它们来创建自己的产品,包括潜在的 ChatGPT 或 Google 的 Bard 聊天机器人的竞争对手 – 尽管 Meta 自己承认 Llama 2 并不完全达到 GPT 的水平 – 4、OpenAI的ChatGPT背后的法学硕士。
Meta 的全球事务总裁尼克·克莱格 (Nick Clegg) 周三在 BBC 广播四台的《今日》节目中表示,将法学硕士开源将通过邀请外部审查使其“更安全、更好”。
“凭借……群众的智慧,你实际上可以使这些系统更安全、更好,而且最重要的是,你可以将它们从……大型科技公司的手中解放出来,而这些公司是目前唯一拥有计算能力或大量计算能力的公司。”首先需要数据来构建这些模型。”
还有一种可能性是,通过让所有参与者都有机会推出 ChatGPT、Bard 或微软 Bing 聊天机器人的竞争对手,Meta 可能会削弱谷歌等科技同行的竞争优势。
Meta 在与 Llama 2 一起发表的研究中承认,它“落后于”GPT-4,但它仍然是 OpenAI 的免费竞争对手。
微软是 OpenAI 的主要财务支持者,但仍然支持 Llama 2 的推出。LLM 可通过 Microsoft Azure、Amazon Web Services 和 Hugging Face 平台下载。
对开源人工智能是否存在担忧?
OpenAI 联合创始人埃隆·马斯克 (Elon Musk) 等科技专业人士对人工智能军备竞赛表示担忧。 开源使所有人都可以使用该技术的强大工具。
时事通讯促销后
南安普顿大学计算机科学教授温迪·霍尔 (Dame Wendy Hall) 女士告诉《今日》节目,人们对科技行业是否可以信任法学硕士进行自我监管存在疑问,而对于开源模型来说,这个问题更为严重。 “这有点像给人们一个制造核弹的模板,”她说。
萨里大学以人为本的人工智能研究所的 Andrew Rogoyski 博士表示,开源模型很难监管。 “你无法真正监管开源。 你可以根据当地立法来监管 Github 或 Hugging Face 等存储库。”他说。
“您可以在软件上发布许可条款,如果滥用,可能会使滥用公司承担各种形式的法律补救措施。 然而,开源意味着任何人都可以使用它,因此它并不能阻止错误的人获取该软件,也不能阻止任何人滥用它。”
如果您申请下载 Llama 2,您需要同意“可接受的使用”政策,其中包括不使用法学硕士来鼓励或策划“暴力或恐怖主义”或生成虚假信息。 然而,ChatGPT 背后的法学硕士很容易产生虚假信息,并可能被诱骗超越安全护栏,产生危险内容。 Llama 2 版本还附带针对开发人员的负责任的使用指南。
[ad_2]
Source link