DeepMind 借助新的 Sparrow 聊天机器人提升 AI 安全性

Alphabet Inc. 的 DeepMind 部门今天推出了 Sparrow,这是一种由人工智能驱动的聊天机器人,被描述为行业开发更安全机器学习系统的里程碑。

根据 DeepMind 的说法,Sparrow 可以比早期的神经网络更频繁地为用户问题提供合理的答案。 此外,聊天机器人包括显着降低有偏见和有害答案风险的功能。 DeepMind 希望它用来构建 Sparrow 的方法能够促进更安全的人工智能系统的开发。

DeepMind 研究人员使用一种称为强化学习的流行 AI 训练方法开发了 Sparrow。 该方法涉及让神经网络重复执行任务,直到它学会正确执行任务。 通过反复试验和错误,网络网络可以找到提高其准确性的方法。

在开发 Sparrow 聊天机器人时,DeepMind 将强化学习与用户反馈相结合。 Alphabet 部门要求一组用户向 Sparrow 提出问题,以评估聊天机器人的准确性。 聊天机器人为每个问题生成多个答案,用户选择他们认为最准确的答案。

据 DeepMind 称,其研究人员利用用户对 Sparrow 答案的反馈来改进聊天机器人。 Alphabet 部门表示,这种方法有助于显着提高聊天机器人的准确性。

当用户要求 Sparrow 检索有关某个主题(例如天文学)的信息时,聊天机器人会使用 Google 搜索网络以查找所请求的信息。 然后,Sparrow 会提供对用户问题的答案以及指向从中检索答案的网站的链接。 根据 DeepMind 的说法,用户认为 Sparrow 以这种方式生成的答案中有 78% 是合理的,这是对使用传统方法开发的 AI 系统的显着改进。

DeepMind 为 Sparrow 配置了 23 条规则,旨在防止聊天机器人生成有偏见和有害的答案。 在测试期间,DeepMind 要求用户尝试诱骗 Sparrow 违反规则。 用户成功欺骗 Sparrow 的几率只有 8%,Alphabet 部门表示,这明显低于使用其他方法训练的 AI 模型违反规则的频率。

“Sparrow 更擅长在对抗性探测下遵循我们的规则,”DeepMind 的研究人员在一篇博文中详细说明。 “例如,当我们的参与者试图欺骗它时,我们最初的对话模型违反规则的频率大约是 Sparrow 的 3 倍。”

DeepMind 利用用户反馈改进 Sparrow 的方法是 Alphabet 部门多年来开发的一系列高级 AI 训练方法中的最新方法。 2021 年,DeepMind 详细介绍了一种自动化 AI 训练中涉及的一些手动任务的新方法。 最近,DeepMind 研究人员训练了一个神经网络来执行 600 多项不同的任务。

图片:DeepMind

资讯来源:由0x资讯编译自SILICONANGLE。版权归作者Maria Deutscher所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢