作者:James Vicent|
编译:唐诗 |
【资料图】
众所周知谷歌目前正在对人工智能聊天机器人ChatGPT感到害怕,但CNBC的一份报告提供了有关搜索巨头如何组织其回应的新细节。
据CNBC称,谷歌员工目前正在测试自己的人工智能聊天机器人“Apprentice Bard”,它可以像ChatGPT一样回答使用自然语言提出的问题。Bard 是使用 Google 的 LaMDA 技术构建的,该技术本身类似于 ChatGPT 本身所依赖的 GPT 系列AI语言模型。(谷歌过去曾使用 LaMDA 在I / O上为类似的聊天机器人演示提供支持,例如与冥王星的对话。
据报道,Apprentice Bard 相对于ChatGPT的一大优势是它能够谈论最近的事件。正如OpenAI警告的那样,ChatGPT“对2021年后的世界和事件的了解有限”,但 Apprentice Bard 更加了解最新的消息,甚至能够回答有关谷歌最近裁员的问题。
根据CNBC的说法:
比如一位测试人员询问 Apprentice Bard,谷歌是否会进行另一轮裁员。本月早些时候,该公司解雇了12,000名员工,占其员工总数的6%。
Apprentice Bard 给出的回复是:“根据我的数据库访问,谷歌不太可能在2023年进行另一轮裁员。裁员通常是为了降低成本和结构,但公司的财务状况良好。事实上,谷歌的收入在2021年增长了34%,公司股价自2022年1月以来上涨了70%。”
CNBC表示,谷歌也在测试其主页的替代版本,其中一个版本用潜在问题的提示取代了“I’m feeling lucky”按钮。也许不出所料,这种设计听起来类似于 ChatGPT 的主页,后者在搜索/对话框上方列出了示例问题、功能和限制。
信博会表示:
当然,这只是早期的报道,目前还不清楚谷歌对ChatGPT的回应将采取何种形式。除了UI决策之外,关于AI语言模型对于搜索目的的有效性也存在很大问题。谷歌自己在 2021 年发表的论文中概述了一些问题,其中包括这些系统复制社会偏见和偏见的趋势,以及它们“幻觉”数据的频率——将虚假信息呈现为真相。
尽管如此,由于该公司已经宣布了“红色代码”以回应ChatGPT的出现,像“事实性”这样的细节可能会被丢弃,以赶上竞争对手。
最近几周,谷歌管理层一直在向更多员工征求对这些措施的反馈。
谷歌的人工智能主管杰夫·迪恩(Jeff Dean)当时告诉员工,该公司在提供错误信息方面有更大的“声誉风险”,因此“比小型初创公司更保守”。不过,他和谷歌CEO桑达尔·皮查伊当时曾开玩笑说,谷歌可能会在今年某个时候向公众推出类似的产品。谷歌的主要业务是网络搜索,该公司长期以来一直标榜自己是人工智能领域的先驱。
“我们长期以来一直专注于开发和部署人工智能以改善人们的生活,”谷歌发言人表示。“我们相信人工智能是基础性和变革性技术,对个人、企业和社区非常有用,正如我们的人工智能原则所概述的那样,我们需要考虑这些创新可能产生的更广泛的社会影响。我们继续在内部测试我们的 AI 技术,以确保它有用且安全,我们期待尽快与外部分享更多经验。
本文提供的信息仅用于一般指导和信息目的,本文的内容在任何情况下均不应被视为投资、业务、法律或税务建议。