自谷歌发布其“实验性对话AI服务”Bard以来,人们并没有对它留下深刻印象。与OpenAI的ChatGPT和微软的必应聊天(也由OpenAI的GPT-4提供支持)相比,用户发现它的回答不如竞争对手那样知识渊博或详细。
然而,这可能会有所改变,在纽约时报播客“Hard Fork”上确认,谷歌首席执行官桑达尔・皮查伊表示Bard将很快从当前基于LaMDA模型转移到更大规模的PaLM数据集。当被问及他对Bard发布后反应的感受时,皮查伊评论道:“我们显然拥有更强大的模型。
很快,在此过程中,我们将把Bard升级到一些更具能力、无论是在推理还是编码方面都具备更多功能的PaLM模型。”为了说明差异,去年Google分享了关于基于语言模型的细节时称已经使用1370亿个参数训练了LaMDA。另一方面,则称PaLM已经使用约5400亿个参数进行训练。
两种模型自2022年初以来可能已经发展和成长了,但这种对比可能表明为什么谷歌现在正在缓慢地将Bard转移到PaLM上,因为它具有更大的数据集和更多样化的答案。皮查伊声称并不担心谷歌的AI开发速度与竞争对手相比。当Bard首次亮相时,他承认其依赖于LaMDA使其规模较小,但将计算能力降低视为一种好处,可以让更多用户测试并提供反馈。皮查伊还确保在获得现实世界信息后,谷歌将进行自己对Bard安全性和质量的分析。