8 月 14 日消息,谷歌在今天召开的 Pixel 9 系列手机发布会上,发布了 Gemini Live 服务,将于今天开始率先面向使用英语的 Gemini Advanced 订阅用户开放。

谷歌表示用户可以在聊天机器人说话时打断它,提出后续问题,聊天机器人会实时适应用户的说话模式。

翻译谷歌博文部分内容如下:

通过 Gemini Live [使用 Gemini 应用程序],用户可以与 Gemini 对话,并从 [10 种新的] 自然声音中选择它可以回应的声音。

用户甚至可以按照自己的节奏说话,或在回答中途打断并提出澄清性问题,就像在人类对话中一样。

谷歌演示 Gemini Live 的一个场景,模拟用户和招聘经理(或人工智能,视情况而定)交谈,为用户提供演讲技巧推荐、提供优化建议。

谷歌发言人表示:

Live 使用的是我们的 Gemini Advanced 模型,我们对其进行了调整,使其更具对话性。当用户与 Live 进行长时间对话时,就会使用该模型的大型上下文窗口。

不支持多模态输入

Gemini Live 还不具备谷歌在 I / O 大会上展示的功能之一:多模态输入。

谷歌今年 5 月发布了一段预先录制的视频,展示了 Gemini Live 通过手机摄像头捕捉的照片和录像看到用户周围的环境并做出反应,例如说出一辆坏掉的自行车上的零件名称,或者解释电脑屏幕上的部分代码是做什么用的。

谷歌表示,多模态输入将在“今年晚些时候”推出,但拒绝透露具体细节。

谷歌 Pixel 9 系列产品发布会