谷歌近日宣布,在全球超过200个国家和地区正式推出"Search Live"功能,这一举措标志着移动搜索从传统的文本和图像检索,全面转向实时多模态交互的新阶段。用户现在可以通过手机摄像头与语音指令,在Android及iOS端的Google应用或Google Lens中,与现实环境进行实时AI对话。

核心技术:Gemini 3.1 Flash Live模型赋能
Search Live的核心动力源自全新的Gemini 3.1 Flash Live模型。作为一种原生多语言音频与语音大模型,该模型在对话自然度和响应速度上实现了显著提升。
用户只需将摄像头对准物体并提问,无论是复杂的家具组装指导,还是动植物的即时识别,系统都能同步提供语音解答及相关网页链接,真正实现了物理世界与数字信息流的无缝对接。

战略意义:筑牢移动端入口防御壁垒
这一功能的全球化部署,被视为谷歌应对AI搜索竞争压力的关键战略动作。当前,Luma AI推出的Uni-1模型正在挑战谷歌在图像处理领域的地位,而OpenAI也计划通过整合ChatGPT与浏览器功能打造超级应用。
谷歌通过Search Live的全面上线,充分利用Gemini 3.1 Flash Live的轻量化与高响应特性,有效筑牢了其在移动端入口的竞争壁垒。
行业发展:从被动检索到主动感知
Search Live的全面普及预示着AI助手正在经历一场深刻进化——从"被动检索工具"转变为"主动感知伙伴"。通过将计算机视觉与实时语音处理深度融合,谷歌正在重新定义信息获取的边界,推动整个搜索行业迈向空间智能与多模态交互的新阶段。
AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说
AITOP100平台官方交流社群二维码:










