Google 於今年 4 月在英文版首度推出的多重搜寻(MultiSearch)中,可以同时输入图像与文字的搜寻功能,即将推出多国语版。根据 Google 28 日宣布,在未来数个月之内可展开至 70 余种语言。
另外,从原先的图+文搜寻功能,将再衍伸出在地搜寻的新功能「Near Me」,可协助用户将搜寻结果连结到在地商家,有助於更快入手搜寻结果的商品与服务。
Google 自 2017 年起推出可用智慧型手机搜寻图像的服务「Google Lens」,功能包含可以将镜头拍到的文字(名片、活动宣传单)资讯加入应用程式,也可以透过镜头拍摄动植物、建筑物,以图像搜寻名称。Google 资深副总裁 Prabhakar Raghavan 说明,该功能至今「每月利用次数已达 80 亿次,(对输入关键字而言)相机正在取代键盘」。
而 MultiSearch 正是这个趋势的进化型。如同上图所示,使用图像输入特定花色,再辅以文字输入「tie(领带)」,便会提供接近该花色的领带产品搜寻结果。该功能先前只支援英语区,但昨天的发表会中已宣告未来数月将支援多国语服务。
另一个实用功能结合了本地商家的菜单资讯。根据 Google 研究统计,40% 的人在觅食时、心中已经有一道具体想吃的菜。因此,该功能可让使用者在想吃一道特定的料理、而非特定的餐厅时,只要如图键入「小笼包(Soup Dumplings)near me」,Google 就能搜寻出提供「小笼包」的本地餐厅供使用者参考。在 28 日的「Search On」发表会上,Google 表示该功能将於今年秋季先在美国推出。
有趣的是,本次的发表不止於此。整合上述两款功能,未来透过 Multisearch + Near Me,使用者能直接把网路上看到或朋友分享的美食图片输入图文搜寻,并加上「near me」,就可以快速在附近店家找到相同的美食。你甚至不需要知道它的名字是什麽!
这些迷人的功能似乎确实能提高我们生活中找寻答案的效率。日经新闻提到,Raghavan 曾在 7 月说明,「有 40% 的年轻人在寻找午餐地点时,不是使用 Google Map,而是打开 TikTok 或是 IG。」这次的功能更新也显现出 Google 面对威胁,极力挽回作为人们生活中主要搜寻手段的决心。
核稿编辑:Anny