谷歌搜索获得更直观的体验和新功能
在 Search On 活动中,谷歌解释了机器学习如何帮助他们创建反映人们如何理解世界的搜索体验。此外,通过以多种形式解释信息,从文字到图像再到现实世界,它们可以帮助用户以创新的方式收集和探索数据。谷歌正在让用户的视觉搜索更加自然和直观。
帮助您跳出框框搜索
镜头可让您按相机或图像进行搜索。谷歌今年推出了 Multisearch,让视觉搜索更加自然。Multisearch 允许您捕获图像或屏幕截图并添加单词,例如指向某物并询问它。此外,Multisearch 以英语在全球范围内提供,并且很快将提供 70 多种语言版本。
在谷歌 I/O 大会上,该公司预览了“我附近的 Multisearch”,它可以让用户拍下一顿饭或物体的照片,然后在附近找到它。这种新的搜索方法将帮助您识别本地公司,无论您是想支持附近的商店还是今天需要一些东西。“Multisearch Near Me”将于今年秋季推出。
视觉理解打破了语言障碍。Google Lens 可以翻译文本以外的图像。Google 将视觉文本翻译成 100 多种语言,每月翻译 10 亿次。
机器学习改进可以将翻译后的文本组合成复杂的图片,因此看起来很自然。机器学习模型已经过细化,因此可以在 100 毫秒内完成。
Pixel 上的 Magic Eraser 采用生成对抗网络(GAN 模型)。今年晚些时候,这种升级的体验推出。
您对使用 Lens 进行翻译的喜爱现在变得更好了。