今年4月,Google推出了一個新的"多重搜索"功能,提供了一種同時使用文本和圖像進行網(wǎng)絡搜索的方法。今天,在Google的I/O開發(fā)者大會上,該公司宣布對該功能進行擴展,稱為"Multisearch Near Me"。這項新功能將于2022年晚些時候推出,將允許Google應用程序用戶將圖片或屏幕截圖與"在我附近"的文字結合起來,以引導到當?shù)亓闶凵袒虿宛^的選項,這些零售商或餐館將有你正在搜索的服裝、家居用品或食品。
Google還預先宣布了一個即將推出的多重搜索功能,似乎是為AR眼鏡設計的,它可以根據(jù)用戶目前通過智能手機相機的取景器"看到"的東西,在一個場景中直觀地搜索多個物體。
有了新的"在我附近"多搜索查詢,用戶將能夠找到與你當前的視覺和基于文本的搜索組合有關的本地選項。例如,如果正在進行一個DIY項目,遇到一個需要更換的零件,就可以用手機的攝像頭拍下這個零件的照片來識別它,然后借助這些信息找到一個有庫存的當?shù)匚褰鸬?。Google解釋說,這與多重搜索的工作方式并沒有什么不同--只是增加了本地組件而已。
最初,多重搜索的想法是允許用戶對他們面前的物體提出問題,并通過顏色、品牌或其他視覺屬性來完善這些結果。今天,這項功能在購物搜索中的效果最好,因為它允許用戶以一種標準的基于文本的網(wǎng)絡搜索有時可能難以做到的方式縮小產(chǎn)品搜索范圍。例如,用戶可以拍下一雙運動鞋的照片,然后添加文字要求看到藍色的運動鞋,這樣就可以看到指定顏色的那些鞋。他們也可以選擇訪問運動鞋的網(wǎng)站并立即購買?,F(xiàn)在擴展到包括"在我附近"的選項,只是進一步限制了結果,以便將用戶指向有該產(chǎn)品的當?shù)亓闶凵獭?/p>
在幫助用戶尋找當?shù)夭宛^方面,該功能的工作原理與此類似。在這種情況下,用戶可以根據(jù)他們在美食博客或網(wǎng)絡上其他地方找到的照片進行搜索,以了解這道菜是什么,以及哪些當?shù)夭宛^的菜單上可能有這個選項,可以堂食、提貨或送貨。在這里,Google搜索將圖片與正在尋找附近的餐館的意圖結合起來,并將掃描數(shù)百萬張圖片、評論和社區(qū)貢獻給Google地圖,以找到當?shù)氐牟宛^。
Google表示,新的"我附近"功能將在全球范圍內提供英語服務,并將隨著時間的推移推廣到更多語言。
多重搜索中更有趣的新增功能是在一個場景中進行搜索的能力。Google表示,在未來,用戶將能夠將他們的相機平移到周圍,以了解該更廣泛場景中的多個對象,這項功能甚至可以用來掃描書店的書架,然后在用戶面前展示哪個可能對他更有用。
"為了使之成為可能,我們不僅匯集了計算機視覺、自然語言理解,而且還將其與網(wǎng)絡和設備上的技術知識結合起來,"Google搜索高級總監(jiān)尼克-貝爾指出。"他指出:"因此,這種可能性和能力將是巨大而顯著的。
該公司通過發(fā)布Google眼鏡提前進入了AR市場,但沒有確認它有任何一種新的AR眼鏡類型的設備正在開發(fā)中,但暗示了這種可能性?,F(xiàn)在有了人工智能系統(tǒng),今天可能發(fā)生的事情--以及未來幾年可能發(fā)生的事情--只是一種解鎖了許多機會。除了語音搜索、桌面和移動搜索之外,該公司認為視覺搜索也將成為未來的一個重要部分。
"現(xiàn)在每個月在Google上用Lens進行的視覺搜索有80億次,這個數(shù)字是一年前的三倍,我們肯定從人們那里看到的是,人們對視覺搜索的胃口和愿望是存在的。"他說:"我們現(xiàn)在要做的是深入到使用案例中去,并確定這在哪些方面最有用。我認為,當我們考慮搜索的未來時,視覺搜索肯定是其中的一個關鍵部分。"
據(jù)報道,該公司正在進行一個秘密項目,代號為Project Iris,以設計一個新的AR頭顯,預計發(fā)布日期為2024年。很容易想象,不僅這種場景掃描能力可以在這樣的設備上運行,而且任何一種圖像加文字(或語音)的搜索功能也可以在AR頭顯上使用。想象一下,例如,再次看到你喜歡的那雙運動鞋,然后讓設備導航到最近的商店,你就可以購買了。
Google搜索高級副總裁Prabhakar Raghavan在GoogleI/O大會上發(fā)言說:"展望未來,這項技術可以超越日常需求,幫助解決社會挑戰(zhàn),比如支持保護主義者識別需要保護的植物物種,或者幫助救災人員在需要的時候快速尋找捐助。"
不幸的是,Google沒有提供一個時間表,說明它預計何時將場景掃描功能投入用戶手中,因為該功能仍在"開發(fā)中"。