Googleは、9月28日(米現地時間)に開催した検索に関するイベント「Search On ’22」で公開したGoogle検索とGoogle マップの情報から、日本でも使用可能になる新機能をGoogle Japan Blogで公開した。
同イベントは「検索窓の枠を超えて」(Helping you search outside the box)をテーマに実施。従来の「検索ボックスにキーワードを入力」ではない方法で利用できる検索機能のほか、マップに新しい情報を加える機能などが紹介されている。
マルチ検索(画像+テキストでの検索)
「Google レンズ」が、画像のみを使用しての検索ではなく、テキストを加えて検索できるようになる。例えば、シャツの画像に「tie」とテキストを加えることで、シャツに似た柄のネクタイを検索できる。
画像翻訳の結果をより自然に表示
カメラを外国語にかざして画像の中でテキストを翻訳する際、複雑な画像の中でも翻訳されたテキストをより自然な形で表示可能になる。画像生成には機械学習による「敵対的生成ネットワーク(GAN)」という手法が用いられ、例えば、外国語の雑誌にカメラを向けると、翻訳されたテキストが誌面の背景になじんだかたちで表示されるという。年内に公開予定だとしている。
より直感的なファッションアイテムのショッピング検索
スマートフォンでファッションアイテムを検索すると、購入可能なサイトや店舗へのリンク、スタイルガイドなどの情報が画像とともに表示される。さらに、リアルタイムの検索トレンドを反映したフィルターが導入される。例えば「ジーンズ」と検索することで、今人気の「ワイドレッグ」や「ブーツカット」といったフィルターが表示されているという。
Google マップでエリアの雰囲気をチェックする機能
Google マップで調べたいエリアを選択すると、ユーザーが提供する写真や情報をもとに、人気スポットや見どころが地図上に表示される。本機能は、AIとGoogle マップユーザーから提供された情報を組み合わせて実現しており、AndroidとiOSで展開する予定だという。
地域の天候、交通、混雑状況などの予測(イマーシブビュー)
マップの3D写真などに天候、交通、混雑状況などの重要な情報を重ねて、地域を多次元なビューで見られる。この機能は「イマーシブ(没入型)ビュー」と呼ばれる。予測モデリングを用いて、地域の過去の傾向を自動的に学習し、来週や来月にどのような状態になるかを予測する。まずは東京、ロサンゼルス、ロンドン、ニューヨーク、サンフランシスコの各都市で、AndroidとiOS向けに公開する予定だとしている。
ライブビュー上での検索
ライブビューは、スマートフォンのカメラをかざすことで、進むべき方向へと矢印を表示する機能。その技術を発展させ、ライブビュー上で検索できる(カメラの範囲内で対象を探せる)機能を加える。東京、ロンドン、ロサンゼルス、ニューヨーク、サンフランシスコ、パリの各都市で、AndroidとiOS向けに今後数カ月間にわたって展開するという。