1727996547
2024-10-03 16:00:00
いつ Google レンズは 2017 年に導入されました、検索機能は、少し前までは SF の世界のように思えた偉業を達成しました。携帯電話のカメラを物体に向けると、Google レンズがそれを識別し、コンテキストを表示し、場合によってはそれを購入できるようにすることもできます。これは新しい検索方法で、目の前にあるものの説明をぎこちなく入力する必要はありませんでした。
レンズもその方法をデモしました Googleは自社の機械学習とAIツールの利用を計画していた 検索エンジンがあらゆる面で確実に表示されるようにするためです。 Google は、その基礎的な生成 AI モデルをますます使用して、 情報の概要を生成する テキスト検索に対応して、Google レンズのビジュアル検索も進化しています。そして同社は現在、月間約 200 億件の検索を実現する Lens が、ビデオ検索やマルチモーダル検索など、さらに多くの検索方法をサポートすると述べています。
Lens へのもう 1 つの調整により、ショッピングに関するさらに多くのコンテキストが結果に表示されるようになります。当然のことながら、ショッピングは Lens の重要な使用例の 1 つです。 Amazon と Pinterest も、より多くの購入を促進するように設計されたビジュアル検索ツールを提供しています。古い Google レンズで友人のスニーカーを検索すると、似たような商品のカルーセルが表示されたかもしれません。レンズのアップデート版では、購入、顧客レビュー、出版社レビュー、比較ショッピングツールへの直接リンクがさらに表示されるとGoogleは述べている。
レンズ検索は現在、AI のホットワードであるマルチモーダルになっており、ビデオ、画像、音声入力を組み合わせて検索できるようになりました。スマートフォンのカメラを物体に向け、画面上のフォーカス ポイントをタップし、レンズ アプリが結果を導き出すのを待つ代わりに、ユーザーはレンズを向けながら同時に音声コマンドを使用できます。あれは雲ですか?」 「そのスニーカーは何のブランドですか?どこで買えますか?」
また、Lens はリアルタイムのビデオ キャプチャ上で動作し始め、静止画像内のオブジェクトの識別を超えてツールを一歩前進させます。壊れたレコード プレーヤーがある場合、または自宅の故障した家電製品のライトが点滅している場合は、Lens で簡単なビデオを撮影し、生成 AI の概要を通じて、そのアイテムを修復する方法のヒントを確認できます。
I/Oで初めて発表されたこの機能は実験的なものとみなされ、Googleの検索ラボにオプトインしたユーザーのみが利用できると、18年間Google社員でありLensの共同創設者であるRajan Patel氏は述べている。 Google レンズの他の機能である音声モードと拡張ショッピングは、より広範囲に展開されています。
Google が「ビデオ理解」機能と呼んでいるこの機能は、いくつかの理由で興味深いものです。現在はリアルタイムでキャプチャされたビデオで動作しますが、Google がキャプチャされたビデオに拡張した場合、個人のカメラロールにあるか、Google のような巨大なデータベースにあるかに関係なく、ビデオのリポジトリ全体がタグ付け可能になり、圧倒的にショッピング可能になる可能性があります。
2 番目の考慮事項は、このレンズの機能です。 Google の Project Astra といくつかの特徴を共有しています、今年後半に利用可能になる予定です。 Astra は、Lens と同様に、マルチモーダル入力を使用して、携帯電話を通じて周囲の世界を解釈します。この春、Astra のデモの一環として、同社はスマート グラスのプロトタイプを披露しました。
別途、 Meta はその長期ビジョンで話題を呼びました 私たちの拡張現実の未来のために、 つまらない眼鏡をかけた定命の者たち 周囲の世界をスマートに解釈し、ホログラフィック インターフェイスを表示できます。もちろん、Google はすでにこの未来を実現しようとしています。 グーグルグラス (これは、Meta の最新ピッチとは根本的に異なるテクノロジーを使用しています)。 Lens の新機能と Astra の組み合わせは、新しい種類のスマート グラスへの自然な流れとなるでしょうか?
#Google #のビジュアル検索はさらに複雑な質問に答えられるようになりました
