今回のニュース内容は「「Search Live」登場、AIと音声で自然な会話が可能に。「Search Live(サーチ・ライブ)」の最新情報と、内容を詳しくご紹介します。」
出典:「Google検索に新機能「Search Live」登場、AIと音声で自然な会話が可能に」
【7月16日(水)開催】デジタルメディアの収益化とテクノロジー投資を考える ~TVer CTO登壇セミナー開催~
ツイートシェア送るpinterestでシェアするこのエントリーをはてなブックマークに追加
Google検索に新機能「Search Live」登場、AIと音声で自然な会話が可能に
Googleは2025年6月18日、AndroidとiOS向けのGoogleアプリに新機能「Search Live」を米国で提供開始したことを発表しました。この機能は、AI Modeの実験に参加しているユーザーが利用でき、音声による自然な対話形式で検索を行うことができます。Search Liveは、ユーザーが移動中やマルチタスク中でも簡単に検索できるよう設計されています。例えば、旅行の荷造りをしながら「リネンのドレスがスーツケースでしわにならないようにするコツは?」と質問すると、AI生成の音声回答が得られます。さらに「それでもしわになった場合はどうすればいい?」といった追加質問も自然に行えます。
ニュースサイトで見る:https://media-innovation.jp/article/2025/06/22/142575.html
🗣️ Search Liveとは?
- Googleが2025年6月中旬より、米国のAIモード実験ユーザー向けにGoogleアプリ(iOS/Android)で提供を開始した新機能です。Gemini AIを活用し、ボイスチャット形式で自然な対話検索が可能になります 。
- 検索バー下に「Live」アイコンをタップすると、話しかけるだけでAIの音声回答が得られ、複数ターンに渡る会話(バック&フォーストーク)が可能です 。
- 音声対話はバックグラウンドでも継続され、アプリ移動や他の作業中でも会話が続けられます 。
🔍 主な機能と注目ポイント
1. 自然な対話と追従性
- 「どうしたらリネンドレスのシワを防ぐ?」などの質問に対して、後続質問もそのまま自然に返答でき、会話の文脈を継続保持します 。
- 「クエリ・ファンアウト」という仕組みで、関連する複数クエリを内部で同時処理し、幅広い情報源から回答を統合します 。
2. 音声+画面表示のハイブリッド
- 音声による回答のほか、画面にはリンク一覧や検索結果が表示され、「もっと知りたい場合」でも視覚的に探せます 。
- 通話風のUIで波形パターンが表示され、トランスクリプト機能により会話内容を文字でも確認・入力継続できます 。
3. 利便性と持続性
- バックグラウンド動作により、料理・歩きながら・運転中などの状況でも検索が継続可能です 。
- 対話履歴はAIモードの履歴に保存され、後から再開・確認が可能です 。
4. 今後の展開予定
- **カメラ共有機能(Visual Search対応)**が近日中に統合予定。カメラ越しに見える物をAIに尋ねられるようになります 。
- 米国以外の展開は未定ですが、他国や新機能対応への範囲拡大も示唆されています 。
💡 深掘りポイント
A. クエリ・ファンアウト手法
- ユーザーの質問と関連情報を同時に多数検索して、多面的に回答を構築します。回答内容が“箱に閉じない”多様性があるのはこの仕組みのおかげです 。
B. アクセシビリティ面の一石:
- 視覚や操作が難しい人にとって、音声で質問し、音声で回答が得られるのは大きな利点。「目でも耳でも」使える検索体験は障がい者や高齢者に有益です 。
C. パブリッシャーへの影響懸念
- 『AIで完結する検索体験』が主流になると、ウェブページへの直接クリックが減り、サイト運営者の訪問減少や広告収益減につながる可能性も指摘されています 。
✅ 試すにはどうする?
場所:現時点では 米国ユーザー限定
対象:Googleアプリ(Android/iOS)、AIモードをLabsで有効化
操作:検索バー下の「Live」アイコン → 話しかけるだけ!
使える機能:バックグラウンド動作、トランスクリプト、リンク表示、履歴保存など
🧭 総まとめ
- Search Liveは、従来の検索から“対話型AI”への大きな進化。
- 今後はカメラ連携も加わり、検索は「話す」「聞く」「見る」のマルチモーダル体験へシフト。
- 一方で、ユーザーにとって便利な反面、コンテンツ提供者にはトラフィック減少のリスクも。
今後の展開や、日本などの他地域での利用可能性も含めて注目です。