Google I/O 2025 AI関連発表まとめ
2025年5月〜 米国サンフランシスコで開催
次世代AIモデル Gemini 2.5
技術進化とマルチモーダル化
Gemini 2.5 ProはGoogle史上最も高度なモデルで、従来モデルを凌駕する推論能力とマルチモーダル機能を備えています。
新機能:
- 感情対話: ユーザーの声の感情を検知して適切に反応
- プロアクティブオーディオ: 周囲の雑談を無視して必要時のみ応答
- 内省機能: 複雑なタスク解決のため対話中に「思考」
- 複数話者TTS: 複数話者の音声を同時生成(世界初)
Deep Thinkモード
極めて高度な推論を要する場面向けの新機能。モデルが回答前に複数の仮説を並行検討する先進的な推論モードです。
数学やプログラミングなど複雑な問題で威力を発揮。Vertex AI上で信頼できるテスターに限定提供されます。
安全性と透明性の強化
間接的なプロンプトインジェクション攻撃に対する耐性が飛躍的に向上。企業利用に耐える堅牢性を実現しました。
思考サマリー (Thought Summaries)機能が追加され、AIが何を検討しどのように結論に至ったかを可視化できます。
Geminiの商用利用と応用
Gemini 2.5 Flash
軽量で応答の速いモデルで、I/O当日よりGeminiアプリやGoogleの各種サービスでデフォルトモデルとして採用。
前世代モデル比で20~30%効率化しつつ、長文コンテキストやコード、マルチモーダル性能も向上。
Gemini 2.5 Pro
より大規模なモデルで、高度な推論力が要求される用途向け。Google Cloudの「Vertex AI」上でエンタープライズ向けに提供開始。
検索のAIモード
AI概要 (AI Overviews)
検索結果上部に質問に対する包括的なAI生成の回答が表示されます。関連ウェブ情報へのリンク付きで提供。
Gemini 2.5モデルを検索AIに直接統合することで、より高度な推論能力でユーザーの難しい質問にも答えられるようになります。
プロジェクト「Astra」: ライブ機能
検索UIに新設された「ライブ」ボタンをタップしカメラを向けて質問すると、AIがカメラ映像をリアルタイムに解析して回答してくれます。
例:工作中に部品にカメラをかざして「これについて教えて」と尋ねると、その物体を見て理解した上で解説
これは視覚と対話を組み合わせたマルチモーダル検索の先駆けで、月間15億人が利用するGoogleレンズの延長として提供されます。
エージェント機能(プロジェクト「Mariner」)
ユーザーの指示に基づき、AIが自動で複数サイトを検索・分析し、フォーム入力などの操作も代行してくれます。
AIショッピングパートナー
膨大な商品データベース(Shopping Graph)とGeminiモデルを組み合わせて、ユーザーの購買検討を包括支援します。
特に注目なのがバーチャル試着機能。ユーザーが全身写真を1枚アップロードするだけで、何十億ものアパレル商品を自分の体に着せたイメージを確認できます!
Google Workspace
Gmail: パーソナライズド スマート返信
文脈を理解しユーザーの文体に合わせて返信文を提案します。過去のメールやドライブ内資料を参照しながら、長いメールスレッドの内容を要約したり具体的な詳細を織り込んだ返信文を自動生成。
年内に一般提供予定です。
Gmail: 受信トレイお片付け
大量の未読メールを一括整理する機能。例えば「去年のThe Groomed Pawからの未読メールを全部削除して」といった指示を与えると、Geminiが該当メールを自動検索してワンクリックで削除・アーカイブ。
Google Meet: 音声翻訳
ビデオ会議中に話者の音声をリアルタイムで相手の希望言語に翻訳し、しかも声のトーンや話し方を保ったまま相手に届けることができます。
例:英語話者の孫とスペイン語話者の祖父母がMeetで会話する場合、お互い自分の言語で話しながら相手には翻訳音声が流れる
まずは英