
みなさん、こんにちは! タカハシ(@ntakahashi0505)です。
先日開催された「Google I/O 2025」で発表されたAI関連ニュースを、非エンジニアの方にもわかりやすくお届けします!
AIが私たちの仕事や日常をどう変えていくのか…注目のポイントを一緒に見ていきましょう。
ということで、今回は「非エンジニアでもわかる!「Google I/O 2025」の怒涛の注目AIニュース総まとめ」です。
では、行ってみましょう!
「Google I/O 2025」はAI一色でした!
先日、Googleが年次開発者会議「Google I/O 2025」を開催しましたね。いやはや、今年もAI、AI、AI!まさにAI一色といった感じで、たくさんの発表がありました。
「開発者会議でしょ?なんだか難しそう…」なんて思ったそこのあなた!大丈夫です。
僕たち非IT系のビジネスパーソンにとっても、ワクワクするニュースがたくさんありました。
今回はこのGoogle I/Oで発表されたAI関連の注目ニュースを、僕、タカハシがピックアップして、できるだけ分かりやすく、そして「へぇ〜!」と思っていただけるようにご紹介していきたいと思います。
難しい専門用語はなるべく使わずに解説しますので、コーヒーでも片手にお付き合いいただけると嬉しいです。
Google AIが目指す未来:3つの大きな潮流
今回の発表で、GoogleがAIで何を目指しているのか、その大きな方向性が3つ示されたように感じました。それぞれ詳しく見ていきましょう。
AIがあなたの作業を肩代わりする「AIエージェント」
まず1つ目は、「AIエージェント」です。これは、AIがまるで有能な秘書のように、僕らの代わりに様々なタスクを自律的にこなしてくれる機能のこと。
Googleはエージェント機能が人々のマルチタスクをどのように支援できるかを研究する「Project Mariner(プロジェクト・マリナー)」を進めてきました。
それが順次、GeminiやGoogle検索、Google ChromeなどGoogleのサービスに展開されていきます。
例えば、あなたが友人と2人で住む新しいアパートを探しているとしましょう。今までは、物件サイトをいくつも見て、条件を入力して、良さそうな物件をリストアップして…と、結構手間がかかりましたよね?
でも、このエージェントモードが進化すると、AIに「こういう条件でアパート探しておいて」と頼むだけで、AIが自動で条件に合う物件を探し出し、物件情報にアクセス。さらには、ユーザーに代わって内見の予約まで完了してくれる、というわけです。
このエージェント機能、GoogleのAI「Gemini」には近日中に、まずは米国の「Google AI Ultra」プランの一部のユーザー向けに提供が始まるそうです。
あなただけの万能AIアシスタント「ユニバーサルAIアシスタント」
2つ目の大きな流れは、「ユニバーサルAIアシスタント」の登場です。これは、視覚的・聴覚的に僕らの状況を理解し、サポートしてくれるAIアシスタントのイメージです。
ここは、Googleによる「Project Astra(プロジェクト・アストラ)」で研究が進められてきました。
これが今回、Googleの対話型AI「Gemini Live」に統合されました。
カメラ機能や画面共有機能を使用して、例えば「これ何?」と目の前の物についてAIに質問したり、スマホの画面を見せながら「この操作、どうすればいいの?」とサポートを受けたりできるようになります。
すでにAndroidユーザー向けには提供が始まっていて、今後iOSユーザーにも順次展開される予定です。
AIが「あなた」を深く理解する「パーソナルコンテキスト」
そして3つ目が、「パーソナルコンテキスト」の活用です。これは、AIがユーザー個人の状況や過去の行動を理解することで、より一人ひとりに最適化された提案をしてくれるようになる、というものです。
まず、GmailやGoogleカレンダーといった他のGoogleアプリとAIを接続します。
すると、たとえば検索では、AIがあなたの過去のショッピング履歴やニュースレターの購読状況などに基づいて、よりあなたに関連性の高い情報を提供したり、あなたらしい提案をしてくれたりするようになります。
また、Gmailでは、受信したメールに対して返信文案を作成する際、AIがあなたの過去のメールやファイルを参照して、より具体的で、あなたらしい言葉遣いやトーンの返信案を考えてくれるようになります。
さらに進化するGoogle AI:新サービスとモデルアップデート情報
さて、ここからは、さらに具体的な新サービスやAIモデルのアップデート情報について見ていきましょう。こちらも興味深い発表が目白押しでしたよ!
高額な新サブスクリプションプラン「Google AI Ultra」登場
まず、GoogleのAIサービスに関する新しいサブスクリプションプランが発表されました。その名も「Google AI Ultra」。
月額249.99ドル(日本での価格は3万6400円)と、なかなかのお値段です。
その分、AIの使用上限も高く設定されており、なんとクラウドストレージ容量も30TBついてくるそうです!
ChatGPTのProに合わせてきた感じですね。
また、これまで「Google One AIプレミアム」プランとして提供されてきたAIに特化したサブスクリプションプランは、「Google AI Pro」という名称に改称されるとのこと。
AIモデル「Gemini 2.5」がさらに賢く! 新機能も続々
Googleの主力AIモデルである「Gemini 2.5」もさらに進化しました。
特に「Gemini 2.5 Pro」は、今回のアップデートでこれまで以上に優れたパフォーマンスを発揮するようになったそうです。
コーディング能力を測るベンチマークテスト「WebDev Arena」や、人間の好みにどれだけ合致するかを評価する「LMArena」で、首位を獲得しています。
さらに、応答前にAIモデルが複数の仮説を検討できるようにする高度な推論モード「Deep Think(ディープシンク)」のテストも開始されたそうです。
そして、軽量版でありながら高性能な「Gemini 2.5 Flash」が、Geminiの標準モデルとして位置づけられることになりました。
画像生成AI「Imagen 4」でクリエイティブが加速する!
続いては、画像生成AIの進化です。Googleは新しい画像生成モデル「Imagen 4(イマジェンフォー)」を発表しました。
さまざまなアスペクト比で、最大2Kという高解像度の画像を生成できるんです。Webサイト用の画像はもちろん、印刷物やプレゼンテーション資料に使う画像としても十分耐えうるクオリティとのこと。
このImagen 4は、対話型AIの「Gemini」でも利用できるようになるほか、Google Workspaceの「スライド」や、新しく発表された動画作成ツール「Vids」、そして「ドキュメント」といったアプリにも組み込まれます。
Geminiで試してみたところ、生成された画像に対して「もうちょっとこうしてほしい」といった追加の修正指示も可能でした。
ちなみに、文字入りのポスターなども生成できるとのことですが、僕が試した限りでは、まだ日本語の文字生成はあまり得意ではないかな?という印象でした。
世界初!音声付き動画生成モデル「Veo 3」の実力
次に、動画生成AIです。Googleは、最新の動画生成モデル「Veo 3(ベオスリー)」を発表しました。
このVeo 3、なんと効果音や背景音、さらにはキャラクター間の対話までもネイティブにサポートする、世界初の動画生成モデルなんだそうです。
最長で8秒間の動画を、音声付きで作成できるとのこと。
この「Veo 3」は、まずは試験運用版として、先ほどご紹介した「Google AI Ultra」サブスクリプションの加入者向けに優先的に提供されるとのこと。
Gemini、Google検索、Chrome、Meetの注目アップデート!
さて、お次は僕たちが日常的によく利用しているGoogleのサービスが、AIによってどのように進化するのかを見ていきましょう。
「Canvas」でWebコンテンツ制作がもっと手軽に
Gemini上でAIとの対話を通じて、文章やコードなどを生成、編集できる「Canvas」も機能が強化されました。
これまでは文章とコード生成がメインでしたが、なんとWebページやインフォグラフィック、さらにはクイズといったインタラクティブなコンテンツまで作れるようになりました。
プレビュー画面を見ながら、AIに「ここの色を変えて」「このテキストを修正して」といった指示を出すことで、ブラッシュアップしていくことができます。
しかも、作成されたコンテンツはHTMLとCSSというWeb標準の技術で作られるので、完成したファイルをサーバーにアップロードすれば、すぐにWebサイトとして公開できます。
さらに、Googleのメモアプリ「NotebookLM」で人気の機能である「音声概要(Audio Overviews)」も、このCanvasで作成できるようになりました。
Deep Researchで調査、分析した情報もCanvasに展開できるそうなので、リサーチからコンテンツ作成までの流れが、よりシームレスになりそうです。
Google検索がAIで超進化!「AI Mode」「Deep Search」とは?
次に、私たちの情報収集に欠かせない「Google検索」です。
新たに「AI Mode」という機能がロールアウトされ、これまでの検索よりも2〜3倍長い、より複雑な質問や、会話のようなフォローアップの質問にも対応できるようになりました。
「こういう条件で、あんなことも考慮して、こんな情報をまとめて教えて!」といった、ちょっと無茶なお願いにも応えてくれるようになるかもしれません。
そして、衝撃なのが、バーチャルに洋服を試着できるショッピング機能「Try It On」です。検索結果に表示された衣服の画像を選択して、自分の全身写真を1枚アップロードすると、AIがその写真に衣服の画像を自然に重ねて表示してくれます。まさにバーチャル試着。
デモでは、試着して気に入った衣服について「track price」(価格追跡)を設定したり、さらにはAIエージェントがショッピングサイトで商品をカートに追加し、Google Payで決済まで完了するという未来的なシーンも紹介されていました。
オンラインショッピングの体験が、根本から変わりそうです。
さらに、「Deep Search(ディープサーチ)」という機能も発表されました。
これは、ユーザーが入力した複雑な質問をAIが分解し、その質問の意図を深く理解した上で、何十、何百もの検索をユーザーに代わって実行。そして、膨大な情報の中から必要な情報を抽出し、推論を交えたレポートを数分で作成してくれるというものです。
Deep Researchとは別の機能とのことですが、どのような体験になるのか楽しみです。
「Gemini in Chrome」でブラウジング体験が一変!
Webブラウザの「Google Chrome」にも、AI「Gemini」が搭載されます。その名も「Gemini in Chrome」。
これにより、Chromeが閲覧しているWebページの内容を自動的に理解し、そのページの要約を作成したり、複雑な情報を分かりやすく解説してくれたり、複数の製品レビューを比較してくれたりするようになります。
将来的には、複数のタブを横断して情報を整理したり、Webサイト内を自動でナビゲートして目的の情報を見つけ出してくれたりといった機能も計画されているとのこと。
まさに、AIエージェントですね。
この「Gemini in Chrome」は、まずは米国の英語環境でChromeを使用している「Google AI Pro」および「Google AI Ultra」の加入者向けに、デスクトップ版で提供が開始されるそうです。日本での展開も待ち遠しいですね。
言葉の壁を越える!Google Meetに驚きの音声翻訳機能
そして最後に、オンライン会議ツール「Google Meet」にも、驚きのAI機能が搭載されます。それが、ほぼリアルタイムでの音声翻訳機能です!
話している人の声のトーンや抑揚、さらには表情までを認識し、それを翻訳後の音声にも反映させることで、言語の壁を越えて、より自然で流暢なコミュニケーションを可能にします。
英語とスペイン語によるデモ映像を観たのですが、本当にほぼリアルタイムで翻訳されていました。
多少の慣れは必要な気もしますが、これが本格的に実用化されれば、国際的な会議や異文化間のコミュニケーションが、これまでとは比較にならないほどスムーズになるはず。
Google Workspaceのビジネスユーザー向けには、2025年中に早期テストとして提供が予定されているとのこと。
まとめ:AIが日常に溶け込む未来は、もうすぐそこに
さて、ここまでGoogle I/O 2025で発表された注目のAIニュースを駆け足でご紹介してきましたが、いかがでしたでしょうか?
スマートグラスや3D会議など、これら以外にも注目の発表がたくさんありました。
やはり注目は、Googleが、Google検索の体験を自ら積極的に変えていこうという姿勢です。
リスティング広告の表示は減ってしまう一方で、AIエージェントが商品を探し、購入してくる未来がやってくる。新しい働き方、新しい日常がもう目の前にあると感じます。
今回の情報が、皆さんがAIについて考えるきっかけや、未来をイメージするヒントになれば嬉しいです。
以上、「非エンジニアでもわかる!「Google I/O 2025」の怒涛の注目AIニュース総まとめ」についてお伝えしました。
引き続き、みなさんがいきいきと学び・働くためのヒントをお届けしていきます。次回をお楽しみに!
この話を耳から聴きたい方はこちらからどうぞ!