Google I/O 2025徹底解説¶
- URL: https://www.youtube.com/watch?v=AkuHg_1cnps
- 文字起こし日: 2026-02-24 02:55
内容概要¶
- Google I/O 2025について、アルゴマティックCEOの大野峻典氏をゲストに招き、徹底解説を行う。
- Google I/Oは、Googleのテクノロジーに関する最新のアップデートを発表する会議で、元々は開発者向けだが、今回は消費者向けの内容も多く、話題になった。
- Google I/O 2025のハイライトは、以下の5つのキーワードに集約される。 モデル、マルチモーダル、パーソナライズ、エージェント、XR
- 最高性能モデルの Gemini 2.5 Proが進化し、すべてのカテゴリでナンバーワンを獲得。コストも安く、性能も高い、うまい・安い・早いモデルとなった。
- 動画にリアルな音をつけられる Veo が発表。人の声もリアルで、喋ってる感じも自然。
- Google Meetで、話者の言語や話し方、声色に合わせて、リアルタイムで吹き替えが可能に。
- パーソナルコンテキスト(個人の背景情報)を持つことで、あなた専用のAIを作成可能になる。
- AIエージェントにより、検索から行動へ。ゴールを与えると、自律的に必要なツールを使いながら、ゴール達成まで導いてくれる。
- Android XR搭載のスマートグラスやデバイスにより、デジタルからリアルへの拡張を実現。
文字起こし¶
皆さんこんにちは。ピボットの佐々木です。今回のピボットトークは、Google IO 2025徹底解説ということでお話を伺います。ゲストにお迎えしましたのは、アルゴマティックCEOの大野俊典さんです。よろしくお願いします。 よろしくお願いします。 はい、大野さんには、もう以前からOpenAIを中心に色々解説してもらってますけれども。 今回のGoogle I/O、私も見ましたけど、なんかプロの人との間でも衝撃がすごいと。 そうですね。 天こ盛りだと。はい。もう量がこれまでの何倍あったんだって言うぐらい。 はい。 後でちょっと図もみせるんですけど はい。 全部話す 話しきれないぐらい。 で、メインのキーノートだけでも2時間あってみたいな、ま、そんな くらいなので 天こ盛りだし、サプライズも多いしみたいな、そんな回でした。 はい。 ちょっとこれ全部見るの大変なんで、エッセンスはどこなのかと、そしてどういうふうにビジネスを変えていくのかってとこもふくめて 今日はぜひお話を伺いたいと思います。 徹底解説ぜひお願いします。 はい。よろしくお願いします。 よろしくお願いします。 じゃあ、早速色々お話ししていければと思うんですけど、一応今回お話しすること3つお話できればなと思ってまして、まGoogle IOのハイライト、まこれがメインですね。どういう発表があったのか。 うん。 で、あとちょうどOpenAIによるIOという会社の買収が発表されたので、まそこに関してと で、その2つを踏まえて2025年、今後 AI業界のトレンドがどうなっていくのかというのを5つのポイントでお話できればと思ってます。 で、まずGoogle IO 2025なんですけど Google IOってみなさん、多分ご存知ですかね? いや、あんまり聞かないですよね。 うん。 あんまり聞かないか。 ちょうど実は1年前ぐらいもピボットでGoogle I/Oの解説をさせていただいたんですが、まGoogleのテクノロジーに関する最新のアップデートを、一応建て付け上は開発者用の会議みたいなことをしてます。 けど、ま今回のやつとかは、もう結構消費者向けに新しい、あの技術を発表するような回に、実質的になってたなって感じですね。 今日、今回も大きい会場でやってたじゃないですか。スタジアムみたいな。あそこにきてる方っていうのはデベロッパーの方が大半なんですか? はい。 えっと、これまではそんな印象もあったんですが、今回は特に、ま、これまでもそうですけど、ま、メディアの方とか、どっちかと言うとこう情報発信されてる方も多いイメージはありますね。 ほう。 あ、そう言う感じなんですね。 で、一応去年までは割とテクノロジっぽい話が多かったんですけど、今回はかなりアプリケーション、実用っぽい話が多かったですと。ま、故に話題にもなってました。 うん。 はい。 ま、一言で言うと ま、Google 自身も言ってるんですけど、ま研究が現実にと、いう言葉でまとめられてました。 で、まこの言葉の通りなんですけど、これまでも研究的には理論上できると 言われてたことが ちゃんと使える アプリケーションになりましたというのが、今回の回になってます。 で、去年だと研究でこれができます。いつか出しますって言ってたのが今年はもうできるし、リリース本日からですみたいなものがたくさん出てたとなんかそんな回でした。 うん。 で、あとは ま、これあとで話しますけど Googleが自分自身で、こうググるという体験を消しにきてると言うか ディスラプトしにきてるかも知れないみたいなのも結構印象的な発表だったかなと思ってます。 うん。 すいません、これ あ、出ましたね、生成あの ね、後で聞きますけど、結局消費者どうなるのかってね、話もふくめてね。 はい。 ちょうど1年前のGoogle I/Oの時にOpenAIとGoogleのリリースについて、こうなっていきそうみたいな話をしたんですけど、まあほんとその時に見てた、ま今後こういう流れになっていくだろうというのをしっかりこうGoogleは着実に積んできたというような印象でした。 はい。 で、早速すいません。前置きが長くなりましたけど 何が発表されたかなんですけど、まこれ発表されたリストですって出てた。 これこんなにされたんだ。 はい。もので ああ ま、めちゃくちゃたくさんありますよね。 はい。 で、これ全て話すと結構大変なので、実際の物全てを見たい方はぜひちょっとキーノート2時間あるんですけど、かなり普通の消費者の方むけに、面白く話されてるものもあるので 見ていただければなと思いますが、ま今回は要点を話していければと思っています。はい。ハイライト 5つのキーワードにちょっとまとめてみました。 モデル、マルチモーダル、パーソナライズ、エージェント、XRとおそらく聞き馴染みがありそうなモデルとかマルチモーダルってのあるんですけど、皆さんにとって新しそうなXRとかパーソナライズとか、まそういうキーワードも今回かなり印象的だったので、その辺もお話ししていければと 思ってます。 まずモデルなんですけど、新しく最高性能モデルの Gemini 2.5 Pro が、ま進化しましたよという話です。 で、これはもう凄く分かりやすいんですけど、LLMも競わせると言うか、あの評価するためのベンチマーク試験みたいながあるんですけど、まその試験において 全てのカテゴリーでナンバーワンをとれましたというモデルが今回のGemini 2.5 Proのアップデートになってます。これ見ると チャットボットアリーナというベンチマークテストのスクリーンショットなんですけど、ま総合評価で1位ですと。で、他も見ると例えばコーディングも1位だし、数学も1位だしとか、あらゆる、こう用意されてるカテゴリーにおいて、ま Gemini 2.5 Proの最新モデルが一番いいと評価されてますというものです。とで、これだけでもすごいんですけど これ、実は2番目、オーバーオールスコアで2位になってるものも Geminiの最新モデルでして、これGemini 2.5 フラッシュと言われる、ま軽量で安価なバージョンですね。廉価版。 Geminiの廉価版モデルなんですけど、ま、それでも 2位になってる。 うん。 で、一応3位が、3位と言うか、ま、これだと同率2位なんですけど、OpenAIのO3っていう、OpenAIで言う、ま、と言うか、AI業界で言うフラグシップモデルですね。ま、それが あの Geminiだと廉価版とほぼ同等のレベルになったっていうのも結構驚きなポイントだったりします。 もう完全にChatGPT抜いたと言える訳ですね。 まあベンチマークの結果で言うとそう言えますね。で、この後も話しますけどコストも安くなってるんですよ。 うん。 で、今回 精度すごいのもすごいんですけど あの、うまい安い早い が実現できてのすごくって。 おお吉野家みたいになってきたんですね。 うん。 そうなんですよ。 まさにこうコモディティ化と言うか、ある種悪い方すると陳腐化してきた 少なくビッグテックの中ではって感じでもあるんですけど このグラフは、あの右に行けば行くほどコストが安くて、で上に行けば行くほどパフォーマンスが高い。ま、知能が高いみたいなイメージですね。で、Geminiの最新モデル達って同じようなパフォーマンスだったら一番安いし、同じような安さだったら一番賢いんですね。 うん。 って感じで、安さ訴求でも賢さ訴求でもどっちでもナンバーワンを取れてしまっているというのも、大きいポイントだったりします。で、より具体的に言うと、今のOpenAIのフラグシップなモデルのAPI だと、かかるコストの今回Googleが出してる、まFlash最新のモデルだと、1/30ぐらいの価格になるんですね。で、一応ベンチマークを信じるとほぼ同等の精度、まこれO3と比べてますけど、4OのモデルとAPIのコストを比較すると、1/30ぐらいになってるので、ま、それも とてつもなく大きい進化だったりしますと。 で、あと他の会社OpenAIとか、ま、他のAI系の会社って最新モデルを無料で公開はあんましないんですよ。なんですがGoogleはこれをさらに無料でも公開している。普通の人が無料で使える。もちろんちょっと利用量の制限はあるんですけど。というポイントも とても強いと言うか 確かだね。 王者的なとにかく安く最高のモデルを出しますよというのができましたというのがポイントになる。 お金がふんだんにやって短期的に稼ぐ必要無かったり、既に法人の客が多いんでそこにアップグレードで入れれば良いだけなんで、相当有利ですよね。 はい。 そうですね。まビジネス的に顧客を持ってるってのもありますし、まあとポイントになるのはGoogleはインフラを持ってるんですよね、自社で。 うん。 で、一応その他のOpenAIとか別の会社って自社では持ってないので当然持ってる方が原価は安くなりますよね 自社で捌けるので。ま、と言うのも1個のポイントと言うか、ま、他のプレイヤーからするとそういう攻め方をされると、ま、理論上勝ち目がないと言うか、ま、不利な戦いになるだろうなって感じはしますね。 というのがモデルのハイライトでした。モデルもちょっとほんとは色々あるんで、もうより細かい事みたい方は見て欲しいなと思いますが、次にあの マルチモーダルという話をできればなと思ってます。 で、まテキストだけじゃないですよと言う話ですね。まずマルチモーダルってそもそも何かと言うと、あのマルチは複数って意味ですよね。で、モーダルがデータ形式って意味で、複数のデータ形式扱えますよって言うのがマルチモーダルですと。で、今回で言うとテキストだけじゃなくて画像 動画、音声とかあの、そういう複数のデータ形式を扱えるというのがマルチモーダルと言う話なんですけど 1個目が、ま、これシンプルなんですけど、ま、あの新しい画像生成のモデルでより高解像度に文字もクリアになりましたと言うのがありますと。 で、ま高解像度 ま、これちょっと言われてもあんまり触ってない人だと最早よく分かんないかもしれないです。元々も綺麗に映ってたかもしれないよね。なんですけど よりリアルと区別も付きづらいし、ま、あとこういうなんか道からクジラが飛び出してたりとか。ま結局画像生成の良さって元々表現不可能だったものを 表現できるようになるみたいのもすごいので、まそういうありえないような情景でもものすごくリアリティ高く表現できるようになりましたって言うのが画像生成の進化。でもう1つが文字もクリアに表現できますよというものです。 これも知らない人からすると、何のこっちゃって話だと思うんですけど、実は文字生成って結構難しかったんですね。文字生成とか画像の中での文字の表現。で、画像生成ってルールが厳密に決まってるものを生成するの結構難しいんですよ。 うん。 例えば昔は手を生成しをうとすると 指が六本になったりとかしたんですね。 ああ。 で、もそういうのって、僕ら人間がありえないじゃないですか。で、文字もそうですよね。厳密にルール決まってる訳じゃないですか文字の形も。そういう物って生成が難しい。で、一方で例えば木を生成すると簡単なんすよ。 木なんてちょっと違っても正解ないんで。ま、なのでそういう正解が厳密に決まってる物って難しかったんですけど、まそのうちの1個として文字がありました。で、文字が生成できないと困ることがたくさんあった訳ですと。ポスターも作れない。バナーも作れない。漫画も生成できないですよね。 うん。 ま、なのでそこが1個の壁と言うか重要なポイントだったんですけど、それもかなりクリアに生成できるようになったというのが 1つのポイントで、まこれによっていろんな製作の現場で今まで使えなかったようなユースケースで使えるようになっていくと言われてますと。と言うのがまず画像生成。 で、次が Veoという うん。 Googleの あら凄いですね。 動画生成モデルなんですけど、まこれが一番話題になってたかもしれないですね。で、これ何かと言うと 動画にリアルな音をつけられるようになったと言う話です。まあ100聞は一見にしかずなので、ちょっとデモを見ましょうか。 They left behind a ball today. ま、こんな感じでですね、あの声も自然ですよね。で、喋ってる時に、まリップシンクって言われる口も動きますよね。 で、あと 羽ばたく音とか歩く時にこう 枯葉を踏む音みたいな、自然をもう自然についてますよね。で、これが今までの動画生成だと、ここまでの精度でできてなかったんですけど 音までリアルに出せるようになりましたというのが1個ですね。で、もう1個分かりやすいものがあるんで あの、このデモも見ていただけるとです。あ、ま、アニメーションでしたけど もっとリアリ、リアル、リアリティがある動画でももちろん可能で みたいに感じで人の声もリアルだし、喋ってる感じも、ま人って僕らって違和感に気付きやすいんですけど、気付かないレベルですね。で、波の音がってみたいな。まこういうリアルな映像だけじゃなくて音と組み合わせれることができることによって初めて色んな作品を作れるようになっていきますよね。ま、なので、あのそれができるようになりましたというのがVeo 3の大きな進化です。 これを使えば例えば私のAIがほんと自然に話してるみたいな物もついに出来るって事ですか? はい、できますね。 ああそうすか。 ま、佐々木さんのAIを作ることを考えると 発音とかイントネーションとかが佐々木さんぽいかどうかとかは結構クリティカルになるだろうなって気がしますね。みんな聞き慣れた声、聞き慣れた人ではあるんで。 そうですね。 そこはまだちょっと違和感はあるんですか? ま、ちょっと試して見なきゃ分かんないとこですけど、まよく知ってる人であればあるほど違和感は感じやすいと思いますね。 うーん。 例えば僕らって今これ見てますけど、まこのおじさんのこと知らないし。ま知らない人、先生されてる人ですけど。あと言語が違うので あんまり違和感に気付きづらいんですけど、ま日本語で知ってる人だと、ま少し違和感は感じるかも知れないですけど ああ まあまあ 時間の問題かも知れないですね。 ああ、それも違和感なくなると人IP化出来るようになるんですね、ほんとの意味で。 そうですね。佐々木さんがその場にいなくても色んなとこで使えるようになるし、IPとして権威を受けますみたいな話に、そういうビジネスになるかもしれないですね。 うん。 ああ面白い。 はい。 で、ユースケースは変わるんですけど、あのマルチモーダルであると言う点においては共通してるものもお見せできればと思うんですけど Google Meetで 話者の言語とか話し方に合わせて、で声色とかに合わせてリアルタイムで吹き替えができますよと言うものです。はい。 It's nice to finally talk to you.まみたいな感じで、ま Google Meet上で で、でもですけど ま、英語と別の言語でスイッチしながら吹き替えができますよと。で、この会話的には、ま旅行の旅行先の人と会話してるような感じでしたけど、まそんなようなことも出来るようになりますと。 これも凄まじいですよね。 これねまず英語とスペイン語から始まって、ま私もスペイン語分かんないんで、良くどれぐらい精度か分かんないですけど、これ英語と日本語見てみたいすね。聞いてみたいすね。どんなぐらい行くんだろう? はい。 聴いてみたいですね。 一応まだ日本ではリリースされてないので、僕らもまだ試せない状況であるんですけど どれぐらい行けるかですよね。うーん。 で、結構吹き替えの難しさって、もちろん声色とかもあるんですけど、速さが難しいんですよ。遅くなると微妙じゃないですか。 うーん。 はい。 なんか僕、結構旅行とか行った時に色んな吹き替えアプリ試すんですけど 一番のネック、やっぱ速さ。うん。で、それが例えばバス停どこですか?とか良いんですけど、仲良くなろうと思ったら会話にならないすもんね。 待ってる間って気まずいんですよね。そうなんですよ。気まずくて、なかなかこうリアルな会話っぽい体験になんないんですけど、このデモで、僕がすごいなと思ったのは速いっすよね。 うーん。 で、ま、それも根底にあるのはさっきモデルの所で御見せした、ま速さもめちゃくちゃ早くなって軽量化してるって言うか早くなってるので、まそれによって初めておそらくできるようになったことなのかなと思ってます。 これがGoogle Meetに普通に入ってるんですもんね。 はい。 ね。 入ってきますね。 はい。 最近もうどんなアプリケーション出てきてて、僕も最近Google Meetに入ってる、あのGeminiの機能、文字起こしと言うか、あの会議の議事録をとってくれる機能とかよく使ってるんですけど、めちゃくちゃ便利ですね。 うん。 もう ま、それMeetに入っててくれるから楽なんすよね。新しいものも入れなくて良いし、で色んな背景情報も今後Googleなので知った上で会議の議事録も取ってくれる訳じゃないですか。この会社が何の会社かとか、どんな専門用語が使われてるか分かった上で議事録も撮ってくれるんで まあ、これがMeetにも乗ってますし、確かアメリカでは既に先行リリースされてるはずですね。 にも入ってますね。 で人もZoomって要らないんですか? 僕一切使ってないですね。 ああ、人のZoom終わり。 僕、Zoomはかなり厳しいんじゃないかなと思いますね。どういう付加価値を足すんだろうってとこっすよね。 うーん。 ま多分MicrosoftのTeams使ってらっしゃる方はTeams、お話されますし まあGoogle系を使ってる会社はGoogle Meet使われてますし 確かにZoom使う意味無くなってきますね。 やっぱ難しくなりますよね。最初は1個で体験が良くて突き抜けても結局こう、ま Googleと、まあとMicrosoftとみたいな、全ての面を押さえてるプレイヤーにどう勝つか?ってとこすよね。 うん。 ああ。 今 Zoomと私Meet併用してんですけど、統一した方が良いって言うか、データとか貯めていく事考えると1つにした方が良いですよね。 あ、そうなんすね。 まあ僕は絶対1つの方が良いと思いますね。まお客様とかあの先方がZoom使いたい場合のみ一応 Zoomも使うって言う感じですね。 チームスはセキュリティをちゃんと使ってるとこも多いじゃないですか。 そうですね。 そうするとやっぱZoom使う 確か無いすね。無いと思っちゃいますけどね。 ああ、この発表のあとZoomとか、まずっと株価落ちてるか? Zoomはでも、はい、そうですね。多分コロナ禍以降で からずっと下がり続けているみたいですね。 そっか。 あと体感ベースでもやっぱりMeet使う人の数がかなり増えてるなって感じはしますね。 いやほんとエコー生成が激しい、はい、そうです。 そうですね。 で、これもですね、マルチモーダルに音と映像を扱える事によるアプリケーションの例なんですけど、Gemini Liveと言うものが紹介されてました。カメラで映ったものを見ながらリアルタイムでAIアシスタントが会話してくれるよと言うものです。ま、これもデモ結構面白いんで見ると分かるんですけど。 ま、これちょっとデモとしてはふざけててと言うか面白くて、まわざと人が言い間違えるんですよ。 うん。 まこのヤシの木なんかすごい小さいけど大丈夫かなって言ったら いやそんなことないですよ、これ大きいですよって言ったり、あの車について言及したら、いやそれ、あのゴミ収集車ですよみたいな。 あの みたいな、あのミスを修正する感じなんですけど、ままあそれはそうなんですけど、あの、ま先程も言及した通り結局早くなってるんですよね。その映像を見ながら且つ音声でインプットを受け取って、これだけ早いレスポンスで 正確な事を返せてるって言うのが、実は凄くこれまでには経験できなかったレベルになってるなって感じですね。 私もこのデモ見たんですけど、このGoogle Liveって何の意味があるんですか? はい。 これがどう言う用途に使われるんですか?なんかそれ良く分かんなかったけどピンと来なかったんすよ。 ああ。 後でちょっと他のGemini Liveを拡張した例みたいながあるんで、いくつかそれお話できればと思うんですけど、ま1つは Googleのって僕らってテキストでググるじゃないですか?一応何か、例えば物見てその物に関しググる時って、あの打ち込んでエンター押す必要ありますよね。 はい。 で、も人に聞く時ってあれ何って聞いた方が早い時あるじゃないですか。 そっか。 みたいな、そもそも見ちゃった方が早い事たくさんありますよね。 ああ。例えば動物園とか言ってこの動物なに?とか、動物属性とか聞く時もその方が良いですよね。 そうですね。 はい。 なので、えっとカメラから得た情報を見てAIと会話できるようにしようが、1個あり、正しいアプローチなのは間違いないすね。ただスマホをこうかざしながら言うのが うん。 変じゃないかって言うのがあるんで 動物園でずっとかざすのか?みたいな話はあるんで、ま、その体験は実はGoogleの中でもおそらく模索されてて、それが後に言う所のXRとかちょっと繋がって来るんですけど うん。 まなので、ま見た方が良いってのは間違いないなって気がしますね。 そっか。映像、ライブ検索ができると言う事ですね。 はい、そうですね。 で、3つ目が、これはちょっとまた別の、全然別のとこから持ってきたデモの例なんですけど、あのバーチャル試着というもので ある種、マルチモーダル的な体験なんですけど、まオンラインで例えば洋服買う時って1番の課題って、ま試着ですよね。 で、試着ってめちゃくちゃ難しいんですよ。体型もみんな違うし あと服の素材によってはどんな感じで折れ曲がるかとか全然違うじゃないですか。なので再現できないと言うか、ま、再現するのはかなり難しい課題だったんですけど、今回のキーノートでバーチャル試着がGoogleの機能として出来るようになりましたと言うのも発表されてました。はい。 これもめちゃくちゃ短いデモの あの映像なんですけど、まああの この左側が お話されてる女性の方で、で右側があのモデルの方がその服を着てる映像ですね。映像と言うか、まあの画像ですね。 うん。 で、この2つを入力にする事で ま、この女性の方が実際に着てる姿を生成出来るようになりましょうと。 一応 これまでも ま、一応着てる風の画像ってのは生成できたんで、制度の問題なんすよ、論点は。なので、ま、ちょっとこれまだ僕も試せてないんで どれぐらいの制度か分かんないですけど、まGoogleがプロダクションレベルで出してるって事はおそらくそれなりに精度が出てるのかなって感じですね。で、仮にこれが出来るようになると、まショッピングにおいては1個大きな体験の変化になりそうですね。 はい。と言うのが2つ目のマルチモーダルでした。 はい。 で、3つ目、パーソナライズですね。 で、今回強調されてた実はキーワードがパーソナルコンテキストみたいな話があって、このパーソナルコンテキストを持つことによって、あなた専用のAIを作れるようになりますと言う話になってます。 で、まずちょっとデモと言うか具体的な例を見てもらえると思うんですけど、 例えば友達が旅行について尋ねてきたと。で、あなたが、あなたが自分自身が元々昔行ったことがある場所だったんで、まそれについて尋ねてきた時にと言う話ですね。はい。 って言う感じで、あのメール返信で何をしてるかって言うと、過去の自分の情報、ま過去のと言うか自分の情報ですね。ドライブに入ってる物 スプレッドシート ドキュメント カレンダー とか、ま、検索してきて結果、もうそうだし、あと文体自体も自動的に抽出して その人が 開始そうな内容を自動で生成しますよと言うものです。で、これって何で本質的に大事かって言うと、すぐシンプルに見えるんですけど AIって 既にめちゃくちゃ頭が良いんですよ。数学オリンピック出れますとか 頭良いのに使えないこと多いじゃないですか?メールの返信これ返信してって言っても、トンチンカンなこと言ったりしますよね。内容が間違ってたりそんな賢くなんないで良いよとか そういう時に それが何で起きるかって言うと、結局個別の背景情報知らな過ぎるんですよね。その人がどんな人かも知らないし、メールの情報だけもらっても良い返し方なんてできないんすよ。人間関係も分かんないし。ま、なので、Googleがこれまでのサービスとかのデータを全て参照できるんだったらそれができますよねと言う話で、まそういう、まパーソナルコンテキストと言うキーワードで今回言われてますけどパーソナルな情報をAIに渡せると言うのが1つ 大きな進化になってます。 すごいよな。もう全て忖度してって言うか分かった上で配慮してくれるわけですよね。 そうですね。こんな気が利く存在ないっすよね。 まあ全くいないですよね。ずっと長く一緒に働いてきた秘書みたいなイメージかも知れないですね。でも秘書以上に自分の事は理論上知っててもおかしくないので うん。 まあ自分の延長に近くなるのかも知れないですね。 はい。 スマートリプリートと言うものになってます。 うん。 で もちろんこのパーソナルコンテキストが使えるって事は 当然メールだけじゃないですよね、便利になるのって。で、今回の発表でメールだけでは当然ないし、あらゆるアプリケーションでこれまでのいろんなところでGoogleが貯めてきた、あなたの個人的な情報を活用できますよと言う話がされてますと。で、検索が1つ変わってまて言う話なんですけど これ何してるかって言うと 例えば検索するじゃないですか?で、検索する時に旅行に関してプランニングしてるような検索と言うか、ま頼み方をGeminiにしますよね。で、そうすると、例えば過去にあなたレストランの予約でテラス席を選んでましたねみたいな。予約の、あの確認メールみたいなものから分かる訳じゃないですか。ま、それを見るとおそらくテラス席が良いと思うから、テラス席でどうって提案して来るし、例えばギャラリーの こうメルマガを購読してるような方だったなら あの 旅行先で近くのあの、アートの展示、こんなものがあるからどうですか?展示してくれたりとか、ま、フライトとかホテルの情報って言うのも当然予約確認メールみたいな当然して来るので、それも分かるので 近くのイベントとかあのスポットを案内するみたいな、ま検索1つとってもパーソナルコンテキストを使う事で、より良い検索体験ができますよねと言うのが もう1つ うん。 ですね。 で、ちょっとこれデモとかで、デモとか無いんですけど、あのさらに結構 パーソナルコンテキストについて面白かったのはパーソナルコンテキストを使える事って制度が上がります で終わらないと言う話で 先回りに繋がると言ってんすよね。 うん。 で、例えば基本的に今までのサービスって全部受動的じゃないですか? うん。 何かこうお願いしたら旅行の提案をしてくれるとか、旅行のプラン立てくれる。まそれも素晴らしいんですけど パーソナルコンテキスト知ってるっておそらくこの人は次に旅行のプランニングをするはずだって分かるようになる訳じゃないですか。つまり次の行動を予測できる ようになる なので今回、ま例で、実際キーノートでも話されてたんですけど、例えば学生だったら1週間後に大事な物理の試験がありますって時にGeminiがカレンダーからその予定を理解して 単に予定あるよって言うだけじゃなくて、これまでの講義ノートとか資料とかを読み取って、ま、手書きのメモの写真でも全てを読み取って、自動でクイズを作成するとか、なんかそんなような事が できるようになるし、ま、それができるともはや便利という次元じゃないですよねと うん。 魔法的な体験ができるようになるんだみたいな話をされてたんすけど、ま、その鍵になるのも実はパーソナルコンテキストだったりしますと。 うーん。 いうとこですね。 はい。 こう言う世界になってきた時ってネット上の物はもう全部情報パーソナライズで分かってくれるじゃないですか。リアルなこういう情報、別にここに無い情報、そこって言うのもなんか自分でメモ作ったり、頻繁にAIと会話したりして、その情報も与えといた方が良いんすかね。そうするとさらに精度上がるんすかね。 はい。 はい。 仰る通りです。 今日こういう会話を さんとして、こういう所だったんだよとか さんこんな人だったんだよって入れとくと、その情報また精度上がりますよね。 精度上がっていきますね。 そうですね。 まそこがほんとに鍵で、今デジタルに落ちてる情報って、リアルな世界からすると実は限られてますよね。 うん。 で、まそれが実は次の超大きな壁なんですけど、なのでま自分で努力してメモを残すのも良いんですし、あと最近だと良くあるのが例えばウェアラブルデバイスを付けといて、ピンみたいなの付けといて、音声を録音しといて、そこ残しに行くとか。 そうまでやるんすか? ああ で色んな事が取り組みされてるんですけど、だから次の主戦場がこれXRで触れますけど、実はどういうデバイスを作るのかってことだったりもするんすよね。 うん。 そこに繋がってくんだ。 はい、だからリアルの情報常に取れる 見てる聴いてるみたいな物を作れれば このAI業界においてもその1手を撮れたプレーヤーってのが、間違いなく次最強になると言うか、次の知らず、撮れてない物がフィジカルの世界にあるんで、そこをどう取りますかってのが鍵だったりしますね。 うん。 確かに。良い秘書の方も昨日の会食どうでしたか?とかあ、のね会話してそれで色々読み取ってくれてそれで次の行動変えてくれるじゃないですか。 そうなんすよね。そういう風になっていくと。 はい。 完璧ですでね、もう 完璧なんすよ。まあちょっと人間だと多分、リモートワークと出社に近いかも知れないすね。 うーん。 何と言うか、なんとなくリアルで見てるから分かる感じみたいな物があったりする訳で、テキストに落ちてない物も拾えるみたいのが実は鍵だったりもしますね。 はい。 はい、分かりました。 と言うのが、えっとパーソナルコンテキストについてでした。 で4つ目が がエージェント。まこれ皆さんおそらくもう今年何回も何回もAIエージェントって聞いたかなと思うんですけど、まそのAIエージェントですと。検索から行動へと言う話なんですけど