Google が、Android 上で Gemini に複数ステップの操作を代行させるベータ機能を発表しました。
https://blog.google/innovation-and-ai/products/gemini-app/android-multi-step-tasks
まずはここが変わる
Google の発表を見る限り、今回のポイントは単なる音声アシスタント強化ではなく、「配車」や「再注文」のような複数アプリをまたぐ行動を、一連のタスクとして処理しにいくことです。
- 配車や再注文のような「地味に面倒」な操作をまとめて代行
- 対象はまず米国と韓国、端末も Pixel 10 系と Galaxy S26 系から
- 「Control / Transparency / Access」で安全性の線引きを明示
今回の機能、地味に見えてかなり大きいです。たとえば「家までの配車を頼む」「前回と同じ食事を再注文する」みたいな、スマホでやると地味に面倒な作業を Gemini が引き受ける方向。最初は米国と韓国、対応端末も Pixel 10 系と Galaxy S26 系に限られていますが、方向性としてはかなり本命感があります。
AIの話って、どうしても「会話が自然になった」「推論が強くなった」みたいなモデル性能の話に寄りがちなんだけど、一般の人に効くのは結局こういう「面倒な操作を減らす」やつなんですよね。チャットAIを触ってすごいと思う瞬間よりも、帰宅前にスマホへ一言投げるだけで配車や注文が済む方が、生活の変化としてはずっと大きい。
しかも Google はここで、「Control / Transparency / Access」という3つの軸で安全性を説明しているのも上手い。勝手に暴走するのではなく、ユーザーの指示で始まり、通知で進行を見られて、限られたアプリだけに触る。エージェントAIが広がるほど「何ができるか」より「どこまでしかできないか」が重要になるので、その線引きを最初から出しているのは良いです。
これ、日本でもかなり受けると思う。Uber や DoorDash のままは来ないにしても、配車、フードデリバリー、ネットスーパーあたりの代行は日本のスマホ利用と相性がいい。むしろ日本は「操作は慣れてるけど、何度もやるのは面倒」という人が多いので、刺さる層は広そう。
個人的には、AIの次の勝負どころって「聞けば答える」ではなく「頼めば片付く」だと思っています。そういう意味で、今回の Gemini はかなり先を見ている。海外で先に始まるこの流れ、たぶん数年以内に日本でも当たり前になりそうです。
