Apple、iOS 27でSiriをチャットボット化と報道。Googleのサーバーで稼働か
Yusuke Sakakura
Yusuke Sakakura
ブログメディア「携帯総合研究所」を運営しています。学生時代に開設して今年が16年目。スマートフォンの気になる最新情報をいち早くお届けします。各キャリア・各メーカーの発表会に参加し、取材も行います。SEの経験を活かして料金シミュレーターも開発しています。

Appleは今年、「Apple Intelligence」を大きく進化させる計画です。
すでに次世代のApple Intelligenceの基盤モデル(Apple Foundation Models)にGeminiを採用し、今後のApple Intelligence機能を強化すると発表済み。業界トップクラスのプライバシー基準を維持しながら、“革新的な新体験”を提供するとしています。
ただし現時点では、体験がどう変わるのか、どこまでできるのかといった具体像はまだ多くが伏せられたままです。そんななか最新の報道では、SiriそのものをChatGPTのようなAIチャットボットへ刷新する計画が伝えられています。
SiriがAIチャットボットに
BloombergのMark Gurman氏は関係者の話として、Appleが2026年後半にSiriをAIチャットボット型へ刷新し、OpenAIやGoogleが先行する生成AI競争へ本格参入すると伝えました。
ChatGPTやGeminiのようにアプリを提供するのではなく、「Hey Siri」やサイドボタンの長押しによる呼び出しを維持しながら、Siriのインターフェースと体験そのものを置き換えることを計画しているようです。
何がどう変わる?
ChatGPT、Gemini、Siriはいずれも、AIと会話しながら使えるアシスタントです。会話の流れを踏まえて答えるため、前提条件を毎回細かく説明し直す手間を減らせます。
たとえば一度「京都の天気を教えて」と聞いたあとに「明日そこに行く予定を追加して」と続ければ、予定の空きを確認して、被りがあれば利用者に確認。承認されればカレンダーに登録します。
大きな違いはインターフェースにあります。
Siriは基本的に一問一答で完結しやすく、会話がその場で区切られがちです。一方のChatGPTやGeminiは、チャットアプリのようにやり取りを積み重ねていける”継続的な対話”に最適化されています。履歴を遡って「さっきの条件で続きをお願い」「別パターンも出して」と頼めるのも特徴です。

インターフェースの違いは体験の差にも直結します。
Siriが今この瞬間の操作や短い指示に特化しているのに対して、ChatGPTやGeminiは旅行の計画づくり、文章の推敲、比較検討のように、会話を重ねながら結論へ近づける作業に強みがあります。
チャットボット化したSiriは、この両方の強みをあわせ持つ存在になる可能性があります。
チャットボット化したSiri、何ができる?
Siriはチャットボット化の前にも、ビッグアップデートを控えています。提供時期は2026年前半で、iOS 26.4で実現する見込みです。
品質問題で提供が延期されていた「パーソナライズ化されたSiri」によって、画面上の内容解析や個人データの活用によるエージェント機能が追加され、ウェブ検索も強化されるとされています。
さらに、開いているウィンドウや画面上の内容を解析して、操作を実行したりコマンドを提案したりすることも検討されているとのこと。設定変更、通話発信、タイマー、カメラ起動など、OS機能を横断して扱えるのは、標準機能として組み込まれるSiriならではです。
Gurman氏がより重要だとするのは、音声操作の拡張です。
Siriがメール、音楽、Podcast、Apple TV、Xcode、写真など主要アプリに統合されることで、音声だけでできることが一気に増えるとしています。例えば、「写真を説明して探す」「切り抜きや色調整まで指示する」「メール本文を生成する」といった操作をSiriに話しかけるだけで完了できるようになります。
そしてChatGPTやGeminiに比べて、Siriが明らかに優れているのは、操作中のアプリから離れずに強力なAI機能にアクセスできることです。特にアプリを並べて起動できないiPhoneでは重要で、この体験を提供できるのはAppleだけです。
チャットボット化したSiriはGoogleのサーバ上で動作する?
チャットボット化したSiriは、Gemini 3に匹敵する高性能版のカスタムGoogleモデルを利用すると報じられています。
さらに両社は、そのチャットボットをTPU(Tensor Processing Unit)を搭載したGoogleのサーバー上で直接稼働させる案を協議しているとのことです。
Appleはこれまで、端末内処理や自社のPrivate Cloud ComputeでAIを動かすことで、プライバシー保護を大きな強みとして打ち出してきました。もしGoogle側のサーバーで処理する比重が増えるのであれば、Appleの運用方針(ポリシー)が一段変わる可能性があります。
ただし将来的にはApple独自モデルへ戻せるよう、基盤モデルを差し替え可能な設計にするとも伝えられています。
Siriをチャットボット化する理由
AI分野においてAppleは後手に回っていますが、業績は堅調でiPhone 17シリーズもハードウェアの劇的な見直しによって売れ行きを伸ばしています。
一方で、AIがもたらす新しい体験を全面に押し出すGoogle Pixelが売れ行きを大きく伸ばすなど、AIが売れ行きに与える影響も感じ始めています。
これから数年先を考えると、AIの強化は避けて通れない——そう判断したからこそ、Apple Intelligenceへと踏み切り、Googleと提携して遅れを取り戻す決断を選択し、Siriをチャットボット化するのでしょう。
さらに、人材面でもAI競争は無視できません。
OpenAIをはじめとするAI企業への人材流出が報じられており、関心や市場価値の観点からも、AIの最前線に触れられる環境がない場合、将来の採用・定着で不利になる可能性があります。待遇条件の差もあるのかもしれませんが、「今ここでAIの開発に携われるのか」はエンジニアにとって、より重要な判断材料になり得ます。
Siriのチャットボット化はiOS 27の目玉機能に
Siriのチャットボット化は、秋に登場する次期OSの目玉機能になる見込みです。
昨年はLiquid Glassの導入などデザイン面で大きな変化がありましたが、今年はチャットボットSiri以外は大型アップデートを抑え、パフォーマンス改善とバグ修正に重点を置くとも報じられています。
Siriのチャットボット化の具体的な内容は6月のWWDCで発表され、9月にリリースされる見込みです。






















コメントを残す