AppleがAI戦略を転換か。SiriにChatGPTやClaude導入検討、自社LLMは先送りか
Yusuke Sakakura

Yusuke Sakakura
ブログメディア「携帯総合研究所」を運営しています。学生時代に開設して今年が16年目。スマートフォンの気になる最新情報をいち早くお届けします。各キャリア・各メーカーの発表会に参加し、取材も行います。SEの経験を活かして料金シミュレーターも開発しています。

Appleは、1年前にAIプラットフォーム「Apple Intelligence」を発表しました。しかし、大きな注目を集めた次世代のSiriは、Appleが求める品質に達していないとして、2026年まで提供が延期されていました。
- 画面内容の理解:画面に表示された住所を「この住所を連絡先に追加して」とSiriに依頼できる
- アプリの操作:「この写真を明るくして」「この写真を〇〇のメモに追加して」といった声によるアプリの操作とアプリ間の連携が可能に
- 個人を深く理解する:写真ライブラリから免許証やパスポートの写真を探してフォームに自動入力
この遅れにより、AppleはAI分野で他社に大きく遅れを取っているのが現状です。
たとえこの遅れを取り戻せたとしても、Appleが他社に追いつくのは容易ではありません。今のSiriには、ChatGPTやGeminiのようにAIと自然に対話できる大規模言語モデルが搭載されていないからです。
Appleはチャットボット機能を実現するためのAIモデルを自社で開発していると報じられてきましたが、現在はChatGPTのOpenAIやClaudeのAnthropicといった他社との連携へと方針を転換しつつあるようです。
OpenAIやAnthropicとの連携で狙う“完成度とスピード”
Appleが提供するAI機能の多くは、自社開発の「Apple Foundation Models」と呼ばれるAIモデルで実現されています。2026年には、このモデルの音声アシスタントバージョン「LLM Siri」が提供され、チャットボット機能が搭載されると見られていました。
しかし、Bloombergは、AppleがSiriに外部の大規模言語モデル(LLM)を採用する可能性について、OpenAIおよびAnthropicと協議していると伝えています。

Appleの狙いは、AnthropicのClaudeやOpenAIのChatGPTといった外部モデルを活用することで、Siriのチャットボット機能をより早く、より完成度の高い状態でリリースすることにあると考えられます。
次世代Siriのように、一度発表した機能を完成度の低さから取り下げるような事態を繰り返すわけにはいかないのでしょう。
なお、LLMを自社から他社に切り替えることに対し、プライバシーの観点から懸念を示す声もあるかもしれません。しかし、Appleは自社が管理するプライベートクラウドサーバー上で外部モデルを動作させることを検討しており、Apple Intelligenceにおける強固なプライバシー保護は維持される見込みです。
協議はまだ初期段階にあり、最終決定は下されていません。
AppleはLLM Siriの開発も継続しており、断念したわけではありません。他社モデルを一時的に採用し、将来的には自社モデルに切り替えるという選択肢も残されています。
Appleはこれまで、プロセッサや5Gモデム、OSなど、数多くの中核技術を自社開発し、強固なエコシステムを築いてきました。
しかし、AI分野では、自社技術の成熟を待たず、他社との連携を積極的に模索し始めています。最近では、AI検索で注目されるPerplexityの買収を検討していたという報道もありました。
なお、Apple、Anthropic、OpenAIの3社は、いずれもこの件についてコメントしていません。
コメントを残す