AIって本当に使われてる?GalaxyとQualcommが語る“スマホとAIの今と未来”
Yusuke Sakakura

Yusuke Sakakura
ブログメディア「携帯総合研究所」を運営しています。学生時代に開設して今年が16年目。スマートフォンの気になる最新情報をいち早くお届けします。各キャリア・各メーカーの発表会に参加し、取材も行います。SEの経験を活かして料金シミュレーターも開発しています。

大阪・関西万博の会場で開催されたAIフォーラムに、SamsungとQualcommのキーパーソンが登壇。
「AIって本当に使われてるの?」「AIって安全?」「スマホの中でどう処理されてるの?」「これからどう進化していくの?」ーーそんな疑問に対して、開発の最前線に立つ2社がどう答えるのか。現地で話を聞いてきました。
AIは本当に使われてる?
AIという言葉を聞かない日はありませんが、実際にどれくらいの人が日常的に使っているのか気になるところです。
Samsungの常務兼モバイルエクスペリエンス事業部テクノロジー戦略チーム長ソン・イガン氏は、AIを日常的に使うユーザーがここ半年で2倍に増加したという調査結果を紹介。
AIの主な利用目的については、約50%が「生産性の向上」、約40%は「創造力発揮のツール」と答えるなど、仕事の効率化とクリエイティブな活動に活用している人が多いそうです。

- 生産性の向上
- ボイスレコーダー:話者が誰であるかまで分析して議事録を取り、要約までしてくれる
- 翻訳:外国語の記事を読むときもAIが自分の言葉に翻訳して要約する
- 創造のサポート
- 写真編集:写真に写り込んだ不要なものを簡単に消去したり、自分の服装やメガネを変えることも可能
- ノイズ除去:撮影時に含まれた不要な周囲の雑音を決し、残したい声だけを残せる
- コミュニケーションの円滑化
- 外国人の友だちと話す際、AIがリアルタイムの双方向通訳サービスが役立つ。通話内容をテキストに変換したり、内容を要約して保存することも。言語のプレッシャーや不安を大きく減らすことが可能
また、2024年発売のGalaxy S24シリーズから搭載された「Galaxy AI」は、最新機種のGalaxy S25シリーズでは、70%以上のユーザーが何らかの形で利用しているそうです。
発売直後のスマホを選ぶ層は、テクノロジーへの関心が高い傾向があり、ある程度の偏りがあるかもしれません。それでも7割超という数字は十分にインパクトがあります。
なぜAIを使わない?3つの課題
AIの利用者が急増している一方で、AIにまだ距離を感じている人、あるいは意識的に距離を取っている人もいます。
Samsungのソン・イガン氏は、その理由として次の3点を挙げ、
- 実用性:AIは本当に自分の役に立つのか?
- 77%がAIは暮らしに有益な経験・機能が提供できないと回答
- 使いやすさ:一度使ってみたいが、複雑で難しくないか?
- 97%がAIは使い方が難しく上手く使いこなせないと回答
- 安全性:個人データを活用するだろうけど、個人情報は安全に保護されるのか?
- 96%がAIを下手に使うと個人情報リスクが高まると回答
こうした疑問や不安を払拭するには、「役に立つ」「簡単に使える」「安心して使える」AI体験が必要だと語ります。
以下は、簡単に使えるAI体験の具体例ですでに最新のGalaxyにも搭載されているものです。
- かこって検索
- 検索の際に正確な言葉を入力するのではなく、画面に表示された調べたいものを丸でかこむだけで直感的に検索
- Geminiのアプリ連携
- 最も直感的な入力方法“対話”によるコミュニケーション。複雑な操作もAIと対話するだけで可能に
- 例)「阪神タイガースの来週の試合日程を調べてカレンダーに保存して、内容を息子に共有して欲しい」とAIに話すだけですべてが順番に実行される
- Geminiのカメラ共有
- スマホをクローゼットにかざせば、AIがそこに並ぶ服を見て、天気まで判断してぴったりなコーディネートを提案する
また、Qualcomm Korea副社長兼営業&ビジネス開発のキム・サンピョ氏は、AIが難しく感じる背景には、ユーザー中心に設計されず、技術そのものに重点を置いて開発されてきたことを指摘します。
これまでのAIは、高度な処理能力や技術革新に注目が集まりがちでしたが、その一方で、ユーザーから見た「わかりやすさ」や「使いやすさ」は最優先ではなかったかもしれません。
Qualcommでは、AIを新しいユーザーインターフェースと位置づけ、直感的で自然な体験を提供することを目指して開発を進めているといいます。
人間は視覚・聴覚・触覚など複数の感覚を使いながら、状況を理解し、思考して言葉や行動で表現します。Qualcomm Koreaのキム氏は、こうした人間らしいふるまいや思考の流れをAIでも再現することが、最適な解決策になると語りました。
AI体験の進化に重要な2つの技術
やや技術寄りの内容ですが、知っておくとAIへの理解がグッと深まる内容を紹介します。
Qualcomm Koreaのキム・サンピョ氏は、ユーザー中心のAIを実現するには、「オンデバイスAI」と「マルチモーダルAI」の両方が必要だと語ります。
- オンデバイスAI:AIの演算とデータの処理をクラウドを頼らずデバイスの中で行うことで、低電力・高速・安全なAI体験を提供する
- マルチモーダルAI:目、耳、手で得られる様々な感覚を頼りにし、それらをミックスして情報を理解・分析する人間のようにAIが振る舞う
いずれもデバイス内の処理が基本となるため、それを支えるチップセットの役割がとても重要になります。
高速処理が求められることは多くの人がイメージできる一方で、NPU・CPU・GPUといった各チップがAIの処理にどう関わっているのかを理解している人は多くないかもしれません。
Qualcomm Koreaのキム氏は、オンデバイスAIによる音声アシスタントの動作を例に、その仕組みを解説しました。
例えば、「この近くで今日2人で入れる美味しいお店を教えて」と話しかけたとき、AIとチップセットは以下のように連携して処理を進めます。

- センシングハブが音声をテキストに変換
- NPUが変換されたテキストをAIモデルに渡す
- AIモデルが結果値を出力
- CPUが出力されたテキストを音声に変換
- GPUがアシスタントのアバターを3Dで描画する
- NPUを活用してリップシンクすることでまるでアバターが話しているかのように動く
ここで重要なのは、テキスト・画像・音声といった異なる種類のデータを、それぞれに適したAIモデルで処理し、それらを統合してひとつの応答を作り出す点だと語ります。
さらに、AIの基本である「トレーニング」と「推論」についても、キム氏は次のように説明しました。
- トレーニング
- AIが大量のデータを使って学習して、モデルを育てるプロセス。基本的にオンデバイスでは不可
- 図書館で本を読んで学習するようなもの
- 推論
- モデルを使って「何が写っているか」「何を言っているか」などをその場で判断・応答する
- 図書館で学習した内容を活用してテストを受けるなどアクションを起こすこと
以前は、トレーニングも推論もクラウドに依存していましたが、モデルの軽量化やチップセットの性能向上によって、現在は推論をオンデバイスで行えるようになっています。

こうしたオンデバイスAIに注目が集まり、急速に進化している理由は、個人データをデバイス内で安全に処理しながら、より利便性の高いAI体験を提供できるからです。
Samsungのソン氏も、AIが本当に役立つのは、個人のニーズに合わせてパーソナライズされたときだと語ります。
特にスマートフォンは“個人データの宝庫”であることから、AIによってより便利な体験が可能になる一方で、より高度なセキュリティと慎重な取り扱いも求められるようになります。
これからのAI体験とスマホの未来
最後に語られたのは、AIの今後の展望とビジョンです。
Samsungが描く未来は、AIがより自然で直感的な存在へと進化することです。
ユーザーが何かを指示しなくても、AIが状況を理解し、最適なタイミングで情報を提案してくれるようなパーソナライズされたAI体験です。
その中心にあるスマートフォンは、PCやウェアラブル、IoT、家電製品といったさまざまなデバイスと連携しながらつながり、日常生活に静かに溶け込んでいくアンビエントAIの実現がSamsungのビジョンとしています。
Qualcommも同様に、AI体験はスマートフォンにとどまらず、さまざまなデバイスと連携しながら、より統合された形で拡張していくと語ります。
こうしたAIの未来像において、「スマートフォンがAI体験の中心にある」という考え方は、スマホ関連メーカーに共通しています。
その理由についてQualcomm Koreaのキム氏は、世界人口の71%が所有し、1日あたり平均4.5時間も使用されているデバイスであることを挙げ、今後はAIの基盤としての役割をさらに強めて発展していくと語りました。
取材協力:Samsung PR
コメントを残す