Googleが発売した2024年の最新スマートフォンPixel 9シリーズには、AI機能が多数搭載されていますが、その多くはカメラと写真や動画の編集機能に集中しています。
今後、スマホは人とAIを結びつける中心的なデバイスになりますが、もっと多くの分野、つまりカメラ以外の分野にAIを導入する必要があります。
機能の改善でも物足りません。もっと新しい何かが必要ですが、「Pixel Screenshot」はその1つの答えになりそうです。
Pixel Screenshotとは?
メモ代わりにスクショを撮る人は多いでしょう。
ただ、あまりにもスクショが多くなると探すことが難しく、Googleフォトを開いて何度も何度もスクロールして時間をかけて探してる人も多いはず。
Googleフォトでもスクショを検索できますが、Pixel Screenshotはもう少しスマートに無駄な作業を省略できます。
Pixel Screenshotは、ネットに接続することなく端末上で動作するAI、いわゆるオンデバイスAIでスクショに含まれる情報を解析し、保存、整理、簡単に呼び出せる機能です。
1つ優れているのは、Pixel Screenshotを利用するために人がAIに合わせて行動する必要がないこと。
これまでのようにスクショを撮るだけで、オンデバイスAIが自動起動し、レストランのレシートであれば、店舗の住所や品名、価格を識別し、スクショが撮影されたアプリやウェブサイトも保存します。
残念ながら現時点で対応するのは英語のみ。今後数週間のうちに拡大予定と案内されています。
Pixel Screenshotの使い方
情報を探す時はPixel Screenshotを起動します。
検索ボックスに「Pixel 8 Proのストアクレジットの有効期限は?」と入力すると「有効期限は2024年8月19日です」といった回答と共にスクショが表示されます。
Googleフォトでは、検索ワードを含むスクショは表示されても求めている答えまでは返してくれません。
スクショを選択すると、いくつかのアクションが表示されます。
アプリのアイコンをタップすると、スクショを撮ったアプリが起動します。例えば、ウェブページであればChromeで注文画面が開き、YouTubeであれば動画ページ、Googleマップならスポットページが表示されます。
Googleストアのクレジットなどの有効期限付きのクーポン等であれば、リマインダーを設定したり、会議などであれば、Googleカレンダーに追加することもできます。
このほかにも、東京に住んでいる友だちにおすすめのレストランを聞き、教えてくれた店舗をスクショしておけば、数ヶ月後、東京に来たときにPixel Screenshotに「東京のおすすめのレストランは?」と聞くと、住所が表示されてGoogleマップで開いてルート案内も利用できます。
スクショしておいたプレゼントの候補をスクショして価格を聞いたり、お気に入りのレシピを保存して必要な材料を聞くこともできます。
なお、Pixel Screenshotに必要なオンデバイスAIは、ただのGemini Nanoではありません。
Google Tensor G4で動作するマルチモーダリティ対応のGemini Nanoが必要。現在はPixel 9シリーズにのみ搭載されています。それ以外のPixelスマホやAndroidでは利用できません。
コメントを残す