
iOS 26: 画面上のコンテンツをVisual Intelligenceで検索可能に
-
FromMacRumors
Apple、WWDC 2025で「Visual Intelligence」の大幅アップデートを発表
Appleは、WWDC 2025において、iPhoneの「Visual Intelligence」機能の大幅なアップデートを発表しました。
このアップデートにより、ユーザーはiPhoneアプリに表示されたあらゆるものを検索し、アクションを実行できるようになります。
これまでカメラを通じて現実世界の物体を識別していた機能が、画面上のコンテンツ分析にも対応します。
ユーザーは、表示内容についてChatGPTに質問したり、GoogleやEtsyなどの対応アプリで類似の商品やアイテムを検索したりすることが可能です。
Visual Intelligenceは、アプリ内の特定のオブジェクトを認識し、例えばランプをハイライト表示してオンラインで類似アイテムを探し出すことができます。
また、画面上のイベントを検出し、日付、時間、場所を自動的に抽出してカレンダーへの追加を提案します。
機能へのアクセスは容易で、スクリーンショットと同じボタン操作で行えます。
撮影したスクリーンショットを保存または共有するか、Visual Intelligenceでさらに深く探求するかを選択できます。
このアップデートにより、Visual IntelligenceはiPhone全体の操作において、より汎用的な検索・アクションツールとして進化しました。
Appleは、この機能がApple Intelligenceのオンデバイス処理アプローチに基づいているため、ユーザープライバシーを保護しながら、アプリ全体でコンテキストに応じたアシスタンスを提供できると述べています。
2025-06-10

AIによる翻訳/要約をしています。正確な情報はオリジナルサイトにてご確認ください。
このサイトはアフィリエイト広告(Amazonアソシエイト含む)を掲載しています。