iOS 26でVisual Intelligenceを活用しスクリーンショットを分析
-
FromMacworld
iOS 26、スクリーンショットに「Visual Intelligence」を統合
AppleがiOS 18で導入したAI機能「Visual Intelligence」が、iOS 26で大きく進化します。これまでiPhoneのカメラを通じた利用に限定されていたこの強力な機能が、あらゆるスクリーンショットでも利用できるようになり、ユーザーの利便性が飛躍的に向上します。
「Visual Intelligence」は、iPhone 15 Proまたはそれ以降のモデルで利用できる機能です。カメラボタンを長押しするだけで、目の前の情報を瞬時に分析できます。外国語の看板の翻訳、電話番号へのワンタップ発信、住所の地図表示や連絡先への追加、店舗の営業時間やメニュー表示、さらには植物や動物、ランドマーク、有名アートワークの識別まで、多岐にわたる情報を提供します。AppleのAIが不明な場合は、ChatGPTに直接質問することも可能です。
しかし、iOS 18ではカメラで撮影した内容にしか対応していないという制約がありました。
スクリーンショットで広がる活用シーン
iOS 26では、この制約が解消されます。iPhone 15 Proまたはそれ以降のモデルで、通常の操作(音量アップボタンとサイドボタンの同時押し)でスクリーンショットを撮ると、プレビュー画面から直接「Visual Intelligence」の機能を利用できるようになります。
これにより、ウェブページ、動画、ゲーム画面など、あらゆるアプリのスクリーンショットに含まれる情報に対して、AIによる分析が可能になります。具体的には、以下の機能が利用できます。
*
ChatGPTへの質問
: スクリーンショット全体、または指定した部分についてChatGPTに質問できます。*
Google画像検索
: スクリーンショットに含まれる特定のアイテムや衣服などをGoogle画像検索で調べることができます。*
文脈に応じた情報提供
:* 電話番号:ワンタップで発信。
* 住所:マップで検索。
* 長文テキスト:AIによる要約や読み上げ。
* 植物、動物、ランドマークなど:自動認識され、関連情報を提供。
*
特定部分への焦点
: 画面の一部を指で囲むだけで、その部分に焦点を当ててAIに質問したり、検索したりすることが可能です。「Visual Intelligence」はApple Intelligenceの核となる機能であり、その利用にはiPhone 15 Proまたはそれ以降のモデル、そして設定でのApple Intelligenceの有効化が必要です。
iOS 26の登場により、日常のあらゆるデジタルコンテンツから瞬時に情報を引き出し、活用する新しいユーザー体験が提供されることになります。
AIによる翻訳/要約をしています。正確な情報はオリジナルサイトにてご確認ください。
このサイトはアフィリエイト広告(Amazonアソシエイト含む)を掲載しています。