後ろからスマホをのぞかれた時だけ“画面がぼやける”システム 米研究者らが開発:Innovative Tech
米ミシガン大学に所属する研究者らは、後ろからスマートフォンをのぞき見られる行為を防止するためのシステムを提案した研究報告を発表した。
Innovative Tech:
このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。
Twitter: @shiropen2
米ミシガン大学に所属する研究者らが発表した論文「EYE-SHIELD: Real-Time Protection of Mobile Device Screen Information from Shoulder Surfing」は、後ろからスマートフォンをのぞき見られる行為を防止するためのシステムを提案した研究報告である。使用するユーザーには通常の画面が表示されるが、背中越しに見られた場合にのみぼやけて表示される。
スマートフォンなどのモバイル機器を操作中のユーザーの近くに寄り、後ろからユーザーの画面をのぞき見することで機密性の高いパスコードや暗証番号、閲覧行動、その他の個人情報を取得する攻撃を「ショルダーサーフィン」という。背中越しだけでなく、窓などの反射や双眼鏡を使った方法もある。古典的だが、アナログな手法なため対策が難しく効果的な方法として知られている。
どの程度後ろからのぞかれているかを分析した研究も報告されている。この研究では、インカメラに魚眼レンズを付けて後方を自動撮影することでのぞかれているかを測定する。結果は、思った以上にのぞかれていることが示された。
今回は、スマートフォンを使用している本人には通常の画面として見えるが、背中越しの攻撃者にはぼやけて見えるアプローチでショルダーサーフィンを回避する方法「Eye-Shield」を提案する。これは近距離では内容が読み取れるが、遠距離や広角ではぼやけて見える画像を生成することで実現する。
特徴は、どんなアプリケーション上でもリアルタイムに作動するため、また近距離では通常通り見えるため、ユーザーの日常的な使い方を邪魔しないところが挙げられる。ユーザーが意識せずとも攻撃者から身を守れるわけだ。
Eye-Shieldは、十分な距離が離れると、光学系が近くの2つの光源を区別できなくなる現象を活用している。この理論を適用した市松模様のピクセルグリッドを構築することで、遠くから見ている攻撃者には画素が1つの均一な色に見えるが、画面の近くにいるユーザーには市松模様内の個々の画素を区別できる。
Eye-Shieldを導入した際にどれくらい認識できなくなるかのユーザーによる評価実験を行った。結果、まずEye-Shieldによる保護がない場合、参加者はテキストの80%、画像の100%をはっきりと見て認識できた。一方でEye-Shieldに保護された場合は、テキストで15.91%、画像で24.24%しか認識できないことが分かった。
Source and Image Credits: Brian Tang, Kang G. Shin. Eye-Shield: Real-Time Protection of Mobile Device Screen Information from Shoulder Surfing.
関連記事
- スマホは後ろからどれくらいのぞかれている? 魚眼レンズで後方を自動撮影して調査
ドイツのUniversity of Duisburg-Essen、University of the Bundeswehr、KUKAに所属する研究者らは、スマートフォンを後方からのぞき見られている状況を調査した研究報告を発表した。 - 電子機器を修理サービスに出すのは危険? カナダチームが検証 修理中の全ログ取得、返却後に解析してみた
カナダのUniversity of Guelphに所属する研究者らは、電子機器修理業界における顧客のプライバシーに関する調査を行った研究報告を発表した。 - PINコードをタップする際の“振動”で個人認証を強化 のぞき見などに対策
韓国のChung-Ang Universityによる研究チームは、PIN(Personal Identification Number)コードやパスコードなどの個人認証を強化する、スマートフォン向け多要素ユーザー認証システムを開発した。 - 音声アシスタントに入力中、横から“聞こえない音”で攻撃 指示を勝手に変更 中国チームが開発
中国の浙江大学に所属する研究者らは、ユーザーが音声アシスタントに音声入力している際に横から不可聴音の悪意ある音声を混ぜて異なる入力内容に変更する攻撃を提案した研究報告である。 - ChatGPTの“脱獄プロンプト”登場 文末に書くだけで「爆弾の作り方」「IDの盗み方」に回答
米カーネギーメロン大学などに所属する研究者らは、大規模言語モデル(LLM)が有害なコンテンツを生成しない仕組みを無効にする手法を提案した研究報告を発表した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.