Apple、iCloudでの児童性的虐待資料(CSAM)配布容疑でウエストバージニア州から提訴される
-
FromMacRumors
ウエストバージニア州のジェイ・ビー・マッカスキー司法長官は、AppleがiCloudを通じて児童性的虐待資料(CSAM)の配布と保存を意図的に容認していたとして、同社を提訴したと発表しました。
マッカスキー長官は、Appleが長年この問題に対して「何もしなかった」と非難し、「児童保護者のプライバシーを優先することは全く許されない。さらに重要なのは、ウエストバージニア州法に違反していることだ。Appleはこれまで自らを規律し、道徳的に正しいことをするのを拒否してきたため、Appleに法律を遵守させ、これらの画像を報告させ、これらの画像が保存・共有されるのを許すことで子供たちを再被害にあわせるのをやめさせるために、この訴訟を提起する」と述べています。
訴訟によると、Appleは内部で自身を「児童ポルノ配布のための最高のプラットフォーム」と表現しているものの、GoogleやMetaといった競合他社と比較してCSAMに関する報告が大幅に少ないとのことです。
2021年、AppleはiCloud写真に保存された画像から既知のCSAMを検出するシステムを含む、新しい児童保護機能を発表しました。しかし、顧客、デジタル権利団体、児童保護活動家、セキュリティ研究者からの反発を受け、AppleはiCloud写真でのCSAM検出計画を断念しました。
Appleは当時、「子供たちは、企業が個人データを隅々まで調べることなく保護することができる。私たちは、若者を保護し、プライバシーの権利を維持し、インターネットを子供たちにとっても、私たち全員にとってもより安全な場所にするために、政府、児童保護活動家、その他の企業と協力し続ける」と述べていました。
その後、AppleはプライベートなiCloudデータをスキャンするツールの作成は「データ泥棒が発見・悪用するための新たな脅威ベクトルを生み出す」と説明しました。
ウエストバージニア州司法長官は、Appleがユーザープライバシーを隠れ蓑にして子供たちを保護する責任を回避しており、検出技術を展開しないというAppleの決定は受動的な監督ではなく、意図的な選択だと主張しています。訴訟では、Appleがハードウェア、ソフトウェア、クラウドインフラストラクチャをエンドツーエンドで管理しているため、「CSAMの不注意な、受動的な伝達者」であると主張することはできないとしています。
この訴訟は、懲罰的損害賠償と、Appleに効果的なCSAM検出措置の実施を義務付ける差止命令を求めています。
Appleは、CSAM検出を断念した決定を理由に2024年にも訴訟を起こされています。2,680人の潜在的な被害者を代表する訴訟では、AppleがCSAM監視ツールの実装を怠ったことが被害者に継続的な損害を与えたと主張し、12億ドルの損害賠償を求めています。
AIによる翻訳/要約をしています。正確な情報はオリジナルサイトにてご確認ください。
このサイトはアフィリエイト広告(Amazonアソシエイト含む)を掲載しています。