ポリシーグループ、アップル社にiMessagesを検査して虐待画像をスキャンする計画を中止するよう要請

世界の90以上の政策・権利団体が19日、アップル(AAPL.O)に対して、子どものメッセージをスキャンしてヌードを探したり、大人の携帯電話をスキャンして児童の性的虐待の画像を探したりする計画を放棄するよう求める公開書簡を発表した。

「これらの機能は、子どもたちを保護し、子どもの性的虐待に関する資料の拡散を抑えることを目的としていますが、保護された言論の検閲に利用され、世界中の人々のプライバシーとセキュリティを脅かし、多くの子どもたちに悲惨な結果をもたらすことを懸念しています」と、ロイター通信が最初に報じた書簡には書かれています。

1社の暗号化問題をめぐるキャンペーンとしては、米国の非営利団体Center for Democracy & Technology(CDT)が主催したものがこれまでで最大規模でした。

特に海外の署名者の中には、すでに暗号化やプライバシーをめぐって激しい争いが起きている国を含め、法制度の異なる国での変更の影響を懸念する声もあります。

CDTの「Security & Surveillance Project」の共同ディレクターであるシャロン・ブラッドフォード・フランクリン氏は、「Appleがこのようなことをするのは、とても残念で動揺しています。

Apple社の広報担当者によると、同社は金曜日に発表した文書の中で、プライバシーとセキュリティに関する懸念に対応し、スキャンソフトウェアの複雑な構造がそれを破壊しようとする試みに対抗できる理由を説明したという。

ブラジルでは、裁判所がフェイスブック(FB.O)のWhatsAppが犯罪捜査でメッセージの解読を怠ったことを理由に何度もブロックしており、上院では、メッセージの内容を何らかの形でマーキングするトレーサビリティーを義務付ける法案が可決されています。同様の法律は今年、インドでも可決されています。

署名したInternet Societyのブラジル支部の会長であるFlavio Wagner氏は、「私たちが最も懸念しているのは、このメカニズムの結果であり、これが他の状況や他の企業にどのように拡大されるかということです」と述べています。「これは、暗号化の深刻な弱体化を意味する」と述べています。

その他、インド、メキシコ、ドイツ、アルゼンチン、ガーナ、タンザニアでも署名が行われました。

2週間前の発表後、先の反響に驚いたアップル社は、一連の説明や文書を提示して、誤検出のリスクは低いと主張しています。

アップル社は、裁判所の命令に従わずに市場から撤退するとは言っていませんが、複数の管轄区域のクリアリングハウスによってフラグが立てられた子供の写真以外に画像検出システムを拡大する要求を拒否すると述べています。

これまでの反対意見のほとんどはデバイススキャンに関するものでしたが、連合の書簡では、家族アカウントのiMessageの変更にも異議を唱えています。この変更は、子どもたちのメッセージに含まれるヌードを識別してぼかし、親に通知された場合にのみ子どもたちに閲覧させるというものです。

署名者たちは、この措置が不寛容な家庭の子どもたちや教材を求める子どもたちを危険にさらす可能性があると述べています。さらに広く言えば、この変更はiMessageのエンド・ツー・エンドの暗号化を破壊するものであり、Appleは他の文脈ではこの暗号化を強固に守ってきました。

「このバックドア機能が組み込まれると、政府はアップル社に対して、他のアカウントへの通知や、性的に露骨であること以外の理由で不快な画像を検出するように強制することができます」と、書簡には書かれています。

署名した他の団体は、American Civil Liberties Union、Electronic Frontier Foundation、Access Now、Privacy International、the Tor Projectなどです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です