Appleが発表した児童の性的搾取を防ぐための「iPhoneの写真やメッセージをスキャンする取り組み」は国ごとの法律にのっとり行われる予定 – GIGAZINE

Appleが発表した児童の性的搾取を防ぐための「iPhoneの写真やメッセージをスキャンする取り組み」は国ごとの法律にのっとり行われる予定 – GIGAZINE:

2021年8月5日、Appleは「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」の拡散を防止するための取り組みとして、アメリカのApple端末ユーザーのメッセージや写真をスキャンし、CSAM関連コンテンツが存在しないかをチェックすると発表しました。

 Appleが自動の静的搾取に関連するデータの拡散防止の為、ユーザーのiPhoneの写真やメッセージをスキャンするという取り組みについて、アメリカ外ではその国の法律に則って行う、という話題です。
 これは検閲に相当するので日本では「なし」になるべきなんですが、どうなんでしょうね。
 人権問題は大きな問題ですが、人権を守るために自分たちの人権を差し出せというのは傲慢ではないかと思います。