Skip to main content

Elon Musk の Twitter は、児童の性的虐待 (CSAM) を大規模に削除することに取り組んでおり、「これらの違法行為に関与している人々に容赦はありません」。 Andrea Stroppa は Twitter でスレッドを共有し、Twitter が児童虐待問題に対して寛大だった方法から、正面から取り組むようになった方法についての最新情報を共有しました。

Stroppa は Ghost Data の調査チームの先頭に立ち、9 月の 20 日間で 500 を超えるアカウントが違法な素材を公然と共有していることを発見しました。 ここで完全なレポートを表示できます。 Stroppa 氏は自身のスレッドで、過去数週間、Ella Irin 氏が率いる Twitter の Trust and Safety チームで独立した研究者として働いていたことに言及しました。 「Twitter は、あなたと共有したいいくつかの関連する結果を達成しました。」 ストロッパがツイートした.

Stroppa は、Twitter が CSAM に関連するコンテンツを検出するメカニズムを更新し、より高速で効率的で攻撃的になっていることを指摘しました。 「これらの違法行為に関与している人々に容赦はありません。」

過去数日間で、Twitter の 1 日の停止率はほぼ 2 倍になりました。これは、プラットフォームがコンテンツのキャピラリー分析を行っていることを意味します。 「違法なコンテンツがいつ公開されたかは問題ではありません。 Twitterはそれを見つけて、それに応じて行動します。」

Stroppa は、過去 24 時間以内に Twitter がその取り組みを強化し始め、44,000 の疑わしいアカウントを削除し、それらのプロファイルのうち 1,300 以上がコードワードと画像内のテキストを使用して検出を回避しようとしたことを指摘しました。

彼は、Twitter はこれらのアカウントが使用する戦略、キーワード、外部 URL、および通信方法を認識していると付け加えました。 「子供たちの安全を守る能力を高めるために、Twitterは独立した専門家の第三者を巻き込みました。」

Stroppa 氏は、Twitter は CSAM を共有するスペイン語とポルトガル語を話すユーザーのネットワークに注力していると付け加えました。 「Twitterには、この種の違反を毎日調査し、対処するための専任チームが配置され続けています。 チームはこれまで以上に決意を固め、情熱的な専門家で構成されています。 さらに、Twitter はユーザーが違法なコンテンツを報告するプロセスを簡素化しました。」

への声明の中で、Stroppa は次のように述べています。 イーロンと私たちは、意識の光という考えを共有しています。 この光は何百万人もの人々を通り抜け、世界を少しだけ改善します。」

イーロン・マスクがプラットフォームを購入する前から、子供たちを保護するためにツイッターを推進してきたエリザ・ブルーは、以前、コンテンツを「大規模に」削除する必要があると強調した. 8 月、The Verge は、Twitter が大規模な CSAM を検出できないことを発見しました。

「Twitter は、児童の性的搾取や同意のないヌードを大規模に正確に検出することはできません」とレッドチームは、「特に Twitter がどのように見えるかに焦点を当てることで、大人のクリエイターがプラットフォーム上で収益化できるようにする決定を圧力テストする」これを安全かつ責任を持って。」

彼女自身のスレッド、 Eliza Bleu さんは、これをツイートできるとは思っていなかったと言いましたが、「Twitter は現在、児童の性的虐待コンテンツを大規模に検出、削除、報告する作業を行っています」。

彼女は、この問題が片付くには時間がかかるだろうが、急速な変化は「見るだけで美しい」と付け加えた.

土曜日、ブルーは次のように語った。子供。”

「イーロン・マスクの下での進歩と変化を目の当たりにして、非常に感謝しています。 彼は、このプラットフォームが過去 10 年間、児童の性的虐待の題材に関してできなかったことを、この 1 か月で成し遂げました。 プラットフォームがこれほど大きな進歩を遂げたのは、PhotoDNA を実装したときだけです。」

ブルーが言及している技術は、マイクロソフトが 2009 年にダートマス大学と提携したときに作成されました。PhotoDNA は、組織が児童搾取の既知の画像を見つけて削除するのに役立ちます。 Bleu はまた、イーロン・マスクを理由としてプラットフォームを離れた Twitter の広告主を呼びましたが、Twitter の遅さと、時にはプラットフォームから CSAM を削除することを拒否したことについては沈黙を守っていました。

フィードバックをお待ちしております。 コメントや懸念事項がある場合、またはタイプミスを見つけた場合は、johnna at までメールでお問い合わせください。 @ジョナクライダー1.

は現在TikTokにあります。 インタラクティブなニュースなどをフォローしてください。 は現在TikTokにあります。 インタラクティブなニュースなどをフォローしてください。 LinkedIn でフォローすることもできます。 ツイッター、インスタグラム、フェイスブック。

イーロン・マスクのツイッターは、虐待者に「容赦なく」児童の性的虐待の素材を大規模に削除することに取り組んでいます

Leave a Reply