Skip to main content

Le Twitter d’Elon Musk s’emploie à éliminer les abus sexuels sur des enfants (CSAM) à grande échelle sans « aucune pitié pour ceux qui sont impliqués dans ces activités illégales ». Andrea Stroppa a partagé un fil sur Twitter avec des mises à jour sur la façon dont Twitter est passé d’être indulgent envers le problème de la maltraitance des enfants à l’aborder de front.

Stroppa a dirigé l’équipe de recherche de Ghost Data et a découvert que plus de 500 comptes partageaient ouvertement le matériel illégal sur une période de 20 jours en septembre. Vous pouvez consulter le rapport complet ici. Dans son fil, Stroppa a noté qu’il avait travaillé en tant que chercheur indépendant au sein de l’équipe Trust and Safety de Twitter dirigée par Mme Ella Irin au cours des dernières semaines. « Twitter a obtenu des résultats pertinents que je souhaite partager avec vous », Stroppa a tweeté.

Stroppa a noté que Twitter a mis à jour son mécanisme pour détecter le contenu lié au CSAM et qu’il est plus rapide, plus efficace et plus agressif. « Pas de pitié pour ceux qui sont impliqués dans ces activités illégales. »

Au cours des derniers jours, le taux de suspension quotidien de Twitter a presque doublé, ce qui signifie que la plateforme procède à une analyse capillaire des contenus. « Peu importe quand un contenu illicite a été publié. Twitter le trouvera et agira en conséquence.

Stroppa a souligné qu’au cours des dernières 24 heures, Twitter a commencé à intensifier ses efforts et a supprimé 44 000 comptes suspects, et plus de 1 300 de ces profils ont tenté de contourner la détection en utilisant des mots de code et du texte dans les images pour communiquer.

Il a ajouté que Twitter est au courant des stratégies, des mots-clés, des URL externes et des méthodes de communication utilisées par ces comptes. « Pour accroître sa capacité à protéger la sécurité des enfants, Twitter a fait appel à des tiers indépendants et experts. »

Stroppa a ajouté que Twitter concentre ses efforts sur les réseaux d’utilisateurs hispanophones et lusophones qui partagent CSAM. « Twitter continue d’avoir des équipes en place dédiées à enquêter et à prendre des mesures quotidiennes contre ces types de violations. Les équipes sont plus déterminées que jamais et composées d’experts passionnés. De plus, Twitter a simplifié le processus de signalement de contenu illicite par les utilisateurs. »

Dans une déclaration à , Stroppa a déclaré: « Si ces bonnes choses se produisent, c’est parce qu’Elon se soucie vraiment de la sécurité des enfants. Avec Elon, nous partageons l’idée de la lumière de la conscience. Cette lumière traverse des millions de personnes et améliore un peu le monde.

Eliza Bleu, qui pousse Twitter à protéger les enfants avant qu’Elon Musk n’achète la plate-forme, a précédemment souligné que le contenu devait être supprimé « à grande échelle ». En août, The Verge a constaté que Twitter était incapable de détecter le CSAM à grande échelle.

« Twitter ne peut pas détecter avec précision l’exploitation sexuelle des enfants et la nudité non consensuelle à grande échelle », l’équipe rouge, « pour tester la décision d’autoriser les créateurs adultes à monétiser sur la plate-forme en se concentrant spécifiquement sur ce à quoi cela ressemblerait pour Twitter. cela de manière sûre et responsable.

Dans son propre fil, Eliza Bleu a déclaré qu’elle n’aurait jamais pensé pouvoir tweeter cela, mais « Twitter travaille actuellement à la détection, à la suppression et au signalement à grande échelle du matériel d’abus sexuels sur des enfants ».

Elle a ajouté que le problème prendra du temps à être résolu, mais les changements rapides sont « tout simplement beaux à voir ».

Samedi, Bleu a déclaré: « Alors que les médias d’entreprise semaient la peur et répandaient des théories du complot sans fondement sur l’incapacité de Musk à lutter contre l’exploitation sexuelle des enfants sur Twitter avec un prétendu » équipage squelette « , la plate-forme était en fait occupée à faire des progrès incroyables vers la protection des exploités sexuellement ». enfants. »

« Je suis extrêmement reconnaissant de voir les progrès et les changements apportés sous Elon Musk. Il a accompli en un mois ce que la plateforme n’a pas semblé pouvoir faire au cours de la dernière décennie sur la question du matériel pédopornographique. La seule fois où la plate-forme a fait autant de progrès auparavant, c’est lorsqu’elle a implémenté PhotoDNA.

La technologie à laquelle Bleu fait référence a été créée lorsque Microsoft s’est associé au Dartmouth College en 2009. PhotoDNA aide les organisations à trouver et à supprimer les images connues d’exploitation d’enfants. Bleu a également appelé les annonceurs de Twitter qui ont quitté la plate-forme, citant Elon Musk comme raison, mais sont restés silencieux sur la lenteur de Twitter et, parfois, sur le refus de supprimer CSAM de sa plate-forme.

Vos commentaires sont les bienvenus. Si vous avez des commentaires ou des préoccupations ou si vous voyez une faute de frappe, vous pouvez m’envoyer un e-mail à johnna à @JohnnaCrider1.

est maintenant sur TikTok. Suivez-nous pour des nouvelles interactives et plus encore. est maintenant sur TikTok. Suivez-nous pour des nouvelles interactives et plus encore. Vous pouvez également suivre sur LinkedIn, TwitterInstagram et Facebook.

Le Twitter d’Elon Musk s’efforce de supprimer à grande échelle le matériel d’abus sexuels sur des enfants, sans aucune pitié pour les agresseurs

Leave a Reply