Skip to main content

Твиттер Илона Маска работает над искоренением сексуального насилия над детьми (CSAM) в масштабах, «без пощады для тех, кто причастен к этой незаконной деятельности». Андреа Строппа поделилась твитом в Твиттере с новостями о том, как Твиттер перешел от снисходительности к проблеме жестокого обращения с детьми к ее прямому решению.

Строппа возглавил исследовательскую группу Ghost Data и обнаружил, что более 500 учетных записей открыто делились незаконными материалами в течение 20-дневного периода в сентябре. Вы можете просмотреть полный отчет здесь. В своей ветке Строппа отметил, что последние несколько недель он работал в качестве независимого исследователя в группе доверия и безопасности Twitter, возглавляемой г-жой Эллой Ирин. «Twitter добился некоторых важных результатов, которыми я хочу поделиться с вами», Строппа написал в Твиттере.

Строппа отметил, что Twitter обновил свой механизм обнаружения контента, связанного с CSAM, и что он стал быстрее, эффективнее и агрессивнее. «Нет пощады тем, кто причастен к этой незаконной деятельности».

За последние несколько дней количество ежедневных приостановок Twitter почти удвоилось, а это означает, что платформа проводит капиллярный анализ контента. «Неважно, когда был опубликован незаконный контент. Twitter обнаружит это и будет действовать соответственно».

Строппа отметил, что за последние 24 часа Twitter начал наращивать свои усилия и удалил 44 000 подозрительных учетных записей, и более 1300 из этих профилей пытались обойти обнаружение, используя кодовые слова и текст на изображениях для связи.

Он добавил, что Twitter знает о стратегиях, ключевых словах, внешних URL-адресах и методах связи, используемых этими учетными записями. «Чтобы повысить свою способность защищать безопасность детей, Twitter привлек независимые и опытные третьи стороны».

Строппа добавил, что Twitter сосредоточил свои усилия на сетях испаноязычных и португалоговорящих пользователей, которые используют CSAM. «В Twitter по-прежнему есть группы, занимающиеся ежедневным расследованием таких нарушений и принятием мер. Команды более решительны, чем когда-либо, и состоят из увлеченных своим делом экспертов. Кроме того, Twitter упростил процесс сообщения пользователями о незаконном контенте».

В заявлении Строппа сказал: «Если происходят эти хорошие вещи, то это потому, что Илон действительно заботится о безопасности детей. С Илоном мы разделяем идею света сознания. Этот свет проходит через миллионы людей и немного улучшает мир».

Элиза Блю, которая подталкивала Twitter к защите детей еще до того, как Илон Маск купил платформу, ранее подчеркивала, что контент необходимо удалять «в масштабе». В августе The Verge обнаружила, что Twitter не может обнаружить CSAM в масштабе.

«Twitter не может точно определить сексуальную эксплуатацию детей и наготу без согласия в масштабе, — Red Team, — чтобы проверить решение разрешить взрослым авторам монетизировать на платформе, уделяя особое внимание тому, как это будет выглядеть для Twitter. это безопасно и ответственно».

В ее собственная нить, Элиза Блю сказала, что никогда не думала, что сможет опубликовать это в Твиттере, но «Твиттер в настоящее время работает над обнаружением, удалением и сообщением о материалах, связанных с сексуальными надругательствами над детьми».

Она добавила, что для устранения проблемы потребуется время, но быстрые изменения «просто приятно видеть».

В субботу Блю сказал: «В то время как корпоративные СМИ нагнетали страх и распространяли беспочвенные теории заговора о неспособности Маска бороться с сексуальной эксплуатацией детей в Твиттере с помощью якобы «команды скелетов», платформа на самом деле была занята удивительным прогрессом в защите сексуально эксплуатируемых. дети.»

«Я чрезвычайно благодарен за прогресс и изменения, внесенные Илоном Маском. За месяц он сделал то, что платформа не могла сделать за последнее десятилетие в отношении материалов о сексуальном насилии над детьми. Единственный раз, когда платформа добилась такого большого прогресса, — это когда они внедрили PhotoDNA».

Технология, о которой говорит Блю, была создана, когда Microsoft стала партнером Дартмутского колледжа в 2009 году. PhotoDNA помогает организациям находить и удалять известные изображения эксплуатации детей. Блю также призвал рекламодателей Twitter, которые покинули платформу, сославшись на Илона Маска в качестве причины, но ничего не сказал о медлительности Twitter, а иногда и об отказе удалить CSAM со своей платформы.

Ваши отзывы приветствуются. Если у вас есть какие-либо комментарии или проблемы или вы видите опечатку, вы можете написать мне по адресу .

Вы также можете подписаться на LinkedIn, ТвиттерИнстаграм и Фейсбук.

Твиттер Илона Маска работает над масштабным удалением материалов о сексуальном насилии над детьми без пощады для насильников.

Оставить комментарий