Skip to main content

Elon Musk’s Twitter werkt aan het verwijderen van seksueel misbruik van kinderen (CSAM) op grote schaal zonder genade voor degenen die betrokken zijn bij deze illegale activiteiten. Andrea Stroppa deelde een thread op Twitter met updates over hoe Twitter is geëvolueerd van mildheid naar het probleem van kindermisbruik naar een frontale aanpak ervan.

Stroppa leidde het onderzoeksteam van Ghost Data en ontdekte dat meer dan 500 accounts het illegale materiaal openlijk deelden gedurende een periode van 20 dagen in september. U kunt het volledige rapport hier bekijken. In zijn thread merkte Stroppa op dat hij de afgelopen weken als onafhankelijk onderzoeker werkte in het Trust and Safety-team van Twitter onder leiding van mevrouw Ella Irin. “Twitter heeft een aantal relevante resultaten behaald die ik met je wil delen,” Stroppa twitterde.

Stroppa merkte op dat Twitter zijn mechanisme heeft bijgewerkt om inhoud met betrekking tot CSAM te detecteren en dat het sneller, efficiënter en agressiever is. “Geen genade voor degenen die betrokken zijn bij deze illegale activiteiten.”

In de afgelopen dagen is de dagelijkse schorsing van Twitter bijna verdubbeld, wat betekent dat het platform een ​​capillaire analyse van de inhoud uitvoert. “Het maakt niet uit wanneer illegale inhoud is gepubliceerd. Twitter zal het vinden en dienovereenkomstig handelen.

Stroppa wees erop dat Twitter in de afgelopen 24 uur zijn inspanningen begon op te voeren en 44.000 verdachte accounts verwijderde, en meer dan 1.300 van die profielen probeerden detectie te omzeilen door codewoorden en tekst in afbeeldingen te gebruiken om te communiceren.

Hij voegde eraan toe dat Twitter op de hoogte is van strategieën, zoekwoorden, externe URL’s en communicatiemethoden die door deze accounts worden gebruikt. “Twitter heeft onafhankelijke en deskundige derde partijen ingeschakeld om de veiligheid van kinderen te kunnen beschermen.”

Stroppa voegde eraan toe dat Twitter zijn inspanningen richt op netwerken van Spaanssprekende en Portugeessprekende gebruikers die CSAM delen. “Twitter heeft nog steeds teams die zich dagelijks bezighouden met het onderzoeken van en actie ondernemen tegen dit soort schendingen. Teams zijn vastberadener dan ooit en bestaan ​​uit gepassioneerde experts. Bovendien vereenvoudigde Twitter het proces van gebruikers die ongeoorloofde inhoud rapporteren.”

In een verklaring aan , zei Stroppa: “Als deze goede dingen gebeuren, is dat omdat Elon echt om de veiligheid van kinderen geeft. Met Elon delen we het idee van het licht van bewustzijn. Dit licht gaat door miljoenen mensen en verbetert een stukje van de wereld.”

Eliza Bleu, die Twitter heeft aangespoord om kinderen te beschermen voordat Elon Musk het platform kocht, benadrukte eerder dat de inhoud “op schaal” moest worden verwijderd. In augustus ontdekte The Verge dat Twitter CSAM niet op grote schaal kon detecteren.

“Twitter kan seksuele uitbuiting van kinderen en niet-consensuele naaktheid op schaal niet nauwkeurig detecteren”, het Rode Team, “om de beslissing om volwassen makers in staat te stellen geld te verdienen op het platform onder druk te zetten door zich specifiek te concentreren op hoe het eruit zou zien voor Twitter om te doen dit veilig en verantwoord.”

In haar eigen draadje, Eliza Bleu zei dat ze nooit had gedacht dat ze dit zou kunnen tweeten, maar “Twitter werkt momenteel aan het op grote schaal opsporen, verwijderen en rapporteren van materiaal over seksueel misbruik van kinderen.”

Ze voegde eraan toe dat het tijd kost om het probleem op te ruimen, maar de snelle veranderingen zijn “gewoon mooi om te zien”.

Op zaterdag vertelde Bleu: “Terwijl de bedrijfsmedia bang waren en ongegronde samenzweringstheorieën verspreidden over het onvermogen van Musk om seksuele uitbuiting van kinderen op Twitter aan te pakken met een vermeende ‘skeletploeg’, was het platform eigenlijk bezig met het boeken van verbazingwekkende vooruitgang in de bescherming van seksueel uitgebuite personen. kinderen.”

“Ik ben enorm dankbaar om de vooruitgang en de veranderingen te zien die onder Elon Musk zijn aangebracht. Hij heeft in een maand tijd bereikt wat het platform de afgelopen tien jaar niet leek te kunnen doen aan de kwestie van materiaal met seksueel misbruik van kinderen. De enige keer dat het platform eerder zoveel vooruitgang boekte, was toen ze PhotoDNA implementeerden.”

De technologie waarnaar Bleu verwijst, is ontwikkeld toen Microsoft in 2009 samenwerkte met Dartmouth College. PhotoDNA helpt organisaties bij het vinden en verwijderen van bekende afbeeldingen van uitbuiting van kinderen. Bleu riep ook Twitter-adverteerders op die het platform hadden verlaten en noemde Elon Musk als reden, maar zweeg over de traagheid van Twitter en soms de weigering om CSAM van zijn platform te verwijderen.

Uw feedback is welkom. Als je opmerkingen of zorgen hebt of een typefout ziet, kun je me een e-mail sturen op johnna at @JohnnaCrider1.

staat nu op TikTok. Volg ons voor interactief nieuws en meer. staat nu op TikTok. Volg ons voor interactief nieuws en meer. U kunt ook volgen op LinkedIn, TwitterenInstagram en Facebook.

Elon Musk’s Twitter werkt aan het op grote schaal verwijderen van materiaal met seksueel misbruik van kinderen, zonder genade voor misbruikers

Leave a Reply