[ad_1]
Ogni volta che un’azienda pubblica un rapporto nel periodo tra Natale e Capodanno, quando la trazione del messaggio è particolarmente bassa, verrà accolto con un certo scetticismo da parte della stampa.
Questo è il caso di questa settimana, con L’ultimo aggiornamento delle prestazioni di X. Tra le continue preoccupazioni sull’approccio rivisto di moderazione dei contenuti della piattaforma, che ha visto rimanere attivi nell’app più post offensivi e dannosi, spingendo più partner pubblicitari a interrompere le loro campagne X, la società sta ora cercando di chiarire i suoi sforzi su un’area chiave, che Lo stesso Elon Musk aveva dato la priorità.
L’ultimo aggiornamento di X si concentra sui suoi sforzi per eliminare il materiale pedopornografico (CSSONO), che sostiene di aver ridotto in modo significativo attraverso il miglioramento dei processi negli ultimi 18 mesi. I resoconti di terze parti lo contraddicono, ma in numeri grezzi sembra che X stia facendo molto di più per rilevare e affrontare i contenuti pedofilia.
Anche se i dettagli qui sono rilevanti.
Prima di tutto, X afferma che sospenderà molti più account per aver violato le sue regole sul materiale pedopornografico.
Come da X:
“Da gennaio a novembre 2023, X ha sospeso permanentemente oltre 11 milioni di account per violazioni delle nostre politiche CSE. Per riferimento, in tutto il 2022, Twitter ha sospeso 2,3 milioni di account”.
Quindi X sta procedendo a più violazioni, anche se ciò includerebbe anche sospensioni e risposte errate. Il che è comunque meglio che fare di meno, ma questo, di per sé, potrebbe non essere un grande indicatore di miglioramento su questo fronte.
X afferma inoltre che sta segnalando molti più incidenti relativi a materiale pedopornografico:
“Nella prima metà del 2023, X ha inviato un totale di 430.000 segnalazioni alla CyberTipline dell’NCMEC. In tutto il 2022, Twitter ha inviato oltre 98.000 segnalazioni”.
Anche il che è impressionante, ma ancora una volta X ora utilizza anche il reporting NCMEC “completamente automatizzato”, il che significa che ogni post rilevato non è più soggetto a revisione manuale. Quindi vengono successivamente segnalati molti più contenuti.
Ancora una volta, si presume che ciò porti a un risultato migliore, poiché più rapporti dovrebbero equivalere a meno rischi. Ma anche questa cifra non è del tutto indicativa dell’efficacia senza che i dati del NCMEC confermino la validità di tali rapporti. Quindi i numeri delle sue segnalazioni sono in aumento, ma non c’è un mucchio di informazioni sull’efficacia più ampia dei suoi approcci.
Ad esempio, X, a un certo punto, ha anche affermato di aver virtualmente eliminato il materiale pedopornografico da un giorno all’altro bloccando l’uso degli hashtag identificati.
Questo è probabilmente ciò a cui X si riferisce qui:
“Non solo stiamo rilevando più malintenzionati in modo più rapido, ma stiamo anche costruendo nuove difese che riducono in modo proattivo la rilevabilità dei post che contengono questo tipo di contenuti. Una di queste misure che abbiamo recentemente implementato ha ridotto di oltre il 99% il numero di ricerche riuscite di modelli noti di materiale pedopornografico (CSAM) da dicembre 2022.”
Ciò potrebbe essere vero per i tag identificati, ma gli esperti sostengono che non appena X ha inserito alcuni tag nella lista nera, i venditori ambulanti di materiale pedopornografico sono passati ad altri, quindi, anche se l’attività su determinate ricerche potrebbe essersi ridotta, è difficile dire che anche questo sia stato altamente efficace.
Ma i numeri sembrano buoni, vero? Sembra certamente che si stia facendo di più e che la CSAM sia limitata nell’app. Ma senza una ricerca definitiva ed estesa, non lo sappiamo con certezza.
E come notato, approfondimenti di terze parti suggeriscono che la materiale pedopornografico è diventata più ampiamente accessibile nell’app grazie alle nuove regole e processi di X. A febbraio, il New York Times ha condotto uno studio per scoprire il tasso di accessibilità del materiale pedopornografico nell’app. Ha riscontrato che i contenuti erano facili da trovare, che X era più lento nel segnalare azioni rispetto a Twitter in passato (lasciandolo attivo nell’app per un periodo più lungo), mentre X non riusciva nemmeno a segnalare adeguatamente i dati delle istanze CSAM alle agenzie competenti (una delle agenzie in questione ha da allora notato che X è migliorato, in gran parte grazie ai report automatizzati). Un altro rapporto della NBC ha rilevato la stessa cosa, ovvero che, nonostante le proclami di Musk secondo cui stava facendo del rilevamento di materiale pedopornografico una priorità chiave, gran parte dell’azione di X era stata poco più che a livello superficiale e non aveva avuto alcun effetto reale. Anche il fatto che Musk avesse tagliato la maggior parte del team responsabile di questo elemento aveva potenzialmente esacerbato il problema, anziché migliorarlo.
A peggiorare le cose, X ha recentemente ripristinato l’account di un importante influencer di destra che era stato precedentemente bannato per aver condiviso contenuti CSAM.
Eppure, allo stesso tempo, Elon e Co. stanno promuovendo la loro azione per affrontare il problema dei materiali pedofilia come una risposta chiave ai marchi che riducono la loro spesa pubblicitaria X, poiché i suoi numeri, almeno a suo avviso, mostrano che tali preoccupazioni non sono valide, perché è , infatti, si sta facendo di più per affrontare questo elemento. Ma la maggior parte di queste preoccupazioni riguardano più specificamente i post e i commenti di Musk, non specificamente il CSAM.
In quanto tale, è un rapporto strano, condiviso in un momento strano, che apparentemente evidenzia lo sforzo di espansione di X, ma in realtà non affronta tutte le preoccupazioni correlate.
E se si considera anche che X Corp sta lottando attivamente per bloccare una nuova legge in California che richiederebbe alle società di social media di rivelare pubblicamente come effettuano la moderazione dei contenuti sulle proprie piattaforme, l’elenco completo delle informazioni non sembra quadrare.
In sostanza, X sta dicendo che sta facendo di più e che i suoi numeri lo riflettono. Ma ciò non dimostra in modo definitivo che X stia facendo un lavoro migliore nel limitare la diffusione di materiale pedopornografico.
Ma in teoria, dovrebbe limitare il flusso di materiale pedopornografico nell’app, intraprendendo più azioni, automatizzate o meno, su più post.
I dati suggeriscono certamente che X sta facendo una spinta maggiore su questo fronte, ma l’efficacia rimane in discussione.
[ad_2]
Source link