[ad_1]
Potrebbe non essere quello che è, ma l’ultima spinta di Meta sulla “responsabilità dei media” sembra un colpo a Elon Musk e all’approccio rivisto che X sta adottando alla moderazione dei contenuti nella sua app.
Oggi Meta ha delineato il suo nuovo quadro di responsabilità nei media, che sono i principi guida che sta applicando alle proprie linee guida sulla moderazione e sul posizionamento degli annunci, al fine di facilitare maggiore protezione e sicurezza per tutti gli utenti delle sue app.
Come spiegato da Meta:
“Il settore pubblicitario si è unito per abbracciare la responsabilità dei media, ma non esiste ancora una definizione a livello di settore. Noi di Meta lo definiamo come l’impegno dell’intero settore del marketing a contribuire a un mondo migliore attraverso un ecosistema pubblicitario più responsabile, equo e sostenibile.“
All’interno di questo Meta ha lanciato un nuovo minisito, dove delinea i suoi “quattro pilastri della responsabilità mediatica”.
Questi pilastri sono:
- Sicurezza ed espressione – Garantire che tutti abbiano voce in capitolo, proteggendo al tempo stesso gli utenti dai danni
- Diversità, equità e inclusione – Garantire che esistano opportunità per tutti e che tutti si sentano apprezzati, rispettati e supportati
- Privacy e trasparenza – Costruire prodotti con la privacy “al centro” e garantire la trasparenza nel posizionamento e nella misurazione dei media
- Sostenibilità – Proteggere il pianeta e avere un impatto positivo
Il mini-sito include panoramiche di ciascun elemento in modo più approfondito, insieme a spiegazioni su come, esattamente, Meta sta cercando di attuarlo all’interno delle sue piattaforme.
Meta afferma che lo scopo del mini-sito è consentire ai partner pubblicitari e agli utenti “to ritenerci responsabili e vedere con chi stiamo lavorando”, al fine di fornire maggiore garanzia e trasparenza nei suoi vari processi.
E sì, sembra un po’ come se Meta stesse prendendo di mira Elon and Co. qui.
Il nuovo team X si affida sempre più alla moderazione in crowdsourcing, tramite Note della comunitàche aggiunge fact-check originati dall’utente ai post che includono affermazioni discutibili nell’app.
Ma questo processo è difettoso, in quanto richiede un “consenso ideologico” per garantire che le note vengano visualizzate nell’app. E dato il disaccordo su alcuni argomenti controversi, tale accordo non sarà mai raggiunto, lasciando molte affermazioni fuorvianti attive e incontrastate nell’app.
Ma Musk ritiene che il “giornalismo cittadino” sia più accurato dei media mainstream, il che, almeno dal suo punto di vista, significa che le Community Notes riflettono maggiormente la verità reale, anche se parte di ciò può essere considerata disinformazione.
Di conseguenza, le affermazioni su COVID, la guerra in Israele, la politica statunitense, praticamente ogni argomento controverso ora hanno almeno una qualche forma di disinformazione che filtra su X, perché i contributori di Community Notes non riescono a raggiungere un accordo sui fatti fondamentali di tali argomenti.
Questo è uno dei motivi per cui così tanti inserzionisti stanno lontani dall’app, mentre lo stesso Musk continua a diffondere segnalazioni fuorvianti o false e ad amplificare profili dannosi, erodendo ulteriormente la fiducia nella capacità di X di gestire il flusso di informazioni.
Alcuni, ovviamente, lo considereranno l’approccio giusto, poiché consente agli utenti di contrastare ciò che vedono come false narrazioni mediatiche. Ma Meta sta adottando una strategia diversa, utilizzando i suoi anni di esperienza per mitigare la diffusione di contenuti dannosi, in vari modi.
Il nuovo mini-sito espone i suoi approcci in dettaglio, il che potrebbe aiutare a fornire maggiore trasparenza e responsabilità nel processo.
In ogni caso si tratta di una panoramica interessante, che fornisce maggiori informazioni sulle varie strategie e iniziative di Meta.
Puoi controllare il mini-sito sulla responsabilità dei media di Meta qui.
[ad_2]
Source link