[ad_1]
Vedi altri consigli spazzatura nel tuo feed “Per te” su Threads?
Non sei solo. Secondo il capo di Instagram Adam Mosseri, questo è diventato un problema per l’app e il team di Threads sta lavorando per risolverlo.
Come sottolineato da Mosseri, a più utenti di Threads sono stati mostrati contenuti limite nell’app, il che è un problema che il team sta lavorando per risolvere, mentre continua a migliorare la piattaforma vecchia di 6 mesi.
Sebbene il problema dei contenuti borderline non sia nuovo per le app social.
Nel 2018, il capo di Meta Mark Zuckerberg ha fornito un’ampia panoramica dei problemi attuali relativi al consumo di contenuti e di come i contenuti controversi inevitabilmente guadagnino sempre più popolarità.
Secondo Zuckerberg:
“Uno dei maggiori problemi che i social network devono affrontare è che, se lasciati senza controllo, le persone si impegneranno in modo sproporzionato con contenuti più sensazionalistici e provocatori. Questo non è un fenomeno nuovo. Oggi è molto diffuso nei notiziari via cavo ed è stato un punto fermo dei tabloid per più di un secolo. Su larga scala può minare la qualità del discorso pubblico e portare alla polarizzazione. Nel nostro caso, può anche peggiorare la qualità dei nostri servizi.“
Zuckerberg ha inoltre osservato che questa è una sfida difficile da risolvere, perché “non importa dove tracciamo i limiti per ciò che è consentito, man mano che un contenuto si avvicina a quel limite, le persone in media si impegneranno di più con esso, anche quando in seguito ci dicono che non gli piace il contenuto.
Sembra che Threads stia ora cadendo nella stessa trappola, forse a causa della sua rapida crescita, forse a causa del perfezionamento in tempo reale dei suoi sistemi. Ma è così che si evolvono tutti i social network, con i contenuti controversi che ricevono una spinta maggiore, perché è in realtà ciò con cui molte persone interagiranno.
Anche se avresti sperato che Meta avesse un sistema migliore per affrontare tali problemi, dopo aver lavorato sugli algoritmi della piattaforma più a lungo di chiunque altro.
Nella sua panoramica del 2018, Zuckerberg ha identificato la deamplificazione come il modo migliore per affrontare questo elemento.
“Questo è un problema fondamentale di incentivi che possiamo affrontare penalizzando i contenuti borderline in modo che ottengano meno distribuzione e coinvolgimento. [That means that] la distribuzione diminuisce man mano che i contenuti diventano più sensazionali e le persone sono quindi disincentivate dalla creazione di contenuti provocatori il più vicino possibile alla linea.“
In teoria, questo potrebbe funzionare, ma evidentemente non è stato il caso di Threads, che sta ancora cercando di capire come fornire un’esperienza utente ottimale, il che significa mostrare agli utenti i contenuti più coinvolgenti e interessanti.
È un equilibrio difficile perché, come nota Zuckerberg, spesso gli utenti interagiscono con questo tipo di materiale anche se dicono che non gli piace. Ciò significa che generalmente è un processo di tentativi ed errori, nel mostrare agli utenti cose più limite per vedere come reagiscono, per poi ridurle, quasi utente per utente.
In sostanza, questo non è un problema semplice da risolvere su larga scala, ma il team di Threads sta lavorando per migliorare l’algoritmo per evidenziare contenuti più rilevanti e meno controversi, massimizzando al tempo stesso la fidelizzazione e il coinvolgimento.
La mia ipotesi è che l’aumento di questi contenuti sia stato un po’ un test per vedere se è quello che vogliono più persone, affrontando anche un afflusso di nuovi utenti che stanno testando l’algoritmo per scoprire cosa funziona. Ma ora si sta lavorando per correggere l’equilibrio.
Quindi se vedi più spazzatura, ecco perché, e ora, secondo Mosseri, dovresti vederne di meno.
[ad_2]
Source link