Site icon LSDI

A proposito di commenti (segnalazioni dal mondo)

Questa settimana ritornano le nostre segnalazioni dal mondo: a proposito di moderazione di commenti e di hate speech trovate qui sotto stralci di contenuti dalla rete che offrono spunti di riflessione.

 

<<Se nella gestione dei commenti per un sito d’informazione si consente a questi di “esplodere” e diventare commenti malevoli quando le questioni sono meno importanti, imploderanno quando emergeranno problemi reali.>>

 

Queste le parole di Chris Krug, presidente del Franklin Center, che leggiamo all’interno del post che sostiene la tesi che Editori e giornalisti falliscono quando la trasparenza è assente nella gestione dei commenti dei lettori.

 

 

<<i commenti rappresentano un modo significativo di interagire con i lettori e hanno permesso una crescita online esplosiva a quello che poteva rappresentare l’accesso alla rete per la maggior parte dei giornali che cercano di accrescere la loro presenza digitale>>

 

<<I commenti  sono diventati una “macchina per click” dei media, alimentando i loro siti dando visibilità a contenuti che altrimenti non avrebbero interessato molti.  Dal momento che il giornalismo mainstream continua a diminuire, i commenti spesso, sono più interessanti e intuitivi rispetto ai contenuti a cui sono legati.>>

 


 

 

Anche Journalism.co.uk  si occupa di moderazione dei commenti: leggiamo che Il Washington Post (ecco di nuovo le sperimentazioni di Bezos)  inizia a utilizzare Talk, uno strumento open source per migliorare la moderazione dei commenti online.

 

 

Le funzioni di Talk sono progettate per rendere migliore l’esperienza di moderazione sia per i lettori che per i moderatori.

 

<<Lo strumento è sviluppato da The Coral Project, iniziativa congiunta di Mozilla, Washington Post e New York Times, inizialmente sostenuta dalla Fondazione Knight e finanziata dal Fondo Democrazia, dalla Fondazione Rita Allen e da Mozilla.

 

Talk è attualmente disponibile all’interno di tre sezioni del washingtonpost.com – business, policy e The Switch blog. 

 

Lo strumento, lanciato in beta nel mese di marzo e attualmente alla sua terza versione, può essere installato da qualsiasi redazione utilizzando la documentazione disponibile e  viene aggiornato regolarmente >>

 

<<La suite include Ask,  uno strumento open source che permette di ricevere contenuti generati dagli utenti e contributi da parte dei lettori durante gli eventi programmati, è attualmente utilizzata da 13 redazioni e fornisce  una guida completa sulle migliori pratiche per la creazione di comunità online.>>

 

Come funziona?

 

 

<<Le funzioni di Talk sono state progettate per migliorare l’interazione sia per gli utenti sia per il moderatore. Ad esempio, i lettori sono in grado di visualizzare la cronologia dei loro commenti, di “bloccare” i commentatori indesiderati e ordinare i commenti ad una notizia in base a criteri diversi.

Lo strumento consente inoltre ai moderatori di guidare la conversazione ponendo domande sul tema. I moderatori sono identificabili grazie un badge presente sul loro profilo… 

 

La struttura plug-in di Talk consente alle organizzazioni di modificare la funzionalità degli spazi di commento, ad esempio rendendoli diversi o più restrittivi a seconda della notizia a cui fanno riferimento. >>

 

 

Quale potrebbe essere un problema ricorrente all’origine delle difficoltà di moderazione dei commenti?

 

 

<<… i media si avvicinano molto spesso a questo spazio senza alcuna strategia o comprensione di ciò che possa succedere >>

 

Quelle riportate sono le parole di Andrew Losowsky, responsabile del The Coral Project. L’affermazione di Losowsky si comprende bene grazie all’esempio riportato da Journalism.co.uk e che inseriamo di seguito:

 

 

<<Se stai raccogliendo cibo per donarlo, potresti mettere una scatola di cartone sul marciapiede, camminare per un paio di giorni, poi tornare indietro e sperare che le persone abbiano messo cibo al suo interno. Probabilmente invece le persone stanno usando quella scatola per metterci i rifiuti.

 

 

Potresti, invece, metterti fuori da un supermercato e scrivere sulla scatola quello che desideri, e se le persone ci buttano spazzatura tirarla fuori. Ma se le persone mettono cibo, puoi scrivere sulla scatola che tipo di cibo ti interessa, e se le persone comprendono ciò che stai chiedendo potrebbero portarti quello che davvero desideri.

 

 

La maggior parte delle strategie per la moderazione dei commenti si sono mosse seguendo il primo approccio…

 

 

il progetto Coral si è concentrato su come rendere i commenti “parte della missione giornalistica”, invece di guardarli isolatamente >>

 


 

 

Ancora sui commenti, dal blog dell’Associazione Wan Ifra     abbiamo trovato una lunga e interessante intervista di cui riportiamo alcuni stralci.

 

Il titolo è potente:

“Gestione dei commenti del lettore: ‘Gli algoritmi decidono in modo più oggettivo'”

 

 

A pronunciare la frase Nicolai Erbs - ricercatore di informatica dell’Università Tecnica (TU) di Darmstadt in Germania che affronterà proprio questo argomento al prossimo IFRA / DCX   il 12 ottobre a Berlino   e ha inoltre  condotto una ricerca sul monitoraggio dei commenti online. 

 

 

<< La gestione dei commenti dei lettori è un compito difficile per gli editori >>

 

 

Per supportare i moderatori, Erbs e un team di ricercatori del TU, hanno sviluppato algoritmi intelligenti per automatizzare la classificazione dei commenti.

 

 

<< Come primo passo, abbiamo voluto indagare quali tipi di commenti esistono. Era nell’interesse della ricerca…

Ora vogliamo sapere se la moderazione possa  essere automatizzata. Un quotidiano leader in lingua tedesca e una casa editrice indiana sono nostri partner e stiamo lavorando insieme per valutare i risultati di tale ricerca >>

 

L’intelligenza di un algoritmo si riferisce direttamente alle caratteristiche del linguaggio utilizzato. Una comprensione fondata della lingua è essenziale per lavorare. Ma se un sistema funziona, può essere applicato anche ad altri supporti.

 

Abbiamo scelto un algoritmo classico per il riconoscimento del modello anziché uno che utilizzasse il deep learning, perchè vogliamo essere sempre in grado di fornire una spiegazione del motivo per il quale quella particolare cosa è stata classificato in un certo modo.

 

A tal fine, facciamo un confronto tra articoli e commenti e controlliamo le relazioni semantiche fra essi.

 

Osserviamo anche le costruzioni grammaticali, ad es. quanto sono complicate le frasi  e quanto è  sofisticata la scelta  degli argomenti. Naturalmente, queste sono solo indicazioni. Il sistema di classificazione si basa su molte caratteristiche per riuscire a comprendere e riconoscere l’eventuale necessità di  filtrare un commento.

 

Ma come possiamo dire che l’algoritmo è obbiettivo rispetto alla persona? Ecco cosa risponde Erbs:

 

 

<<In che misura la segnalazione obiettiva dell’algoritmo è minacciata se si presta troppa attenzione ai pareri dei lettori?

 

Erbs: “Il pericolo esiste, ma il problema è sempre lì ed è solo spostato di qualche grado. I moderatori attualmente filtrano i commenti inadeguati. Ma questa è una decisione puramente soggettiva.

 

Abbiamo spesso visto commenti un giorno, ma non il giorno successivo – semplicemente perché erano più o meno “vicini” al modo di agire del moderatore.

 

Gli studenti che lavorano come assistenti temporanei (in questi ruoli) spesso non hanno una formazione adeguata. Gli algoritmi decidono molto più obiettivamente.”

 

A condizione che l’algoritmo si basi su regole oggettive e comprensibili …

 

Erbs: ” Sì, esatto. L’algoritmo apprende dalle decisioni passate. Inizialmente il moderatore, in un certo modo, copia a seconda di come è stato deciso in passato. E se è stata  mostrata una tendenza forte in una certa direzione, l’algoritmo mostrerà la stessa tendenza.” >>

 

 


 

 

Exit mobile version