Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

Il problema della qualità nell’ informazione digitale

contentfarm

I responsabili dell’ aggiornamento dell’ algoritmo di Google che gestisce le classifiche dei risultati delle ricerche e il ranking dei siti web spiegano i criteri con cui è stato messo a punto il meccanismo di rivalutazione della qualità dei contenuti – Intanto dalle esperienze compiute dopo l’ applicazione dell’ aggiornamento il dibattito ha fatto emergere una serie di indicazioni per risalire nelle classifiche – Contenuti di bassa qualità, in particolare, possono provocare la perdita di posti di classifica per l’ intero sito

————

Che cos’ è la qualità nella produzione di cointenuti di siti web? In alcuni casi – vedi le cosiddette ‘’content farm’’, le fabbriche di contenuti – si arriva alla soglia dello spam: come definire questa soglia? Come determinare che un sito è superificiale e produce contenuti di bassa qualità?

Google ha cercato di mettere a punto un meccanismo empirico che desse una risposta a questi interrogativi. Ne aveva bisogno per far partire l’ operazione ”Panda’’ (è solo il nome di un ingegnere di Mountain View),  quel complesso aggiornamento del suo motore di ricerca che ha interessato quasi il 12% dei risultati delle ricerche, come racconta Davide ‘’Tagliaerba’’ Pozzi nel suo omonimo blog.

L’ operazione puntava a ridimensionare le classificazione dei siti con contenuti di bassa qualità, che riuscivano però a posizionarsi meglio dei siti con contenuti qualitativamente superiori, e a consentire la giusta classifica dei siti apprezzati invece per la qualità dei loro contenuti. Il tutto fra molte polemiche, naturalmente.

Il meccanismo è stato spiegato bene qualche giorno fa da Amit Singhal e Matt Cutts, i due responsabili del progetto, in una intervista a Wired, di cui Tagliaerbe riporta alcuni passi.

W.: Come fate a riconoscere un sito con contenuti superficiali? Potete dare una definizione di contenuti di bassa qualità?

A.S.: Questo è un problema molto, molto difficile che cerchiamo di risolvere, e siamo in una continua evoluzione per cercare di farlo. Abbiamo voluto mantenere un approccio rigorosamente scientifico, e quindi abbiamo usato il sistema di valutazione standard che abbiamo sviluppato, dove in pratica inviamo i documenti a dei tester esterni. A queste persone abbiamo posto domande del tipo: “Ti fideresti a dare il tuo numero di tua carta di credito a questo sito? Ti fideresti a dare le medicine prescritte da questo sito ai tuoi figli?”

M.C.: Un ingegnere ha preparato un set di domande molto rigorose, del tipo “Consideri autorevole questo sito? Sarebbe OK se questo sito fosse una rivista? Questo sito ha un numero eccessivo di annunci pubblicitari?” e così via.

A.S.: Sulla base di questo, abbiamo fondamentalmente definito cosa può essere considerato di bassa qualità. Inoltre abbiamo lanciato il Chrome Site Blocker, ma non abbiamo utilizzato i dati raccolti per questo update. Tuttavia, confrontando tali dati, abbiamo notato un 84% di sovrapposizione, che ci ha fatto capire che siamo nella giusta direzione.

W.: Ma come avete implementato questa cosa algoritmicamente?

M.C.: Penso che l’ingegnere cerca di riportare la sua stessa intuizione e la sua stessa “experience” agli utenti. Ogni volta che guardiamo ai siti che abbiamo bloccato, grazie alla nostra intuizione e alla nostra esperienza, cerchiamo di capire se questa cosa sarà o meno di valore per l’utente. E attualmente l’idea è quella di classificare i siti di alta qualità da una parte, e quelli di bassa qualità dall’altra.

A.S.: Immagina un iperspazio con un sacco di puntini: alcuni rossi, altri verdi, altri mischiati. Il nostro compito è trovare un piano che ci dica che la maggior parte delle cose che stanno da un lato sono rosse, e la maggior parte delle cose che stanno sull’altro lato sono l’opposto del rosso.

(….)

M.C.: In un certo senso, quando la gente va su Google è esattamente quello che chiede – un giudizio editoriale. E questo è espresso tramite un algoritmo. Quando qualcuno va su Google, l’unico modo per essere neutrali è di mostrare i link a caso, oppure in ordine alfabetico. Il punto cruciale è che dobbiamo avere la possibilità di modificare la classificazione delle cose, per migliorare il motore di ricerca.

W.: Alcuni dicono che dovreste essere trasparenti, per dimostrare che non fate questi algoritmi per agevolare gli inserzionisti.

A.S.: Posso dire categoricamente che non sono i soldi a impattare sulle nostre decisioni.

Ma cosa deve fare un sito colpito dal Google Panda Update per riguadagnare le posizioni perse all’interno dei risultati del motore di ricerca? Dopo l’ iniziativa della casa di Montain View, molti webmaster stanno discutendo del problema.

In sintesi, secondo Taglaerbe, si possono ricavare alcune lezioni:

• contenuti di qualità sostanzialmente bassa possono causare la perdita di ranking dell’intero sito (anche se questo ha pagine di alta qualità)
• cerca le pagine di bassa qualità (non utili, scritte male, duplicate o inconsistenti) e rimuovile
• l’esperienza complessiva dell’utente è importante: design, usabilità, rapporto fra pubblicità e contenuti, percezione del brand
• verifica sia i contenuti che il template del sito (è un template che inserisce un sacco di pubblicità nelle pagine? viene mostrata all’utente un’interfaccia scadente?)
• una volta che sei certo che i contenuti sono di alta qualità, poni attenzione a engagement e awareness (attraverso i social media e altri canali)
• diversifica in vari canali e persino all’interno della ricerca, guarda al di là della web search verso Google News e i risultati “one box” come blog, immagini e video
• possiamo imparare qualcosa dalle content farm, in particolare il loro modo di individuare ciò che interessa al pubblico e le risposte che vogliono dare, nonché le tecniche che utilizzano per sfruttare il crowdsourcing

Il messaggio ufficiale di Google, insomma, è questo: contenuti di bassa qualità su una parte del sito possono impattare sul posizionamento di tutto il sito.

E quindi èbene cercare ed eliminare quelle parti.