Google Panda: pro e contro sull'ultimo algoritmo di Big G

Google Panda: pro e contro sull'ultimo algoritmo di Big G

Google Panda costituisce un aggiornamento dell'algoritmo di indicizzazione dei siti web, che, a quanto spiegato dalla casa madre, dovrebbe premiare la qualità delle informazioni. Ma è davvero cosi? Andiamo a scoprirlo insieme nelle prossime righe.

Cosa ha portato a Google Panda

I criteri su cui si è lavorato per penalizzare i siti di scarsa qualità sono molteplici: innanzituttto, "Big G" ha deciso di darci un taglio con i siti pieni "zeppi" di pubblicità. Qualora infatti, da fine estate scorsa, l'algoritmo di analisi riveli una percentuale di pagina dedicata agli spot troppo elevata, applicherà le sue penalizzazioni. Inoltre, l'analisi di un sito procede anche con l'aspetto qualitativo dei contenuti stessi: se essi sono scarsi, scatta l'abbassamento del "ranking" del sito. Ma va chiarito il concetto di contenuto scarso: l'algoritmo infatti ritiene di bassa qualità contenuti replicati da altri siti o che semplicemente si rifanno a quelli presentati altrove. Per completezza, va anche spiegato che il controllo agisce su qualsiasi tipo di media esposto all'interno di un sito: quindi dimenticatevi di apporre video già presenti su Youtube, su altri siti, su social network e quant'altro, se intendete far salire le visualizzazioni del vostro portale o blog.

Inevitabili dubbi su Google Panda

I dubbi leciti giungono però quando si parla di Google Analytics, e cioè lo strumento che la compagnia ha per determinare le varie statistiche del sito. Basta infatti leggere tre fattori di penalizzazione per capire che qualcosa, in Panda, suscita non poche perplessità. Il controllo dei vari siti penalizza infatti quelli con bassi tempi di permanenza, quelli con alta percentuale di bounce (che letteralmente significa "rimbalzo", ovvero il tempo in cui rimango su un sito prima di cambiare) e quelli con bassa percentuale di "click trough" (ovvero tutti i click che io faccio attraverso un sito dal momento in cui sono entrato a quello in cui me ne vado).
Ma analizziamo separatamente i tre aspetti, primo fra tutti il tempo di permanenza: mettiamo il caso che il mio portale sia fatto di notizie "flash" su un settore particolare(moda, spettacolo, o altri). Il novanta per cento degli utenti che lo visita spesso, non farà altro che cliccare, leggere per pochi secondi l'ultima notizia e lasciare il mio sito, penalizzandomi ingiustamente.
Andiamo avanti con il cosiddetto click trough. Infatti, se il mio sito è un blog costituito da poche pagine (ma da notizie interessanti, ben redatte e ben scelte), ho un'ulteriore penalità solamente perché gli utenti "cliccano troppo poco" attraverso le pagine: il che contravviene a una delle leggi che ha ispirato finora i webmaster di tutto il mondo, e cioè quella di progettare siti che, con pochi click, ti dessero il maggior numero di informazioni a portata di mano.
E per ultimo, il bounce rate, che da oggi renderà pericoloso creare i famosi (e pure utili) siti di indicizzazione specifica su un argomento: per intenderci, quelli dove trovavamo liste dei migliori siti di risorse di un settore (migliori siti fotografici, migliori siti dove scaricare programmi gratuiti, etc.).
Come sempre, il nuovo algoritmo ha dato certezze e perplessità, ma le conclusioni, in base al settore del web da voi occupato (utenti o webmaster), potrebbero variare.