I “Guardoni” dei siti e le implicazioni dopo il Panda

I guardoni dei siti

In questi giorni di lancio dell’algoritmo panda, si fanno pressanti i controlli e impazzano le paranoie: “sarà stato penalizzato il sito del mio cliente (o il mio) ? E di quanto ? “.

In questa situazione, ancora un poco sonnacchiosa a dire il vero (probabilmente moltissimi sono in vacanza senza connessione), emerge un dato: Searchmetrics ha pubblicato delle tabelle con le perdite (e i guadagni) dei siti principali su varie nazioni. (il post è in tedesco, quando ci sarà in inglese correggerò il link).

Chiaramente la cosa ha suscitato un certo interesse (e polemica) sul blog del taglierbe dove si stava svolgendo una discussione in merito e la domanda di rito è saltata fuori: “Come li calcola searchmetrics questi valori?“.

I grandi numeri

Andando a cercare in rete ho trovato un post di un altro Seo in inglese, che spiega come viene fatta la stima e perchè è sbagliata. Cerco di spiegarlo per punti:

  • Searchmetrics monitora milioni di domini (55 milioni)
  • Searchmetrics monitora milioni di keywords (25 milioni)
  • Searchmetrics controlla le posizioni sulle serp dei domini indicati, con le keywords indicate.
  • In base alla posizione sulla serp, Searchmetrics assegna una “quota” di visitatori ad ogni dominio per ogni keywords.

L’ultimo punto è quello più importante: la quota viene calcolata probabilmente in questo modo:

(Traffico mensile stimato da google) x (indice% dovuto alla posizione su google)

 Cos’e’ questo Indice% ?

Non potendo avere accesso ai dati reali di traffico di 55 milioni di domini, Searchmetrics (e non solo loro) si basano su una assunzione di base:

Una percentuale di utenti maggiore, tenderà a cliccare più spesso sui risultati all’inizio della Serp rispetto a quelli nelle zone più basse.

Partendo da questo principio e tenendo in considerazione Universal Search, Searchmetrics assegna un indice FISSO per una certa posizione, per ipotesi la posizione UNO di una certa keywords, vale il 30% del traffico mensile stimato da google. 

Se il traffico è 10.000 ricerche potenziali, la posizione UNO con una keywords vale 3000 visite potenziali.

Funziona o non funziona ?

Questo metodo è una approssimazione, perchè si basa sull’osservazione esterna (l’analisi della Serp) e non sui dati reali di traffico: Searchmetrics stessa la chiama “Seo Visibility”, ovvero il potenziale di traffico organico generabile dalle ricerche organiche. Non tiene conto del traffico diretto (quelli che hanno i bookmarks nel browser o lo digitano direttamente), non tiene conto del traffico da social media o dal traffico proveniente da altri siti.

Ma allora a che serve ?

A fare confronti! Quando una ditta ha tanti competitor e tanti prodotti, è interessante vedere come si posiziona globalmente rispetto agli altri. Pensate ad un GROSSO ecommerce con migliaia di articoli! Tenere traccia del posizionamento di tutti i prodotti sarebbe un lavoro tedioso e molto dispensioso in termini di risorse umane e apparecchiature. E non mi interessa sapere se la “muta da sub per bambini” è posizionata sopra o sotto ai miei competitor, perchè ho altri 9999 prodotti come quello!

Ecco che gli strumenti come searchmetrics danno una visione d’insieme, approssimativa certo, ma quantomeno presentabile all’assemblea degli azionisti 🙂 (e state pur certi che lavorando con grossi clienti vi chiederanno “ma il concorrente X come ha fatto a fare di più di noi?”).

Quanto è affidabile questo dato per l’Italia ?

A questa domanda non so rispondere, dovremmo farci dire da Searchmetrics:

  • Quante e QUALI keywords stanno monitorando per l’italia
  • Quanto valgono i risultati di universal search rispetto a quelli organici normali?
  • I valori su cui sono basati, sono presi dalla stima del keyword tool di google ?
  • Leggono i dati tramite proxy italiano su google.it ? (può cambiare di molto)
In manca di questi dati è impossibile valutarne la precisione.

E voi lo sapete misurare il vostro traffico organico in analytics ?

Mi scusino gli esperti, ma ci sono pur sempre persone che hanno bisogno di essere iniziate 🙂

  • Entrate in analytics
  • Cliccate su Sorgenti di traffico
  • Cliccate su Parole Chiave
  • Cliccate su traffico “non a pagamento”
  • Nella finestra in basso del filtro parola, selezionate “tralascia” e inserite nel campo apposito le parole chiave da escludere, separate da “|” (pipe). Nel mio caso ho escluso ” Andrea|scarpetta|www” per escludere le ricerche di chi mi conosce per nome del sito e quelli che hanno messo www.andreascarpetta.com su google.
Il mio esempio di traffico organico

8 thoughts on “I “Guardoni” dei siti e le implicazioni dopo il Panda

  1. Ottimo post! Ma fondamentalmente sono d’accordo con te, sono valori indicativi… e può essere utile come punto di partenza per analizzare i fattori penalizzanti. Personalmente non ho perso troppo tempo a guardare le stats, è bastato constatare che per i nostri siti Panda è un sentito dire, qualcosa di impercettibile che non tocca i white hat 😀 Panda o non Panda la soluzione è sempre la stessa, non imbrogliare, lavorare bene e con qualità, non ci sarà update che tenga : D buone ferie!

  2. Searchmetrix non calcola il traffico ma il ranking index, dove assegna per esempio 10 punti al posizionamento top, 5 alla seconda posizione, ecc fino alla decima o alla ventesima

    E’ il modo più sicuro per calcolare la crescita o diminuzione del traffico ipotetico di un sito visto che diversamente dal traffico, il ranking index non soffre di stagionalità

    Webceo tra l’altro offre una funzione identica all’interno del software che consente dim onitorare più siti assegnando punteggi personalizzati

  3. Non è attendibile per l’Italia secondo me perchè Liquida non ha più traffico di Repubblica e neanche del Corriere. come la mettiamo?

    1. Ciao Luca!

      Io non conosco i dati di traffico “Organico Unbranded” di Repubblica e del corriere, ma se penso ai clienti editoriali che seguo per lavoro, il traffico “organico unbranded” è sicuramente un dato di minoranza rispetto al traffico diretto, al traffico dai social e al traffico “organico BRAND”. Da liquida mi sarei aspettato invece un traffico “organico unbranded” molto più grande, sfruttando una long tail enorme, che le testate giornalistiche non hanno.

      Non abbiamo modo di capire l’attendibilità se non guardando l’elenco delle parole chiave monitorare!

      Facciamo partire un sondaggio tra i possessori di siti ? 🙂

  4. Queste stime che si basano sulle SERP non hanno nessun valore nel determinare se un sito è stato colpito o meno da questo Panda, anche perchè stiamo parlando di un update ad un algoritmo segreto di Google, che ha già 200 variabili logico-relazionali…. ora ce ne un’altra in più ??? Ve lo do io un dato visto con miei occhi… ho visto sparire circa 700 milioni di pagine dalle SERP di Google con la keyword = SEO in sole 48 ore!!!

  5. Riporto anch’io la mia esperienza: con l’aggiornamento Panda, ora Google riporta prima nella SERP gli articoli dal mio sito e non come prima che i siti “aggregatori” addirittura offuscavano i miei articoli.

    Di fatto è quello che ci si aspetta: chi aggiunge il proprio feed ad un aggregatore lo fa con la speranza che chi si trova per caso sul sito dell’aggregatore, sia poi attirato dalla notizia presa dal nostro feed e ci venga a far visita.

    Invece il comportamento più diffuso era quello di vedere penalizzato il nostro sito per “copia” laddove era addirittura l’originale.

    Viva il Panda !

Comments are closed.