Mainly Internet business, but also life mysteries and videogames

Tag: search engines

Google, non è ora di buttare il Pagerank?

Il PageRank è uno degli algoritmi del motore di ricerca di Google, utilizzati per dare rilevanza ai risultati di ricerca. Alle origini di Google, fu il solo e unico algoritmo creato dai due fondatori (Brin e Page appunto), sufficientemente innovativo da sbaragliare in poco tempo TUTTI gli altri motori di ricerca.

SEO Backlinks Pagerank image

A causa del successo di Google, mentre gli utenti erano sempre più felici di poter usare un motore così innovativo, dall’altra gli operatori del settore si ingegnavano a cercare modi per apparire in cima ai risultati. Poichè l’elemento principale della formula del PageRank è il “link”, chi ti linka, chi tu linki e come ti linkano, gli operatori del settore vollero sperimentare QUALUNQUE sistema (lecito ed illecito) per imborgliare il sistema di Google.

LE DUE FASI DI GOOGLE, DIFFONDERE E NASCONDERE — A pochi anni dal lancio di Google, il PageRank divenne il punto di riferimento per stabilire il successo di ogni sito Web. Sistemi come Alexa passarono subito in secondo piano, benché comunque autorevoli. Oggi, ogni sito web ha associato un numero che indica quanto si è autorevoli agli occhi di Google.

LA FOLLIA, LINKIAMOCI TUTTI — In questa fase di adozione del PageRank da parte di ogni Webmaster e operatore web, Google creò ad esempio la toolbar con la quale si permetteva di vedere il PageRank dei siti. In questi anni di cecità del Web, il mondo si popolò di Siti di Directory, Siti per Scambio Link, Siti con Footer simili alle Pagine Gialle, Siti pieni di Pagine e queste Pagine piene di Link, Link nelle firme, link camuffati, link dalle immagini, link in pagine nascoste, link di link di link, tutto per aumentare il PageRank dei siti linkati.

Come una falla in una petroliera carica e fuori controllo, Google interviene e introduce una serie di modifiche agli algoritmi della rilevanza che mitigano (a dire di Google) l’importanza del PageRank. Ma il Web degli operatori non ci crede, e mentre Google progetta e manifesta sistemi di confusione di massa, i link continuano a rimanere il caposaldo della rilevanza e, imperterriti, aumentano con tecniche nuove; link nascosti, link dai blog, link dai blog post, blog di link, link nei template, link dei link dei link dei link, siti di contenuti poveri, ma di link autentici, schemi di link, link dai Social, Siti cammuffati da Social, link hackerati, link rubati, link ovunque pur di far salire il PageRank.

E non serve nemmeno che Google rallenti la pubblicazione delle informazioni sul PageRank, poichè nel frattempo invece di un blog, gli operatori fanno 10 blog, invece di 1 articolo, fanno 100 articoli tutti uguali per chi legge, magari diversi per Google, invece di pagare uno sviluppatore, pagano degli hackers russi per far modificare WordPress di altri e nasconderci dei link. Poichè ogni cosa che appare sul Web diventa una copia di una copia di una copia (sempre per nasconderci un link da qualche parte), Google progetta armi di difesa chiamate “Panda” e “Penguin” (e chissà quanti altri animali farà diventare antipatici) per vanificare le copie di un blog, gli schemi di link, le pagine inutili con solo link, le pagine belle con solo 1 link, e ogni tanto, è inevitabile, qualche sito innocente rimane colpito (dopo tutto è una guerra).

LE VITTIME DI GUERRA — I siti innocenti, vittime della guerra degli animali di Google versus il mondo degli operatori del Web, sono dapprima pochi, poi sempre di più, infine tanti e, ad ogni nuova versione dello Zoo di Google, i siti innocenti sono così infuriati che Google è costretto a relazionarsi per la prima volta direttamente al pubblico attraverso la figura di “Matt Cutts” tentando di far capire che “va tutto bene”. Ma la inconcludente tesi di Google per la quale contano altre cose e non i link non fa smettere la fuga di petrolio e il Web si inquina sempre di più, le vittime innocenti aumentano sempre di più fino a quando Matt Cutts, oggi 1 Agosto 2013 ieri 1 Agosto, rispondendo ad una domanda di un webmaster, dice “Sì, vi daremo qualcosa per capire di più sui link che vi danneggiano”, un passo di Google che ammette un problema oramai troppo grande da lasciare in secondo piano.

Ma mentre Google prende tempo sedando le lemente con promesse storiche, di soppiatto modifica le linee guida aggiungendo nuove regole sempre più restrittive sui link, come ad esempio “se fate una press release e mettete un link, il link non deve avere come obiettivo quello di modificare volutamente il PageRank”, oppure “Se vi fanno un Articolo che parla del vostro sito, e SECONDO NOI quello è fatto per modificare il PageRank, allora sarete declassati”, oppure “se fate delle interviste e vengono pubblicate con dei link che SECONDO NOI hanno lo scopo di modificare il PageRank, sarete puniti”.

 

Insomma, Google,  facevi prima a scrivere “Non fate più link perché altrimenti violate le guidelines”.

 

Anche perché, è proprio colpa di questo PageRank se i risultati di ricerca sono 3 buoni e 7 “pompati”. Non è ora di fare davvero qualcosa di “non evil” come, ad esempio, prendere il PageRank e rottamarlo?

IL FUTURO È GIÀ NEL PASSATO —  Una delle mosse più intelligenti di Google fu anni fa quella di comprarsi Urchin, rinominarlo in Google Analytics e darlo a tutti gratuitamente. In questo modo Google è diventato negli anni l’NSA del Web. Sa dove si trova un utente in ogni momento, quello che fa, come lo fa, se torna indietro da una pagina web, oppure se sta su di un sito. Grazie a questi dati, Google oggi può stabilire in base al comportamente dell’utente se un sito web è “utile” o “meno utile” . Quando si fa una ricerca e si segue un risultato, si visita un sito e se non è quello che si cerca, si torna indietro e si va al risultato successivo, Google lo sa. Può collegare questo comportamento ad un punteggio di Qualità, il quale farà scomparire dalla ricerca quell’inutile sito. Con questo metodo, non mi interessa se il sito appare perché linkato dal link del link; semplicemente è l’utente a castigarlo e la guerra potrebbe finirebbe con gran beneficio di tutti.

Sperando di non scoprire poi  di non essere in una guerra, ma in una battaglia.

Google Universal Search? No, Web Search first.

Adwords è l’artefice del fatturato di Google, e la Ricerca ne è del successo. Dalla prima versione a oggi, parecchi sono gli esperimenti che Google ha introdotto, testato, scartato o adottato.

Se pensiamo al Google di sette anni fa, è una Ricerca a scompartimenti stagni; il web, le immagini, le news, i prodotti, ciascuno per i fatti propri. Se lo pensiamo oggi, è uno studio dei comportamenti degli utenti e una classificazione delle chiavi di ricerca per un risultato integrato, o “Universale”, come Google lo descrive.

La “Universal search” è il risultato delle esperienze da parte di un utente e delle risposte da parte di Google. Se la ricerca può essere completata da un video, Google mostrerà quel video; se la ricerca ha carattere di cronaca, le “news” occuperanno una posizione rilevante all’interno della pagine dei risultati di ricerca (o “SERP” per abbreviazione).

E non solo. Mentre Google studia come rappresentare al meglio la risposta per una ricerca, nello stesso tempo si prepara ad affrontare un passo tecnologico molto importante.

Tra tutti i componenti “nuovi” che sta introducendo grazie alla Universal Search, quello da cambiare in modo radicale è però uno vecchio: il risultato dal web!

Perché? E’ semplice. Il risultato dal web è quello che la gente usa di più, è quello che la gente utilizza meglio, è quello che alla gente dà maggiori risposte.

Il Web è il risultato più facile da consultare e anche quello più veloce. E’ il prodotto più importante di Google ed è il “contenuto” più consultato in assoluto on-line.

Che cosa Google deve cambiare del risultato web?

I risultati non possono più essere aggiornati “ogni tanto”. Le pagine devono essere lette ogni giorno e più volte al giorno. E’ ora che la SERP contenga pagine lette e controllate anche poche ore prima, che esse siano sempre più attuali e non solo rilevanti.

Questa “modifica” è già in corso, ma non ancora tale da rendersi palese a tutti e sostituire il Google che conosciamo oggi. Il risultato deve mostrere la data e l’ora di creazione o di ultima modifica, una discussione su di un forum sarà aggiornata spessissimo, un blog immediatamente ad ogni post.

In questo modo avremo la prima più grande rivoluzione della web search da quando la conosciamo riscritta da Google grazie al Pagerank. Non ci sarà più un risultato “vecchio”.

Come fa Google a fare tutto questo è questione di “potenza”, una delle tre chiavi di successo di Google, insieme a “velocità” e “rilevanza”. Potenza dello “spider”, quel processo che Google utilizza per scoprire e indicizzare le pagine web, che non passerà più sul vostro sito “una volta ogni tanto”, ma “sempre” o almeno tante volte quante gliene serviranno per non servire un risultato “vecchio”.

Potenza nell’estrarre dati strutturati dai forum, dai blog, da cataloghi web, da SERP di altri motori (se utili), da community, social network, recensioni e opinioni. Potenza nel riconoscere dati non strutturati, ma che possono essere interpretati secondo pattern logici per poi utilizzare al meglio nelle risposte agli utenti. Pensate ad un risultato web contenente un informazione sul meteo, sugli orari degli spettacoli al cinema o delle guide TV.

Ad esempio, pensate a questa attuale problematica. Apple stasera presenterà i nuovi Macbook portatili (in realtà lo ha già fatto e ne ho parlato qui, ma l’esempio calza a pennello). Se cerchiamo in Google “apple mac book”, almeno trenta siti occupano i risultati web con riferimento a questo evento, all’attesa, a come saranno e con che forma. Solo qualche sito parla del “macbook”, occupa i primi risultati, ma visitandoli si scopre che essi non trattano dei nuovi modelli, ma di quelli vecchi, quelli di un anno fa, eppure rilevanti secondo Google. Poi arrivano risultati tecnici, recensioni e pagine di negozi ritenute meno importanti in questo momento da parte di Google. Da notare che tale posizionamento declassato viene poi riponderato una volta che il trend di ricerche per “apple macbook” torna nella normalità.

Ma ora andiamo avanti di 24 ore. Steve Jobs finalmente presenta i nuovi Macbook. A 5 minuti dalla prima immagine, alcuni blog iniziano a scrivere del nuovo macbook. Dopo un’ora dalla conclusione dello speech, non solo blog, ma anche siti specializzati e giornalistici di tutto il mondo si stanno aggiornano con foto e dettagli.

Ebbene, Google nelle ultime 40 ore sta avendo dei terribili mal di testa per le ricerche “apple macbook”. La gente non riesce a trovare quello che cerca, perché risultati rilevanti del giorno prima escono prima dei siti “appena creati”, eppure più interessanti. Gli utenti devono trasformare la ricerca in “nuovo macbook di apple” “apple new macbook” o altre forme per cercare di filtrare i risultati e saltano velocemente titoli di risultati sperando che uno come “Ecco i nuovi macbook di Apple” sia un post di pochi minuti fa e non di ieri.

Chi vince? Oggi vincono i blog, Google li legge appena scrivono, ma Google vuole fare vincere tutti. Per farlo deve mandare lo spider continuamente su tutte le pagine, di più se un sito di informazione, di meno se un sito istituzionale. Deve metterci la data al risultato, dirci di quanti minuti fa è l’aggiornamento (non di quando lo ha letto, ma da quanto tempo è cambiata la pagina) e ricalcolarci la rilevanza quasi in tempo reale.

Potenza. Tutto questo significa potenza in nuovi server per contenere più dati, per gestire più processi di ricerca delle pagine, per eseguire nuovi algoritmi di estrazione e confronto dati.

Tutto questo significa che anche noi dobbiamo potenziare i nostri siti. Dobbiamo dare a Google nuove pagine, strutturate se non lo sono, e i nostri siti devono rispondere al quadruplo delle richieste del Googlebot, lo spider di Google, perché  Google sara’ sempre piu’ goloso di pagine.