È proprio così, molti tra noi sono diventati servi dei motori di ricerca.
I motori di ricerca sono nati per creare un indice delle risorse presenti sul web, indice che poi deve essere riordinato in base a qualche criterio. È idea comune che una lista di pagine ipertestuali vengano presentate nei risultati di ricerca in base alla loro importanza.
Ma come si fa a stabilire l’importanza di una risorsa oppure il suo maggior valore rispetto ad un’altra? Questo è il punto chiave di una strategia di indicizzazione e tassonomia di ogni motore di ricerca. Il più usato è Google, si sa che in passato usava una particolare formula (funzione), la quale si appoggia all’uso delle più o meno note catene di Markov.
Di certo c’è che oggi Google non utilizza più questa funzione o almeno la affiancata ad altre strategie. Per gli altri motori di ricerca la situazione è simile ma diciamo che propongono risultati decisamente scarsi: le liste di link che presentano nei risultati di una ricerca sono spesso e volentieri inquinate da un sacco di spazzatura. Ciò ha favorito l’uso quasi totale del motore Google.
Come molti sanno e studi (o ricerche) hanno dimostrato gli utenti che utilizzano un motore di ricerca si fidano completamente dei servizio e cliccano solo i primi risultati fra i 10 presentati di default.
Il primo risultato viene scelto dalla maggior parte degli utenti, mentre il secondo quasi da 1/10 delle volte.
Da qui, come molti di voi ben sapete, essere primi vuol dire molto traffico e molto traffico vuol dire molti soldi guadagnati con vari tipi di sponsorizzazione oppure molte vendite se si tratta di siti per l’e-commerce.
Così alcuni webmaster o proprietari di siti si sono decisi a fare di tutto per capitare nel primo posto, quello che offre maggior visibilità, anche a discapito del criterio di catalogare del motore di ricerca, insomma inquinando li risultati.
Un buon sito di ottima fattura e di eccellenti contenuti è quasi sempre favorito rispetto agli altri e un motore di ricerca che si rispetti lo considererà e lo premierà con le prime posizioni. Dunque perché non creare una pagina ben scritta con una formattazione impeccabile al fine di ritrovarsi in cima da soli?
Il problema sta proprio qui. Per ottenere questo “premio” bisogna occuparsi in modo certosino alla creazione della risorsa e molti non hanno tempo.
A questo punto si iniziano a studiare le strategie in modo empirico e sperimentale per il quale un motore di ricerca ordina le risorse per ottenere a volte anche “barando” una scalata nei risultati.
Un esempio: si sa che i motori di ricerca danno maggior rilevanza a pagine molto “linkate”, così si fa di tutto per ricevere link: commenti spam nei blog, inserimento della risorsa nel link in firma in un forum, creazione di pagine piene zeppe di riferimenti alla pagina da spingere, scambio di link, inserimento in directory…
Così i motori si trovano delle pagine che rovinano la qualità dei risultati e si pongono in allarme cercando metodi per evitare questi abusi. Abusi secondo loro, naturalmente; in quanto non esiste nessuna regola o legge che stabilisce che non si possano falsificare i risultati di una ricerca.
Ed ecco perché un sito o una risorsa viene rimossa (bannata) dal database di un search engine o peggio messa in una lista nera. È assurdo pensare che inserendo in firma il link a 1000 messaggi in un forum, non succeda qualcosa perché il motore abbia catalogato la risorsa linkata come spam.
Quindi occorrono buoni conoscenze per far il seo (search engine optimizer)? Sicuramente è così, non ci si può improssivare mai specialisti se non lo si è; è così anche nella vita reale.
Ma, forse, la domanda è: dobbiamo essere schiavi dei motori e fare di tutto perchè ci accettino?
Per cui ci iscriviamo a Google Webmaster, inseriamo il codice di Google Analytics nel sito, spingiamo tutti gli utenti a iscriversi rigorosamente al feed usando Google Reader, usiamo Google Adsense per monetizzare i contenuti del sito…
Ed eccoci fregati. Ora il grande fratello dei giorni nostri sa tutto sul nostro sito. Sa quanti visitatori ha, sa quanti sono quelli che realmente leggono il feed del blog, sia più di noi. È ovvio che se il sito fa 200 visite uniche quotidiane mentre quello del nostro rivale ne fa 20000, qualcosa vorrà dire. Il secondo verrà posto su un piedistallo mentre il nostro finirà nelle retrovie.
Oramai Google sa. Quindi per un piccolo sito le cose si fanno difficili, insomma è necessario rimuovere ogni possibile controllo da parte di Google. Bisogna rinunciare alle statistiche, facilmente sostituibili da altri software. Ma come fare per guadagnare se si tolgono gli annunci pubblicitari?
Ecco perché siamo diventati schiavi dei motori. Sia perché loro ci sono indispensabili perché ci portano visitatori e sia perché ci mantengono. E se un giorno qualche meccanismo decidesse di eliminare dai risultati il nostro sito in quanto qualche furbo search engine optimizer ha fatto di tutto per farci escludere (spam, black hat seo…).
Un motivo in più per liberarci dei motori di ricerca che sono i servizi meno democratici che si possono trovare sulla democratica Internet.
Lasciamo perdere l’ottimizzazione dei motori di ricerca, anzi boicottiamoli: iniziamo a inserire un piano piano un gruppo di link no follow nel proprio sito e via via che passa il tempo trasformiamoli tutti cosicché non riescano più a stabilire cosa è veramente importante. Anche altre iniziative più o meno drastiche possono essere prese: esclusione di Googlebot e degli altri bot al sito inserendo un apposita direttiva nel file robots.txt, scrivere articoli sulla questione…
Cominciamo a usare servizi del popolo di Internet come le reti sociali: facebook, digg, stumble upon, slashdot. Ma anche i buoni e “tradizionali” forum dove si possono trovare risorse di fantastica completezza, non tralasciando anche Wikipedia. Provare per credere!
Insomma liberi da Google, Yahoo, MSN live, Ask…
Lascia un commento