Come si è evoluta la SEO in Friuli Venezia Giulia

Un numero via crescente di imprenditori e professionisti sta iniziando a comprendere l’importanza della SEO e la necessità di un buon ranking nelle pagine di Google. Ma come si è evoluta la pratica della seo in Friuli Venezia Giulia in un periodo che va indietro nel tempo di circa 10 anni?

Una premessa al discorso sull’evoluzione del posizionamento sui motori di ricerca in Friuli, prende in considerazione non le modalità secondo cui essa veniva fatta, ma riguarda una riflessione sulle tipologie di clienti che la richiedevano e sulle figure professionali specializzate nell’erogazione di questo tipo di servizi.

Le aziende che richiedevano un’attività di posizionamento, circa 5-7 anni fa, erano tipicamente grosse realtà commerciali che puntavano ad ottenere un monopolio di settore su un po’ tutto il territorio nazionale, niente local SEO quindi.

Per quanto riguarda le aziende capaci di offrire il servizio di posizionamento, esse fondamentalmente erano web agency che con l’utilizzo di sistemi automatizzati sviluppati da programmatori di alto livello, riuscivano ad automatizzare al massimo le attività di posizionamento con metodologie per nulla user oriented. Tutte tecniche che nel 2015 verrebbero considerate penalizzanti in quanto non rispondenti alle rigide imposizione dettate dagli ultimi algoritmi di Google, come Panda e Penguin. In altre parole tecniche di quella che ora chiamiamo Black Hat Seo.

Tra le tecniche più utilizzate, quando a dettar legge erano semplicemente le parole chiave, sicuramente il keyword stuffing. Pagine ricolme di parole chiave inserite in testi decontestualizzati e con percentuali di keyword density che ora giudicheremmo ridicole.

Molto spesso queste valanghe di parole chiave erano accuratamente occultate nelle pagine web attraverso meccanismi di cloaking, layer nascosti e stili css volti a non far individuare all’utente “umano” la massiccia presenza di parole chiave nelle pagine. Tutti questi meccanismi appena elencati andavano a creare numerose pagine civetta che non di rado, in tempi rapidissimi reindirizzavano il visitatore ad una pagina più naturale e leggibile.

Infine negli ultimi anni molto in voga si sono rivelati i network di siti. Siti senza alcuna valenza qualitativa agli occhi di Google, né in termini di qualità dei contenuti né in relazione ai link in entrata, creati esclusivamente al fine di veicolare testi duplicati di modesta lunghezza dotati di link in un uscita da ancore “secche”.

Una pratica che permette in un colpo solo di far notare da Google questi siti per scraping, in relazione ai contenuti duplicati, ed exact matching con riferimento alle ancore secche. A peggiorare la situazione il fatto che questi siti risiedessero tutti su un medesimo IP e che facessero capo ad un medesimo account di Google Analytics.

Comments

comments