Come ottimizzare per la seo i siti web nel 2013?

Cosa è cambiato in questi anni per il lavoro del SEO? Direi che la vera rivoluzione in questo mondo è iniziata dal 2011con l’introduzione dei 2 algoritmi Panda e Penguin che hanno stravolto il modo di pensare il web. Fare seo oggi è diventata un impresa dura rispetto al passato che era tutto un pò più sconosciuto e sembrava qualcosa che entrava nel territorio hacker del web, qualcosa di poco legale e da smanettoni. All’epoca dato che c’erano pochi professionisti del web, era più semplice arrivare in vetta per keyword interessanti, inoltre gran parte del lavoro seo si faceva on-site, mettendo mani nei tag title, description e keywords, inserendo un sacco di parole chiave separate da virgole.

La link building era molto basata ull’acquisto dei link, nella creazione di network di siti e comunicati stampa dove venivano inviati sempre gli stessi articoli contenenti i link di proprio interesse. La seo era anche molto black-hat, infatti funzionavano molto bene le tecniche di Cloacking, doorway page, domini anziani con pagerank che venivano ridirezionati e software spammosi come scrapebox e xrumer. Molte di queste cose dopo penguin e panda sono diventate controproducenti o inefficaci, quindi per questo 2013 bisogna vedere la seo in modo diverso. Ogni progetto web richiede un’analisi, la prima tra queste quella che riguarda il mercato (settore, nicchia e trend settoriali) individuando dei settori redditizzi e ancora non molto sviluppati, quindi in base a questa analisi si stabiliscono le keyword attinenti da utilizzare:

nel title tag
nella description
nell’h1
nelle url
nell’attributo “alt” delle immagini e il nome delle stesse
nel testo
nei menù “testuali” di navigazione

evitando tutto ciò che google non riesce a leggere, tipo i contenuti swf (flash), javascript, frames, ecc.

1. Ovviamente i fattori on-site da ottimizzare sono tanti ed hanno a che fare con:

L’usabilità, accessibilità e spiderizzazione del sito

Controllare se ogni pagina viene indicizzata e se ci sono cose utili o inutili da bloccare/sbloccare tramite comando nel robots.txt. La velocità del sito è anche importante in modo da diminuire il tempo di caricamento delle richieste al server, ottimizzando la cache, la dimensione e l’estensione delle immagini e cercando di mantenere le pagine leggere evitando del codice inutile.

Le pagine duplicate

Chi gestisce un blog o un sito e-commerce spesso involontariamente crea dei contenuti duplicati quando associa a dei post / pagine dei tag o delle categorie sotto diverse parole chiave, anche gli archivi (mese, anno, ecc) generano del contenuto duplicato, infatti un utente può accedere allo stesso contenuto tramite le categorie, gli archivi o i tag che vengono indicizzati nei motori di ricerca, quindi per risolvere il problema dei contenuti interni duplicati è sufficiente mettere un bel noindex su tag, archivi e categorie oppure e possibile continuare a farli indicizzare dai motori di ricerca utilizzando però il comando “rel canonical” che indica ai motori di ricerca le versioni preferite delle pagine del proprio sito da indicizzare.

Sitemap e HTTP Status Code

Nonostante esistono vari plugin per i CMS (wordpress, joomla, drupal, ecc.) che permettono di creare automaticamente una sitemap, consiglio di mettere le manine per assegnare alle singole urls le priorità desiderate indicando ai bots quando tornare a scansionare il sito. L’http status code è riferita al fatto che tutti i redirects presenti sul sito debbano restituire un 301 evitando di restituire dellle pagine 404 che nonostante non siano un grande problema per i motori di ricerca, possono disperdere del pagerank.

Linking interno

E’ molto importante creare una buona struttura di link interni, utilizzando ad esempio nei menu di navigazione le parole chiave di interesse cercando di mantenere un certo coinvolgimento per gli utenti, in poche parole dovete fare in modo che gli utenti vengano attirati dalle parol utilizzate nei menu di navigazione e quindi spinti a sfogliare più pagine e perdere tempo dentro il vostro sito, come ho detto in alcun miei vecchi post, il tempo di permanenza, la frequenza di rimbalzo e il numero delle pagine sfogliate sono dei segnali che Google utilizza per capire quanto sono interessanti le pagine del vostro sito per gli utenti.

Dati strutturati

I dati strutturati sono quei “tag” di markatura associabili ad esempio a persone, aziende, eventi, ecc. offrendo al visitatore delle informazioni aggiuntive per la sua ricerca. I formati supportati sono Rdfa, microformati e microdati e permettono di arricchire le descrizioni che appaiono nelle serp (Rich Snippets) dove è possibile far apparire elementi come stelline (recensioni), video, date e orari (eventi), e tanti altri tipi di informazioni aggiuntive. In questo modo le pagine del sito possono essere rese più visibili con conseguente aumento del CTR (click-through rate).

2. SEO Copywriting

Spesso si parla del copywriting, si tratta della persona che scrive dei contenuti ottimizzati per i motori di ricerca che a loro volta cercano di offrire in alto nelle serp i contenuti che gli utenti reali vogliono, quindi per farla breve consiglio di creare degli articoli davvero interessanti che piacciono prima di tutto all’utente, di conseguenza sicuramente piaceranno ai motori di ricerca, dato che hanno gli strumenti per analizzare il comportamento dei visitatori sul vostro sito. Per contenuti ottimizzati non intendo assolutamente qualcosa riferita alla densità delle parole chiave, questa tecnica ormai non è più efficace, consiglio piuttosto di scrivere dei titoli che attirano a cliccarci su quando appaiono nelle serp, delle descrizioni interessanti che invogliano all’utente a completare la lettura, considerando anche che se un articolo piace ha più probabilità di essere condiviso nei social media o linkato, inoltre i visitatori ritorneranno nel vostro sito dato che lo reputeranno di qualità, sapete cosa succede quando il visitatore ritorna? fa capire a Google che il vostro è un sito / brand ricercato, migliorando il posizionamendo dei contenuti, in questo modo è possibile aumentare il valore di un segnale che Google considera abbastanza, parlo del traffico diretto, ovvero tutto il traffico che arriva da altri siti senza passare dal motore di ricerca, quindi viene considerato anche quel traffico che arriva dagli utenti che digitano direttamente nel browser il nome del dominio del proprio sito, anzichè cercarlo dal motore di ricerca. Una volta seguiti i miei consigli starete facendo SEO Copywriting nel modo corretto.

3. Inbound Marketing (ex Link Building o SEO Off-page)

Già con quanto detto prima potete ottimizzare gran parte del vostro sito, eppure non ho ancora parlato dei famosi backlink che sono stati sempre uno dei maggiori aspetti da curare per il lavoro seo. Mentre in passato si ottenevano dei buoni risultati lavorando sulla quantità dei link in entrata, con il tempo si è passati ai link in entrata di qualità, adesso è in corso ancora un cambiamento, Google da sempre più valore allo sviluppo di relazioni qualitative “umane”, quindi non più link. Dopo Panda (contro i contenuti duplicati o di scarso interesse) e Penguin (contro le tecniche seo innaturali) non è più possibile ottenere dei buoni risultati lavorando in maniera automatizzata (comprando link, creando network, facendo spam in forum e blog con software come xrumer e scrapebox, ecc.) in modo da scavalcare la concorrenza, quindi consiglio di costruire delle relazioni finalizzate allo sviluppo della propria immagine o brand, per questo ultimamente si sente parlare spesso di author rank. L’obbiettivo deve essere quello di diventare degli esperti per la propria nicchia di mercato, quindi se siete bravi ad apparire autorevoli agli occhi degli utenti, tramite dei segnali (alcuni li ho elencati prima) Google riuscirà a capire che gli utenti stimano il vostro lavoro. Con questo non voglio dire che i backlink non servono più a nulla, più che altro adesso Google può valorizzare gli apprezzamenti nei social media e i backlink degli utenti che appartengono alla stessa nicchia.

Ottimizzazione per i motori verticali

Sopratutto per le aziende che hanno dei punti vendita sul territorio, direi che è una buona idea avere una mappa Google ottimizzata per scalare le serp e apparire nella prima pagina per le parole chiave di interesse geografico. Ovviamente potete ottimizzare gli altri motori di ricerca verticali tra cui Google Images, Video, Shopping, ecc.

Social Media

Una buona idea è quella di utilizzare i social media cercando di ottenere dei contatti co persone realmente interessate alla vostra nicchia, io ad esempio ho creato una pagina fans su facebook (ma utilizzo anche Google plus e Twitter) dove ho invitato le persone che amano gli argomenti seo (non importano grandi numeri), inoltre ho aggiunto come amici tutte le persone che potrebbero essere interessate ai miei argomenti, in modo da dargli in pasto tutti i miei nuovi post. Il lavoro che organizzo è basato sulla creazione di articoli, guest posts, video, infografiche, contest, eventi, badge, mini-utility embeddabili, ecc. Rispetto ad un tempo non mi concentro più ad ottenere link di alta qualita, tipo dei bei link con pagerank 5, adesso con dei link quantitativamente inferiori rispetto a quelli che ottenevo un tempo, riesco ad ottenere dei maggiori benefici nelle serp con meno possibilità di incappare in penalty dato che la mia strategia seo non è più basata esclusivamente sui link in quantità e qualità, in questo modo l’effetto della crescita dei miei siti nei motori di ricerca risulta più naturale.