Bambini con cartelli lingua

Siti internazionali: non c’è multilingua senza SEO

Siti internazionali: non c’è multilingua senza SEO

Hai deciso di intraprendere la strada dell’internazionalizzazione della tua impresa e ti occorre un sito multilingua? Per creare un sito web con più lingue senza rinunciare al traffico organico dovranno essere ottimizzate tutte le lingue scelte.

Avere versioni multiple del sito significa moltiplicare l’efficacia della comunicazione ma anche le potenziali problematiche. Bisogna essere sicuri di avere le idee ben chiare già in fase di progettazione e dotarsi delle infrastrutture appropriate.

Per creare il tuo sito multilingua avrai bisogno di servirti della consulenza di un professionista che si occupi dell’ottimizzazione dei siti per i motori di ricerca o SEO. I siti multilingua, infatti, non sono tutti uguali e, a seconda dei casi, occorre valutare l’implementazione di diverse tecniche per la segnalazione ai motori di ricerca delle varianti del tuo sito.

SEO per i siti multilingua e multiregionali

Sarà compito del consulente SEO analizzare le versioni multilingua, capire come fare raggiungere le pagine del sito da utenti di uno specifico paese, evitare il contenuto duplicato e valutare altri aspetti che potrebbero comportare effetti negativi sul posizionamento del sito.

Oltre ad essere multilingua, il tuo sito potrebbe essere multi-regionale e restituire contenuti diversi a seconda della localizzazione anche se sono scritti nella stessa lingua.

Il SEO ha diversi strumenti a disposizione attraverso cui specificare a Google come è costituita l’architettura informativa di uno o più siti web ma lo strumento di segnalazione più efficace resta sempre la sitemap.

Cos’è e come funziona una Sitemap Multilingua

Una sitemap indica a Google quali sono le pagine del tuo sito e le loro caratteristiche quali la loro importanza, la loro frequenza di aggiornamento e le immagini in esse contenute.

La sitemap multilingua è una versione “avanzata” della sitemap standard che, oltre a queste caratteristiche, indica le corrispondenze fra le varie versioni della pagina in lingue diverse e comunica al motore di ricerca a quale area specifica degli utenti parlanti una determinata lingua sono destinati i contenuti.

Sitemap Multilingua generata in maniera dinamica e statica

Una sitemap può essere scritta una tantum, senza possibilità di aggiornamento, oppure venire generata dinamicamente come quella generata dal plug-in SEObyYoast.

Attualmente la versione gratuita di SeoYoast non permette di gestire le sitemap multilingua secondo le linee guida di Google quindi l’unica soluzione per “rispettare le regole” era sostituirla con una sitemap statica.

Di fondamentale importanza è però fornire a Google indicazioni aggiornate sulla struttura del proprio sito web. Grazie al plug-in WordPress per i siti multilingua XML Multilanguage Sitemap Generator siamo in grado di fornire a Google una sitemap dinamica.

La sitemap è disponibile per i siti WordPress che utilizzano WPML e Polylang per la gestione delle lingue. Tramite la sitemap generata da questo plug-in , creato da Marco Giannini, membro del nostro team di sviluppo, riusciamo a gestire i siti multilingua dando le corrette indicazioni a Google sulla natura delle pagine web ed ottenere risultati migliori per i nostri clienti.

google analytics

Monitorare Eventi in Google Universal Analytics

Salve a tutti, oggi torniamo a parlare di SEO!
L’argomento che ci preme trattare, visti i lavori in corso degli ultimi mesi, è il monitoraggio eventi con Google Universal Analytics.
Il nostro principale riferimento è la Guida ufficiale Google Developers e di seguito forniamo qualche esempio pratico.

Dobbiamo fare attenzione alla funzione da inserire nel codice, mentre nel pannello di amministrazione di Analytics resta invariata l’impostazione delle condizioni:

monitoraggio eventi in google universal analytics

Quindi, se nella versione precedente usavamo la funzione gaq.push:
gaq.push([‘_trackEvent’, ‘[Categoria]’, ‘[Azione]’, ‘[Etichetta]’, ‘[Valore]’]);

nella versione attuale dobbiamo usare la funzione ga:
ga(‘send’, ‘event’, ‘[Categoria]’, ‘[Azione]’, ‘[Etichetta]’, ‘[Valore]’);

 

MONITORAGGIO CON INTERAZIONE

In caso di interazione, la funzione ga va inserita nell’attributo onclick del link che si vuole monitorare:
onclick=”ga(‘send’, ‘event’, ‘[Categoria]’, ‘[Azione]’, ‘[Etichetta]’, ‘[Valore]’);”

Facciamo un esempio, ipotizzando di dover tracciare i click sul download di un file pdf, e settiamo le condizioni come segue:

monitoraggio evento analytics con interazione

Il nostro attributo diventa:
onclick=”ga(‘send’, ‘event’, ‘click’, ‘download’, ‘pdf’); “

L’attributo ovviamente dovrà essere aggiunto a tutti i link pdf che voglio tracciare, ad esempio:
<a onclick=”ga(‘send’, ‘event’, ‘click’, ‘download’, ‘pdf’); “href=”catalogo.pdf”>Scarica il Catalogo</a>

In questo caso non abbiamo settato il parametro ‘[Valore]’, poiché è sufficiente conoscere il numero di download. In altri casi, invece, potremmo inserire un valore numerico significativo per la nostra analisi.

 

MONITORAGGIO SENZA INTERAZIONE

Un monitoraggio senza interazione è necessario quando dobbiamo monitorare eventi che avvengono indipendentemente da un’azione dell’utente.

Ad esempio, supponiamo che la conferma di iscrizione ad un sito e-commerce sia visualizzata con un messaggio generato da uno script all’interno della pagina. L’url non cambia e l’utente non fa alcun click.

registrazione al sito avvenuta

In questo caso è sufficiente modificare l’attributo ed aggiungere questo parametro alla funzione ga:
{nonInteraction: true}

La funzione va inserita nello script che visualizza il messaggio al verificarsi della condizione registrazione dell’utente
onclick=”ga(‘send’, ‘event’, ‘banner’, ‘impression’, ‘registrato’, {nonInteraction: true}); “

All’interno di uno script avremo:

script

A questo punto vado a specificare le 3 solite condizioni in Google Analytics…

monitoraggio evento analytics senza interazione

… e il gioco è fatto!
Spero che questo breve articolo possa essere un utile chiarimento sul monitoraggio eventi, soprattutto per chi si è avvicinato da poco al fantastico mondo della Web Analysis. Aspetto i vostri feedback, commenti, suggerimenti, aneddoti, ecc.

Grazie e alla prossima!
Dave

Dave vs Bots

Introduzione

In fase di analisi degli accessi al sito è facile rendersi conto che alcuni dati di traffico siano anomali, principalmente in termini di quantità, tipologia e provenienza.

Come accorgersene?

  • Le sessioni totali sono molto elevate e provenienti da zone improbabili data la natura del sito
  • La frequenza di rimbalzo è molto elevata, superiore all’80%
  • La durata della visita media è molto bassa, in genere pochi secondi

Cosa succede? Gran parte dei dati è inquinata da bad bot che scansionano il nostro sito e da bad referral che generano spam. Non causano veri e propri danni, ma sono particolarmente insidiosi e difficili da bloccare, inoltre gli spam bot agiscono anche tramite commenti sui blog e carrelli falsi negli ecommerce…ma niente paura! Possiamo ridurne l’impatto usando alcuni accorgimenti.

I principali metodi sono 3:

  1. Blocco da file .htaccess
  2. Viste Google Analytics filtrate
  3. Widget filtrati nelle dashboard di Analytics

 

1. Blocco da file .htaccess

Teoricamente è il metodo migliore, perché impedisce fisicamente l’accesso al nostro sito a specifici bot e referral. Vediamo come.

Blocco bot user-agent da file .htaccess

Andiamo a scrivere direttamente il nome degli user-agent da bloccare, prendendoli da liste facilmente reperibili online. Ecco un esempio generico:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^useragentbot1 [OR]
RewriteCond %{HTTP_USER_AGENT} ^useragentbot2 [OR]
RewriteCond %{HTTP_USER_AGENT} ^useragentbot3
RewriteRule .* - [F]

Blocco bot IP da file .htaccess

È possible identificare lo spam tramite accessi ricorrenti dallo stesso IP con dubbia provenienza geografica, ma anche dai commenti spam di un blog o da carrelli abbandonati ricorrenti con stessi importi di un ecommerce. In questo caso possiamo bloccare direttamente l’IP del bot o l’intera classe di IP del bot, ad esempio:

order allow,deny
Deny from 101.101.10.101
allow from all

Blocco bad referrals da file .htaccess

È importante anche bloccare i bad referral che troviamo direttamente nelle statistiche del nostro sito. Quindi in Google Analytics andiamo su Acquisizione > Tutto il traffico > Referral e vediamo ad esempio una lista del genere:

lista referrals

A parte Facebook e t.co (cioè Twitter), gli altri referral non sono desiderati 🙂

Ecco come fermarli da file .htaccess (ad esempio i primi 3):

RewriteEngine On
RewriteCond %{HTTP_REFERER} 4webmasters\.org [NC,OR]
RewriteCond %{HTTP_REFERER} traffic2money\.com [NC,OR]
RewriteCond %{HTTP_REFERER} floating\-share\-buttons\.com [NC]
RewriteRule .* - [F]

 

Quali sono i limiti di questo metodo?
  • Per sua natura funziona solo su server Apache.
  • È necessario poter accedere al sito sul server tramite ftp.
  • Va aggiornato spesso perché bad bot e bad referral cambiano e ce ne sono sempre di nuovi.

 

2. Viste Google Analytics filtrate

Un metodo per avere dati puliti, che può essere usato in aggiunta al precedente, è quello di filtrare i dati direttamente nella piattaforma di analisi. Così facendo, non si blocca l’accesso al sito di bad bot e referral ma li escludiamo dal conteggio. Possiamo così avere una panoramica realistica degli utenti umani che effettivamente navigano sul sito.

Per questo metodo rimando al valido articolo di Fabio Piccigallo, direttamente sul suo sito e riassumo brevemente i principali aspetti.

  • È opportuno creare una nuova vista filtrata e tenere quella originale come controllo.
  • I principali filtri da implementare sono 3, da personalizzare con espressioni regolari in base ai singoli casi. Di seguito gli screenshot di esempio da analytics:

1) Host
filtro analytics nome host

 

 

 

 

 

 

 

 

2) Referral
filtro google analytics referrals

 

 

 

 

 

 

 

 

3) Campagne Adwords
filtro analytics campagne adwords

 

 

 

 

 

 

 

 

 

3. Widget filtrati nelle dashboard di Analytics

Il metodo consiste nel filtrare i dati direttamente all’interno degli widget nelle dashboard di Analytics. Il vantaggio di questo metodo, oltre la rapidità, è di avere dati ripuliti da subito, anche con riferimento a periodi precedenti. Alcuni widget lasciano come riferimento la variazione rispetto al dato originale.

Chiaramente è necessario impostare dashboard ben definite e significative.

Prendiamo lo widget Visite Totali come esempio ed andiamo a inserire un filtro di tipo Non mostrare al suo interno:

widget visite dashboard google analytics

Attraverso un’espressione regolare come quella mostrata sopra, escludiamo la visualizzazione degli accessi provenienti dai principali bad referral del sito.

Prendiamo una piccola dashboard dimostrativa in stile prima e dopo la cura 🙂 per mostrare che i dati filtrati sono molto più realistici di quelli totali.

Non Filtrati

dati dashboard analytics

 

Filtrati

dati filtrati dashboard analytics

 

Conclusioni

Un sito generalmente riceve una notevole parte di sessioni da parte di software non desiderati, che generano dati poco realistici e quindi poco significativi ai fini di analisi della navigazione di utenti umani.

E’ importante avere consapevolezza di questo aspetto in fase di analisi dei dati e cercare metodi sempre più affinati e di rapida implementazione per avere dati puliti e validi.

L’argomento ovviamente non si esaurisce in queste poche righe. Cari SEO, dateci il vostro parere e il vostro contributo! 😉

Madre de Dios, es el Diablo!: I 10 Seo Orrori

Madre de Dios, es el Diablo!

La Top 10 dei Seo Orrori (ver. 2015)

Chi ha scelto il Seo come professione, oltre ad essere regolarmente incompreso dalla maggior parte dei colleghi e dei clienti, sa che in questo lavoro capita di dover affrontare dinosauri digitali che anche nel 2015, per distrazione o inconsapevolezza, riescono a sopravvivere all’evoluzione del web.

Prendiamola con ironia ed iniziamo ad analizzare le insofferenze di Google andando in crescendo.

  1. Sitemap statica

Esistono molti sitemap generator gratuiti e disponibili online che funzionano benissimo e che vanno bene per la maggior parte dei siti. Ma se avete a che fare con ecommerce o blog, dove vengono inseriti spesso nuovi prodotti o articoli, la soluzione migliore è usare sitemap dinamiche, cioè che si aggiornano automaticamente in base alla frequenza impostata. Usando una sitemap statica su questa tipologia di siti, dobbiamo generarla “a mano” di tanto in tanto per evitare di perdere nuovi link: la dimenticanza e la mancanza di tempo vi chiederanno il conto!

  1. Meta keywords e altre meta bestialità

I mata tag principali ai fini seo sono il title e la description.

Google ignora completamente il meta tag keyword da alcuni anni. Se ottimizziamo per Google è meglio non inserire le keywords per evitare di perdere tempo e di suggerire da html la nostra keywords strategy alla concorrenza.

Colgo l’occasione per ricordare che il title deve essere max 60 caratteri (spazi inclusi) e la description max 160. Quindi non fate i furbi, è inutile scrivere poemi! I caratteri in eccesso non saranno visualizzati negli snippet dei risultati di ricerca.

  1. Testi nel javascript e traduzioni parziali
    a) Capita di vedere testi inseriti nel javascript per agevolare la navigazione in sottomenu all’interno della pagina o per altre esigenze definite in fase di progettazione del layout. Cosa c’è di male? Niente, tutto molto carino, ma Google ce li ignora!

I testi ottimizzati ai fini seo non devono essere nascosti nella pagina, altrimenti non possono indicizzarsi.

Eh sì, avete indovinato: dovete chiedere al programmatore di modificare il layout!

    b) Si intuisce facilmente che è inutile cercare di ottimizzare un sito in russo se la maggior parte dei testi disponibili è in italiano e che non serve cercare trucchetti ingegnosi, vince sempre il contenuto! Parola di Google.

Ps. Ovviamente la stessa cosa vale anche per l’inglese, il francese, il tedesco, ecc.

  1. Redirect 301 non impostati

E questo è un classico. Il cliente fa fare il restyling del sito a un programmatore, affida a voi il seo e dopo poco vi chiede come mai il vecchio sito era ben posizionato, mentre da quando ci lavorate non è più visibile per nessuna keyword.

Ecco che vi trasformate in agente CSI e scoprite il crimine: in fase di restyling non erano stati impostati i redirect verso le nuove pagine, quindi tutto ciò che Google aveva indicizzato, è andato “perso nel tempo come lacrime nella pioggia” (cit. Blade Runner).

A meno che non possiate tornare indietro nel tempo, non avrete altra soluzione che ricominciare da zero.

  1. Link building a caso

La vecchia scuola è la vecchia scuola. Ma per il Seo purtroppo non funziona.

La strategia link building, anni fa applicata brutalmente, oggi deve essere impostata con estrema cautela. Link provienti da siti di scarsa qualità, poco coerenti con i nostri contenuti e basati sulle parole chiave sono estremamente dannosi e l’unico risultato è una bella penalizzazione.

Ripulite i backlink verso il vostro sito, meglio non usarli che usarli male.

 

E qui cominciamo a entrare nel vivo della classifica!

  1. Codice analytics non inserito

Si commenta da solo, con la variante di aver inserito per distrazione il codice di un’altra proprietà.

Niente panico, ve ne accorgerete entro una o due settimane con l’unica conseguenza di non poter vedere le statistiche di questo periodo.

  1. Immagini e pdf

Come anticipato nell’introduzione dell’articolo, esistono ancora oggi dei dinosauri duri a morire. In alcuni siti i testi sono dentro un’immagine e le schede prodotto sono solo in pdf.

Ancora una volta lo zio Google ci dice che non riesce a vederli, quindi vale quanto detto al punto 8.a

 

Signore e Signori, siamo giunti al podio!

Bronzo) Contenuti duplicati

Si trovano in giro per il web siti con contenuti duplicati pari pari su blog o domini che si basano su parole chiave. Ancora una volta il risultato non può che essere una penalizzazione di zio Google.

Argento) Flash & Co.

Sì, è tutto vero. Esistono ancora oggi. Non danno nell’occhio, sono discreti, a volte si mimetizzano, ma sono sempre i soliti: menu lampeggianti, player musicali e animazioni Flash.

Ora, andiamo un attimo di là di un discorso strettamente seo e realizziamo che oggettivamente questi giochini, oltre ad essere inutili, sono il modo più rapido per far scappare l’utente dal vostro sito!

 

E adesso vi presento il top del top, la magia che riuscirà sempre e ovunque a castrare l’indicizzazione del vostro sito:

Oro) Robots.txt

User-agent: *

Disallow: /

 

Grazie per l’attenzione e alla prossima!

Dave

La vera sfida e’ l’utilita’ dei contenuti.

A distanza di pochi giorni dal Web Marketing Festival 2015  che si è tenuto a Rimini il 19 e 20 Giugno scorsi, dire in poche parole che cosa mi sono portata a casa sarebbe riduttivo.

Molti concetti sono ancora “nella botte a decantare” come il miglior whisky. Altri spunti, invece, li ho accolti con un tale entusiasmo da non vedere l’ora di rientrare a lavoro per applicarli.

La sensazione più bella comunque è arrivata ascoltando parlare relatori che “davano voce ai miei pensieri”, cioè affermavano nuovi concetti di approccio al web da me condivisi.

Per esempio durante uno speech nella sala SEO quando il relatore ha affermato:

“la vera sfida è l’utilità dei contenuti come fattore di ranking”.

Al di là del concetto in sé che, per chi si occupa di SEO aggiornandosi continuamente, non è una novità, è stato estremamente “tranquillizzante” udire questa affermazione perché è proprio ciò che cerco di spiegare ad alcuni clienti; quelli che, ad esempio, sono ancora legati a un concetto di SEO un po’ obsoleto, fatto di parole-chiave, keyword density e scambio di link.

Ma perché siamo arrivati al punto, nella SEO e nel web marketing, da non poter più ragionare esclusivamente in questi termini?

Molto semplice quanto rivoluzionario: perché Google è una “machine learning”, cioè è in grado di imparare a riconoscere automaticamente modelli complessi e prendere decisioni intelligenti basate su dati.

L’ho già detto su questi schermi: Google sta diventando sempre più “umano”.

Google impara da solo quali sono i contenuti di qualità.

La qualità per Google va vista in tre dimensioni: la qualità dei contenuti appunto, insieme alla qualità dei backlinks ed alla qualità della user experience.

Come fa a valutare queste 3 dimensioni?

Lo fa grazie a Panda Update, l’algoritmo ad apprendimento macchina, che ha preso come modello su cui basare le proprie valutazioni i migliori siti dei brand ed ha elaborato un processo per trovare altre entità simili. Su Panda Google ha poi sviluppato Penguin, altro algoritmo ad apprendimento macchina, per individuare i backlink di scarsa qualità.

Così il prossimo SEO-futuro pare tracciato.

Vogliamo ottenere dei risultati di visibilità sui motori di ricerca?

Allora occorrerà essere un brand o comportarsi come tale e per fare ciò è inevitabilmente necessario creare una sinergia tra diversi strumenti di marketing digitale.

Anche perché, Google ha tutto l’interesse ad essere utilizzato come motore di ricerca principale se non unico e perciò si sta ormai da tempo “organizzando” per offrire agli utenti i migliori risultati possibili in ottica di user experience.

Siamo tutti diversi nella vita reale e quindi perché non dovremmo esserlo anche per Google?

  • Ciò significa risultati di ricerca diversi da persona a persona, ad esempio a seconda della frequenza con cui si effettua una determinata ricerca.
  • Ciò significa risultati diversi dal computer di lavoro, dal computer di casa, dal tablet o dallo smartphone.
  • Ciò significa risultati diversi a seconda del luogo geografico in cui è effettuata la ricerca, infatti Google tenta di rilevare automaticamente la posizione dell’utente e fornire risultati personalizzati in base a tale posizione.

Google, inoltre, personalizza i risultati sulla base della cronologia web del browser, anche da non loggati nei suoi servizi, perché memorizza i risultati degli utenti non loggati nelle query di ricerca, visitate per un massimo di 180 giorni, attraverso i cookie.

Quindi se, per esempio, si clicca spesso sul link di Peppa Pig nei risultati di ricerca, Google lo vedrà come preferenza e inizierà a mostrare i link di Peppa Pig più spesso e sempre più in alto nei risultati di ricerca.

Concludendo, mi auguro di essere stata di aiuto per chiarire i seguenti concetti:

a) Non cercarti su Google per le tue chiavi di ricerca perché Google si ricorda di te e ti darà risultati personalizzati, in genere molto diversi da quelli che ottiene il tuo SEO di fiducia (che – te lo dico – non ama Peppa Pig…..). Non ha davvero più senso telefonare al vostro SEO e dirgli: “ieri ero in terza, oggi sono in quinta…”, ok? 🙂

b)  Per capire come si sta posizionando il tuo sito fai riferimento ai report inviati periodicamente dal tuo SEO di fiducia, elaborati con tools appositi che se ne guardano bene da essere così “empatici” con te come fa Google…

c)  Il prossimo futuro della SEO e del web marketing sarà una vera rivoluzione… Come quella copernicana! Sarà bellissimo far parte di questa sfida futuristica. Ma in questo diventa sempre più di fondamentale importanza che cliente e SEO siano animati da spirito di collaborazione e fiducia.

Hummingbird e la SEO

Se ascolti una conversazione fra due SEO potrebbe capitarti di sentirli ragionare di “piccioni”, “panda”, “colibrì”, “pinguini”…

Per quanto possa essere lecito pensare che siano impazziti, dato il tipo di lavoro che fanno… 🙂 , in realtà stanno sicuramente parlando dei vari aggiornamenti che negli ultimi anni Google ha apportato al proprio algoritmo per rendere l’esperienza sul motore di ricerca sempre più rispondente alle esigenze dell’utente.

In altre parole questi aggiornamenti sono stati pensati (oltre che per fare ulteriormente impazzire i SEO 🙂 ) per fare sì che l’utente trovi ai “piani alti” delle SERP i contenuti ritenuti più utili rispetto alla query di ricerca impostata, provenienti da siti di alto valore, nel più breve tempo possibile e ultimamente anche geolocalizzati rispetto alla sua posizione nel momento in cui effettua la ricerca, specialmente se la ricerca è effettuata da un dispositivo mobile.

Credo di non esagerare nell’affermare che Google stia diventando sempre più “umano” soprattutto dopo l’aggiornamento algoritmico Hummingbird, il “colibrì” appunto citato dai due SEO di cui sopra…

Hummingbird a mio avviso è una vera potenza perché aiuta Google a capire di cosa parlano i siti, e quindi a posizionarli non più tanto per parole-chiave, quanto per contesti semantici.

A seguito di questo aggiornamento, infatti, nello scandagliare i contenuti dei siti online, nel categorizzarli e soprattutto nel valutarli, Google dà sempre meno importanza alla presenza delle parole-chiave, nel senso di keyword density, e sempre più importanza al contesto ed, in particolare, alla quantità e qualità di significati che da una parola-chiave principale scelta possono essere sviluppati.

Insomma… Google è diventato un attento lettore, ed il grado di comprensione del contesto in cui si inserisce il sito, quindi la sua corretta indicizzazione per le parole ed i temi che ci interessano, dipende dalla qualità e precisione dei contenuti che in esso vengono pubblicati.

Per questo si sente sempre più spesso dire che la SEO classica è morta e che “the Content in the King”.

Diciamo che la SEO non è morta, infatti l’ottimizzazione di un sito per i motori di ricerca è ancora un’ attività assolutamente importante e rilevante in un serio progetto di web marketing, ma certamente la SEO si è ampiamente evoluta e continuerà ad evolversi costantemente in corrispondenza dei perfezionamenti algoritmici sempre più raffinati posti in essere dal più grande e complesso motore di ricerca al mondo: Google!

E’ anche per questo motivo che il tuo SEO di fiducia di qui in avanti ti chiederà sempre più spesso di fornirgli contenuti testuali unici ed originali per il tuo sito. Tu ascolta attentamente i suoi consigli ed accontentalo! Anche Google te ne sarà grato! 🙂

L’USO DEI TAG PER CATEGORIZZARE I CONTENUTI DI UN BLOG

Se hai un blog sono (quasi…) tentata di giocare la casa nello scommettere che quando arrivi a scrivere la conclusione dell’articolo, proprio poco prima di mandarlo in pubblicazione, vieni improvvisamente colto da un desiderio irrefrenabile di associare all’articolo una quantità industriale di quelli che in gergo vengono detti “tag”.

Il divertimento nell’aggiunta di tag ai post come se non ci fosse un domani, ti rende magari anche improvvisamente più creativo del solito così che, pur di andare a popolare la lista di tag trascorri anche diversi minuti a pensare a parole nuove, sinonimi, concetti su cui mai avevi riflettuto prima ai quali vuoi improvvisamente collegare il tuo nuovo post.

E’ vero che lo fai …?!? 🙂

Bene, se lo fai, sappi che lo stai facendo nel modo sbagliato… Associare tag ai post è una attività piuttosto delicata in ottica SEO e creare dei disastri è all’ordine del giorno.

Comunque niente è perduto e non sei ancora da internamento, tranquill*… Tutto si sistemerà non appena arriverai a leggere questo articolo fino in fondo.

Che cosa è un tag?

Un SEO risponderebbe a questa domanda dicendoti che i tag sono tassonomie orizzontali. Con questa espressione intende dirti che i tag sono degli archivi di contenuti, pertanto per Google rappresentano contenuti aggregati, esattamente come lo sono le categorie.

Già questo ti deve far riflettere sul fatto che trattandosi di archivi di contenuti è perfettamente inutile e, in ottica SEO, del tutto controproducente per il posizionamento del contenuto stesso, associare decine di tag ad un solo post ed altre decine di tag completamente diversi dai precedenti ad un altro post e così via… Stoppa subito la tua vena creativa e fermati a riflettere!  🙂

Come utilizzare correttamente i tag ?

La scelta dei tag dovrebbe necessariamente avvenire prima della produzione dei post per il blog. Inoltre i tag dovrebbero auspicabilmente essere parole-chiave, in quanto trattandosi di archivi di contenuti Google se li va amorevolmente a spulciare…

Non bisogna associare un solo tag ad un solo articolo, sarà invece necessario circoscrivere dei macroargomenti da associare a più articoli.

Facciamo un esempio: hai un blog che tratta di viaggi in giro per il mondo diviso in categorie che corrispondono ai 5 continenti (Europa, Asia, Africa, Oceania, America… è dibattuto il fatto che l’Antartide sia un continente a se… 🙂 ).

Se scrivi di un viaggio romantico a Berlino ovviamente lo categorizzerai sotto “Europa”, se scrivi, invece, di un altro viaggio romantico a New York il post andrà sotto “America”, così come quando racconterai di quanto ti sei divertito a fare surf in California.

Come comportarsi con i tag allora?

Dei tag sensati per aggregare orizzontalmente i tuoi articoli potrebbero per esempio essere: “viaggi romantici” e “viaggi avventura”, i quali si associano ai vari post indipendentemente da dove siano categorizzati ma, bensì, dal tipo di viaggio:

quindi il viaggio a Berlino e quello a New York, sebbene appartenenti a categorie diverse, saranno aggregati entrambi sotto lo stesso tag “viaggi romantici”, mentre il post sul divertentissimo surf in California sarà taggato con “viaggi avventura”.

L’uso consapevole e ragionato dei tag conferisce ulteriore ordine ai tuoi contenuti digitali e contribuisce drasticamente ad aiutare i motori di ricerca nell’indicizzazione di essi. Usa i tag consapevolmente! 🙂