• +39 055 0246072

  • +39 392 936 2119

  • info@alemarweb.it

Hai un e-commerce che non porta conversioni?
In questa guida capirai che cos’è la SEO, come ragionano Google e i suoi controllori, e scoprirai quali sono le cose da evitare assolutamente.

Ti sarà capitato di aver sentito parlare di SEO tecnica, di Local SEO, SEO organica, On site, Offsite, SEO per E-commerce, e forse anche altro. Tuttavia la SEO è una sola, e funziona grazie a un insieme di tecniche che possono essere sia di tipo tecnico che semantico.

La SEO è l’arte di ottimizzare i siti web per i motori di ricerca e quindi farli trovare dagli utenti quando digitano una query sulla barra del motore di ricerca.


Indice dei Contenuti


Come funziona Google

I controllori del motore di ricerca: Spider, Penguin e Panda

Come compilare una Scheda Prodotto

Aspetti da affrontare per migliorare il posizionamento di un E-commerce

Problemi e soluzioni per i Contenuti duplicati

Elementi fondamentali e fattori su cui puntare

Conclusioni



Come funziona Google


Google è un motore di ricerca, che va tuttavia pensato come un motore di risposta. La mission di Google è infatti quella di fornire agli utenti una risposta alle loro necessità: si comporta da intermediario tra chi fa una ricerca e i siti web.
L’utente è quindi il cliente di Google mentre il sito web è il suo fornitore. 

L’algoritmo del motore di ricerca è come il bibliotecario di una gigantesca biblioteca, piena di articoli e appunti tutti correttamente indicizzati secondo le varie tipologie di richieste possibili.


I controllori dei motori di ricerca: Spider, Penguin e Panda


Quando il nostro sito web va online con tutte le sue sottopagine e URL, Google manda un ragnetto a per ispezionarlo. Questo ragnetto (spider) ha un budget di tempo e denaro  limitato (chiamato budget crawl) che utilizza per capire di che cosa parla il tuo sito web. 

Una volta esaurito il budget, il ragno se ne va, mettendo in libreria ciò che è riuscito a indicizzare e andando a scartare il resto.

Per questo i nostri siti web devono essere facilmente navigabili, sia per l’utente (che ha scarsa pazienza nell’andare a cercare percorsi controintuitivi) sia per il ragnetto, che ha poco budget e tempo da perdere.

Per questo nasce la SEO, la disciplina che studia il linguaggio dell’algoritmo e traduce tutte le pagine del tuo sito web in modo che macchina e utente possano comunicare liberamente.

La SEO può essere divisa in due macro-aree: l’area semantica, che si occupa di linguaggio umano; e l’area tecnica, che si occupa di linguaggio tecnico.

Più un sito web è denso di pagine (come lo è un e-commerce) più sarà importante comunicare al ragnetto quali sono le pagine più importanti da indicizzare, e quali invece può evitare. In questo ci viene incontro la SEO tecnica, in grado di definire una gerarchia di URL da rispettare, una serie di URL autogenerati da scartare e altri URL che non necessitano dell’indicizzazione.

Oltre al ragnetto, che si occupa di Crawling e Indexing, abbiamo altri due algoritmi che si occupano più della parte semantica e del ranking. Questi sono Penguin e Panda.


Penguin sfrutta i link interni ed esterni come un sistema di raccomandazione per costruire l’autorità di un sito. Quando un sito web riceve link in entrata verso altri siti (la cui authority influirà sul punteggio), questo sito web guadagnerà autorità e così salirà di ranking. Allo stesso modo, quando dei link sono fittizi, fasulli o ingannevoli, il pinguino multerà il sito web, facendogli perdere posizioni in classifica.

Panda si comporta da controllore come il pinguino, tuttavia agisce a livello di contenuti.

Panda si assicura che tutti i contenuti siano originali, di qualità e di interesse per l’utente. Quando trova dei contenuti duplicati esso penalizza il sito e gli fa perdere posizioni.

Mentre puoi agire a livello di SEO semantica a livello di contenuti, per la SEO tecnica dovrai invece rivolgerti a degli specialisti in quanto SEO tecnica si occupa di gerarchia di URL, di codice di programmazione HTML e di algoritmi. Non cercare di fare da solo a meno che tu non abbia le conoscenze adeguate, perché potresti fare degli errori importanti. 

Una volta accertato che tutti i tuoi prodotti e contenuti del tuo sito siano originali, rivolgendoti ad un professionista per l’aspetto tecnico riuscirai, nel tempo, a scalare posizioni, guadagnare autorità e come risultato di questo ottenere un reddito sui prodotti venduti.

Non sai come creare dei contenuti originali? Leggi come compilare una scheda prodotto.


Come compilare una Scheda Prodotto


Dopo aver fatto una ricerca delle principali parole chiave che vengono ricercate dagli utenti, inseriscile nei nomi, nei tag title e nelle description dei tuoi prodotti. Assicurati che tutte le schede prodotto (e in generale tutto il tuo sito web) abbiano delle informazioni organizzate in modo chiaro, che siano originali e non copiate da altri siti web o dalle case madri produttrici del prodotto. Puoi anche inserire delle piccole descrizioni in cima alle categorie per spiegare cosa l’utente può trovare in quella determinata categoria.

Attenzione: non devono esserci contenuti duplicati a livello editoriale. Le descrizioni delle pagine dei prodotti dovrebbero essere uniche, convincenti e sostanziose, specialmente per i siti e-commerce di medio livello che non dispongono di sufficienti autorità di dominio per competere con concorrenti più grandi.


Aspetti da affrontare per migliorare il posizionamento di un E-commerce


Link Building interno ed esterno


Il link building è strettamente correlato all’autorevolezza di un sito web. Quando un utente linka una pagina del nostro sito web, Google la percepisce come una raccomandazione e ne aumenta l’autorevolezza. I fattori che influiscono con linking esterno sono: Qualità del sito da cui arriva l’utente e Rilevanza. Ad esempio, se da un sito di scarpe passo a un sito di dentisti, questo non sarà valutabile come rilevante. 

A livello statistico, tuttavia, le penalizzazioni sono molto più quelle che vengono da Panda piuttosto che da Penguin. 


Problemi e soluzioni per i Contenuti duplicati


Avete mai sentito parlare di contenuti duplicati o di contenuti thin (di scarso valore)? Google Panda è l’algoritmo pensato per contrastare non solo i contenuti duplicati, ma anche per contrastare ed eliminare quei siti web con argomenti inutili per gli utenti. Google Panda tiene in considerazione il comportamento degli utenti all’interno delle Serp, quindi il Bounce rate e altri fattori in grado di determinare se una pagina è ritenuta utile oppure no, incluso l’aspetto grafico, la struttura, la navigabilità e la fruibilità per gli utenti. Per questo è importante imparare a gestire i contenuti duplicati e thin. Vediamo insieme come.


I contenuti duplicati possono esistere su un e-commerce o su un sito web in moltissimi modi, sia per cause tecniche che editoriali. Il problema spesso è il fatto che ignoriamo l'esistenza di tante url che vengono generate.

Per risolvere i contenuti duplicati andiamo ad implementare i Canonical, il file robots.txt e  i redirect 301 (permanente) e 302 (temporaneo). Un aspetto da notare è che il canonical, a differenza del redirect 301/302 non è un ordine, ma un consiglio. 


I Canonical


I canonical aiutano i motori di ricerca a comprendere che esiste una sola versione dell’URL della pagina che deve essere indicizzata, indipendentemente dalle versioni degli altri URL visualizzate nel browser, collegate a siti web esterni, ecc.

Spesso senza saperlo, generiamo URL diversi che hanno contenuti uguali (duplicati). Ad esempio: 

http://www.domain.com/page-slug ;
http://www.domain.com/page-slug?utm_source=facebook ;
http://www.domain.com/page-slug?dir=asc&order=price ;
http://www.domain.com/page-slug?price=-10 


Tutti questi sono URL diversi in quanto arrivano da percorsi diversi, tuttavia rimandano alla stessa pagina. Questi URL saranno percepiti da Panda come contenuti duplicati e quindi dovranno essere gestiti con un tag canonical all’inizio della pagina  

link rel=“canonical” href=“https://domani.com/page-slug/”


File /robots.txt


Un altro modo per evitare che lo spider esegua la scansione di pagine inutili è quella di impedire la scansione di parametri URL comunemente generati attraverso il file /robots.txt, al fine di massimizzare il budget di ricerca per indicizzazione. Il file robots.txt è un file presente nella directory principale del sito web. Un file robots potrebbe essere compilato in questo modo:

User-agent: *
Disallow: *?dir=*
Disallow: *&order=*
Disallow: *?price=*


Questo va a significare: “su tutti i motori di ricerca non autorizzare la scansione di URL che contengono ?dir= , &order= , ?price= .”

Stessa cosa vale per gli ID di sessione. Molti e-commerce utilizzano gli ID di sessione negli URL (ad es. - ? Sid =) per tracciare il comportamento degli utenti. Il problema per i motori di ricerca è che questo crea un duplicato dell’URL principale della pagina a cui viene applicato l’ID di sessione, e andrebbe gestito così, sempre nel file robots: 

User-agent: *
Disallow: *?sid=*


Carrello


Quando gli utenti aggiungono prodotti al loro carrello sul tuo e-commerce e visualizzano il loro carrello, la maggior parte dei sistemi CMS implementa strutture URL specifiche per l’esperienza del carrello. 

Potrebbero avere “cart” o qualche altra parola come identificatore univoco all’interno degli URL di questi carrelli degli acquisti.

Utilizza i tag no index, no follow, X-robots, oppure non consentire la scansione di quegli url tramite il file /robots.txt. 


Pagine di ricerca interne


Un altro problema frequente tra gli e-commerce è quello per cui molti sistemi non impostano le pagine dei risultati di ricerca interne con tag “noindex, nofollow”.


Path Duplicati in termini di prodotto


Il path o pattern è fondamentale. L’algoritmo è una macchina, per questo quando creiamo i percorsi, dobbiamo cercare di parlare il linguaggio macchina in quanto, quando l’algoritmo trova un pattern errato, lo penalizza.

Facciamo l’esempio di uno stesso prodotto su un e-commerce che può essere parte di due categorie diverse (ad esempio salute, benessere). 

In questo caso ci troveremmo davanti a due contenuti identici con URL differenti, in questo modo:

Category A -> Product 1 -> /category-A/product-1/
Category B -> Product 1 -> /category-B/product-1/



Anche questi andranno gestiti tramite canonical:


Category A -> Product 1 -> /category-A/product-1/ -> canonical = /category-A/product-1/
Category B -> Product 1 -> /category-B/product-1/ -> canonical = /category-A/product-1/



Reindirizzamenti (www, non-www e URL maiuscoli e minuscoli)


I motori di ricerca considerano http://www.dominio.com e http://dominio.com diversi indirizzi web. Pertanto è fondamentale scegliere una versione di URL per ogni pagina del tuo e-commerce e tramite redirect 301 reindirizzare la versione non preferita a quella preferita. Se non c’è reindirizzamento abbiamo due siti uguali e quindi duplicati. 

Stessa cosa vale per gli URL in maiuscole/minuscole. Ogni volta che qualcuno scrive un url con le maiuscole dobbiamo re-indirizzare alla pagina scritta in minuscolo.

E vale lo stesso anche per pagine che non hanno lo / di chiusura. Dobbiamo re-indirizzare dalla versione di chiusura preferita ( */; *.php) 


Pagine di Categoria (contenuto condiviso tra i prodotti)


Le pagine di categoria sugli e-commerce includono in genere un titolo e una griglia di prodotti. Ciò significa che non ci sono contenuti unici su queste pagine.

La soluzione comune per combatterla consiste nell’aggiungere descrizioni uniche nella parte superiore della pagina della categoria (non nella parte inferiore, a cui viene attribuito un peso minore) che descrive i tipi presenti nella categoria.


Problemi dovuti a molte pagine prodotto


Quando si hanno tanti prodotti ci sono tantissimi url da scansionare.
Si consiglia di usare Rel = “next” e Rel = "Prev".

Gli elementi di collegamento html rel = “next” e prev fanno parte dell’elemento di collegamento canonico. Esempio:

link rel= “canonical” href = “https://miosito.com/pagina-1”
link rel= “nextl” href = “https://miosito.com/pagina-1”




Elementi fondamentali e fattori su cui puntare


Server


Il server deve essere ottimo e performante per permettere una velocità adeguata nella risposta del sito web.


Compressione dei file


I file all’interno del sito web devono essere compressi quando possibile.


Memorizzazione nella Cache


Avere la memorizzazione nella cache abilitata permetterà all’utente di scaricare una volta soltanto gli elementi fissi del sito web e quindi navigarlo più velocemente. 


Ottimizzazione delle Immagini


Le immagini devono essere ottimizzate sia lato accessibilità con gli Alt-text, che attraverso dimensioni e formati opportuni. 


Plug-In Limitati


Soprattutto quando utilizzi un CMS, limita il numero di plug-in ed elimina quelli inutili.


Conclusioni


Quando il tuo sito web sarà ben organizzato per contenuti e percorsi interni inizierà a scalare il suo posizionamento. Ci sono delle parole chiave con più concorrenza rispetto alle altre e magari anche più volume di ricerca. La giusta strategia ti consentirà di posizionarti più facilmente per parole chiave con meno concorrenza, e nel tempo scalare per quelle a più alta concorrenza.





Vuoi saperne di più, oppure farti aiutare? Contattaci per una consulenza specialistica.




Oppure consulta tutti i nostri articoli sulla SEO