I 9 principali problemi SEO e come evitarli o risolverli

I 9 principali problemi SEO e come evitarli o risolverli
Ognian Mikov
Tutorial SEO
15 min read

La SEO è una disciplina complessa che richiede un'attenta considerazione di vari fattori e procedure da implementare correttamente. Ci sono diversi modi in cui possiamo sbagliare e danneggiare il potenziale organico di un sito web.

In questo post, copriremo i problemi SEO più comuni e come evitare di caderne vittima. Allo stesso modo, se stai già lottando con tali problemi, possiamo aiutarti a risolverli con successo.

Prima di tutto, iniziamo con le basi.

Cosa sono i problemi SEO?

Un potenziale problema SEO che potrebbe danneggiare le prestazioni dei nostri siti web nei motori di ricerca, potrebbe essere identificato come un problema. Per garantire un'adeguata ottimizzazione dei siti che si posizionano in alto su Google (e altri motori di ricerca), dovremmo essere consapevoli di alcuni errori comuni.

Più pagine ha un sito web, maggiori sono le possibilità di link rotti. Quando un sito continua a crescere e a produrre più contenuti, esiste il pericolo di pagine 404 non rilevate. Sebbene sia bene sviluppare e aggiungere nuove funzionalità e landing page, dobbiamo prestare sempre attenzione ai problemi con i link interni ed esterni.

A noi, come utenti, non piace raggiungere una pagina che non funziona, vero? Questo interrompe il nostro flusso e spesso porta ad abbandonare immediatamente il sito web.

pagina non trovata 404
pagina non trovata 404

I visitatori potrebbero percepire la pagina web come non affidabile. Come sappiamo, Google è davvero bravo a identificare le percezioni degli utenti su un sito/pagina web. Quindi, se gli utenti sono insoddisfatti, di conseguenza anche i motori di ricerca saranno insoddisfatti.

Inoltre, le pagine rotte sprecano preziosi crawl budget che potrebbero essere altrimenti utilizzati in modo proficuo. Non vogliamo che i bot spendano tempo e risorse su pagine non accessibili agli utenti.

La buona notizia è che possiamo identificare facilmente i link interni ed esterni rotti grazie a diversi strumenti SEO. Naturalmente, se abbiamo un sito più piccolo con poche pagine, probabilmente le conosceremo a memoria e non sarà così difficile assicurarsi che tutto funzioni bene.

Tuttavia, man mano che sviluppiamo i nostri siti web, diventa impossibile e inutile farlo manualmente.

Suggerimento: esegui scansioni programmate una volta a settimana o al mese e se identifichi link rotti, scava più a fondo e cerca di sistemarli di conseguenza.

Strumento SEOcrawl come il crawler analizza una pagina per problemi SEO
Strumento SEOcrawl come il crawler analizza una pagina per problemi SEO

Contenuti duplicati

I contenuti duplicati sono uno dei problemi più antichi e comuni conosciuti tra i marketer digitali. La preoccupazione principale è che fornendo pagine simili ai motori di ricerca, incluso Google, questi possono avere difficoltà a identificare e posizionare gli URL corretti.

Di conseguenza, noi (come SEO) potremmo subire una perdita di traffico o semplicemente non ottenere il pieno beneficio dai nostri siti web.

Noi, come professionisti dei motori di ricerca, dobbiamo assicurarci che i nostri contenuti siano unici. Per rendere la vita dei motori di ricerca più facile, dovremmo evitare alcune trappole comuni.

Spesso i contenuti duplicati si verificano perché si consente che diverse versioni della stessa pagina siano disponibili per utenti e bot. Ad esempio, avere sia la versione http che https di un sito web caricabili senza i corretti reindirizzamenti è un problema popolare.

Per evitare questo potenziale problema, dovremmo avere i corretti reindirizzamenti da http a https impostati. Possiamo facilmente testarlo digitando http://nostrositoname.com nel browser. Nel caso in cui il nostro protocollo https sia abilitato e correttamente impostato, il browser dovrebbe reindirizzarci a https://nostrositoname.com.

un esempio di un sito web che non ha abilitato il reindirizzamento dalla versione http insicura alla https
un esempio di un sito web che non ha abilitato il reindirizzamento dalla versione http insicura alla https

Allo stesso modo, la versione non-www di un sito web dovrebbe reindirizzare alla versione www, se questa è la versione principale del nostro sito web e viceversa.

reindirizzamento dalla versione non-www alla www di un sito web per chess.com
reindirizzamento dalla versione non-www alla www di un sito web per chess.com

I parametri negli URL sono un'altra trappola comune che provoca URL duplicati. I sistemi di gestione dei contenuti spesso aggiungono parametri di ordinamento (per dimensione, colore, modello, ecc.) che potrebbero risultare in numerose pagine con lo stesso contenuto.

esempio di parametri nell'URL da Amazon
esempio di parametri nell'URL da Amazon

Tuttavia, non è qualcosa di cui preoccuparsi a condizione che implementiamo canonical corretti e attributi no-index quando necessario.

Nota: i tag canonical sono un modo popolare per dire a Google quale insieme di URL simili indicizzare e considerare come quello principale. Un altro modo è utilizzare un attributo no-index quando i parametri causano URL diversi con contenuti uguali o simili.

Errori nei tag title

I tag title sono tra gli elementi SEO on-site più importanti. Informano i motori di ricerca su quale sia l'argomento principale di una pagina. I tag title si mostrano anche nei risultati di ricerca in cima a ogni elenco organico. Questo li rende uno degli elementi chiave e spesso un fattore decisivo per gli utenti per cliccare su un risultato specifico.

Prendersi il tempo per impostarli correttamente è un'attività SEO cruciale. Tuttavia, a volte viene trascurata, il che si traduce in bassi tassi di clic.

I principali problemi con i tag title sono:

  • mancanza totale dei tag title

In questo caso, Google imposterà un tag title basato sulla sua comprensione di cosa parli la nostra pagina. Di solito, riesce bene a svolgere questo compito, ma comunque, è una opportunità SEO persa.

È bene impostare noi stessi i tag title, soprattutto per le nostre pagine più importanti.

  • tag title troppo lunghi/corti

Usare tag title corti è un modo perso per attrarre potenziali utenti e farli cliccare sui nostri risultati. La pratica abituale è avere tra 55-65 caratteri mostrati nei risultati di ricerca.

Al contrario, i tag title troppo lunghi (oltre 65 caratteri), possono essere troncati e non mostrati per intero. Questo creerà un'altra opportunità persa per mostrare l'intero messaggio al mondo online.

title e description troncati nei risultati di ricerca di Google
title e description troncati nei risultati di ricerca di Google

Come possiamo vedere qui, sia il title che la meta description sono troncati e, quindi, non forniscono la migliore esperienza utente.

  • tag title duplicati

È pratica comune per i siti e-commerce avere tag identici. Questo è spesso il caso anche di altri tipi di siti, sfortunatamente. I tag title duplicati rendono più difficile per le pagine web distinguersi e differenziarsi da altre pagine simili.

Funzionalità di Screaming Frog per trovare tag title duplicati
Funzionalità di Screaming Frog per trovare tag title duplicati

Problemi con il file Robots.txt

Robots.txt è uno strumento relativamente semplice ma utile che fornisce informazioni e istruzioni importanti ai crawler dei motori di ricerca. Si trova nella directory radice dei siti web e utilizza il formato plain text.

Può impedire la scansione di determinate sezioni del nostro sito web, in modo che i bot non debbano sprecare risorse preziose. Tuttavia, ci sono alcuni potenziali errori di cui dovremmo essere consapevoli.

Concedere l'accesso a siti di staging e dev o pannelli di amministrazione

Esistono diversi modi per impedire ai motori di ricerca di raggiungere qualsiasi versione di test e in fase di sviluppo del tuo dominio. Uno dei modi è utilizzare un comando nel tuo file robots.txt, anche se ci sono modi più efficaci per farlo (es. autenticazione HTTP).

Una delle istruzioni di blocco più comuni per i siti WP è escludere la cartella del pannello wp-admin. Ecco come appare:

User-agent: * Disallow: /wp-admin/

User-agent: * significa che l'istruzione si applica a tutti i bot (Google bot, Bing bot, ecc.) e la seconda riga dice che vogliamo impedire loro di scansionare la cartella /wp-admin/ e tutto ciò che vi è all'interno.

Bloccare URL importanti dalla scansione

Simile al comando precedente, non vogliamo impedire l'accesso ai bot a cartelle importanti del nostro sito web. Ad esempio, un errore comune potrebbe essere:

User-agent: * Disallow: /esempio-directory-importante/

O a volte potremmo persino avere questo:

User-agent: * Disallow: /

che fondamentalmente significa impedire l'accesso all'intero sito web a tutti i bot. Questo viene solitamente utilizzato prima di "aprire" il sito al mondo durante i test iniziali. Tuttavia, a volte viene trascurato e DEV o SEO dimenticano di rimuoverlo quando il sito è disponibile al pubblico, compresi motori di ricerca e utenti.

Il Robots.txt è un ottimo modo per facilitare ai motori di ricerca trovare il file sitemap di un sito web. Anche se non è un grande errore se lo dimentichiamo (specialmente per i siti più piccoli), è comunque una cosa veloce e utile da fare.

Indirizzo del file sitemap incluso nel file robots.txt
Indirizzo del file sitemap incluso nel file robots.txt

Disastri con il tag Meta Robots

Meta robots è uno dei tag più importanti e direttive in generale quando si parla di SEO. È un modo efficace per i proprietari dei siti di informare i motori di ricerca che una determinata pagina non dovrebbe essere seguita o indicizzata.

Ci sono vari casi d'uso e configurazioni, ma il più popolare (e spesso pericoloso) è il tag noindex. "Vive" nella sezione head dell'HTML e si presenta così:

<meta name="robots" content="noindex,follow" />

Fondamentalmente, significa che scoraggiamo i motori di ricerca dall'indicizzare i nostri contenuti nei risultati di ricerca, ma vorremmo che seguissero i link su quella pagina. Possiamo risolvere vari potenziali problemi impedendo ai motori di ricerca di indicizzare i contenuti. Per esempio:

  • pagine con contenuto scarno che non forniscono alcun valore reale per gli utenti- pagine di checkout sui siti eCommerce- URL contenenti informazioni sensibili- pagine dev/staging non pronte per essere lanciate al pubblico

Il problema più comune che si verifica con il comando noindex è dimenticare di rimuoverlo per una pagina importante (o l'intero sito web) ogni volta che è pronta per essere lanciata ufficialmente nel mondo online. Diciamo che i DEV ci hanno lavorato a lungo, testando varie cose, e poi qualcuno semplicemente dimentica di rimuoverlo una volta lanciato.

Indubbiamente, questo è uno dei primi (e più semplici) controlli da fare se ti chiedi perché un determinato sito web o sezione specifica non sta portando alcun traffico organico.

Ti basta aprire il codice sorgente e cercare (ctrl+f) il comando "robots". Se noti la direttiva "no index" allora sei nei guai! La buona notizia però è che ora conosci il motivo e come risolverlo facilmente.

meta robots noindex nel codice sorgente
meta robots noindex nel codice sorgente

Quando i canonical vanno male

Il tag canonical è un'arma potente nell'arsenale dei SEO. Viene spesso utilizzato per evitare potenziali problemi SEO con contenuti simili esistenti su URL diversi.

Ad esempio, è molto comune negli e-commerce con diversi parametri nelle pagine che potrebbero potenzialmente causare problemi di contenuti duplicati.

Con il canonical, diciamo semplicemente ai motori di ricerca qual è la pagina "principale" / "originale", in modo che tutte le altre versioni non creino problemi. Inoltre, Google saprà quale pagina dare la priorità e mostrare nei risultati di ricerca.

Ci sono un paio di problemi che possono verificarsi qui. Uno di essi, come già menzionato, è non avere un canonical impostato quando hai URL diversi con lo stesso contenuto.

canonical mancante segnalato dal crawler SEOcrawl
canonical mancante segnalato dal crawler SEOcrawl

Nel caso in cui il canonical sia impostato, ecco i pericoli più comuni di cui essere consapevoli:

  • l'URL canonical punta a un URL con tag noindex- l'URL canonical punta a un URL che restituisce un codice di stato 4xx o 5xx- l'URL canonical punta alla versione http non sicura di una pagina (quando abbiamo anche disponibile la versione sicura)- canonical non auto-referenziale (il cosiddetto URL canonicalizzato)

Nota: questo potrebbe andare bene nel caso in cui sia intenzionale, anche se nella maggior parte dei casi vorremmo canonical auto-referenziali

  • il tag canonical è vuoto o punta a una pagina non valida

Problemi con Hreflang

Gli hreflang sono riferimenti hyperlink nel codice HTML di una pagina che ci permettono di specificare gli URL alternativi assegnati a una determinata lingua o regione. Sono particolarmente importanti per i siti web che operano in paesi diversi e servono contenuti in lingue diverse.

Lo strumento SEOcrawler mostra ispezione e insights sull'hreflang per il dominio seoalive.com
Lo strumento SEOcrawler mostra ispezione e insights sull'hreflang per il dominio seoalive.com

L'idea principale dietro i riferimenti hreflang è assicurarci di mostrare la versione corretta del sito web in base agli utenti e al loro paese/lingua.

Ad esempio, per i visitatori spagnoli, vogliamo fornire la versione /es di un sito web/pagina, per i visitatori tedeschi, dovrebbe essere /de, e così via.

Essenzialmente, stiamo informando Google su quale pagina e in quale lingua dovrebbe essere mostrata agli utenti, a seconda delle loro impostazioni della lingua e della posizione.

Le annotazioni hreflang appaiono così:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

I problemi hreflang più comuni includono:

  • mancanza di un return link

Gli URL alternativi dovrebbero avere lo stesso codice della pagina che contiene URL hreflang alternativi. Quando si utilizza un tag hreflang e la pagina X linka alla pagina Y, la pagina Y deve ricollegarsi alla pagina X. Fondamentalmente, ogni riga di codice hreflang che fa riferimento a un'altra pagina dovrebbe avere lo stesso codice in ogni pagina a cui viene aggiunta.

  • la lingua rilevata non corrisponde alla lingua specificata

A volte la lingua specificata nei tag hreflang differirà dal contenuto effettivo della pagina

  • codici ISO errati

Un errore popolare è usare "en-UK" invece di "en-GB" quando si rivolgono a visitatori di lingua inglese nel Regno Unito. Anche la sintassi è molto importante. Anche se molti siti web utilizzano i trattini bassi per specificare le lingue nei loro URL, solo i trattini funzionano per gli hreflang.

  • mancanza di un tag auto-referenziale

Aggiungere un tag hreflang auto-referenziale è un must per garantire che i siti internazionali siano impostati correttamente e siano facili da capire per i motori di ricerca.

  • usare URL relativi invece che assoluti

Un altro errore comune con gli hreflang. Dovremmo evitare gli indirizzi relativi che forniscono solo un percorso e andare sempre per il percorso completo della pagina.

Corretto:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

Errato:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

Ecco uno strumento utile per identificare i problemi di hreflang- https://technicalseo.com/tools/hreflang/

Pericoli del JavaScript

Anche se Google conferma che JavaScript può essere utilizzato senza causare problemi SEO, dovremmo essere prudenti con esso. Spesso, gli sviluppatori utilizzano JS per caricare contenuti e link importanti, e questo può portarci a una situazione in cui i motori di ricerca non sono in grado di scansionare e comprendere correttamente il contenuto.

Pertanto, è consigliabile dedicare tempo extra e ispezionare i nostri siti web per vedere se tutte le informazioni importanti vengono mostrate correttamente.

Ad esempio, una cattiva implementazione JS potrebbe risultare in Google che non legge i meta titles e descriptions che abbiamo impostato, il che crea quindi problemi con il nostro CTR nei risultati di ricerca.

Il crawler SEOcrawl segnala un tag title mancante da una pagina
Il crawler SEOcrawl segnala un tag title mancante da una pagina

Ecco perché è estremamente importante essere consapevoli dell'interpretazione di Google del nostro contenuto JavaScript e se sono in grado di scansionare e indicizzare correttamente le informazioni.

Problemi di usabilità mobile

Probabilmente non sorprenderà nessuno se diciamo che l'usabilità e le prestazioni mobile di un sito web sono due dei fattori SEO più importanti al giorno d'oggi.

Sono passati alcuni anni da quando Google è passato al mobile-first indexing e prende in considerazione la versione mobile di una pagina web con priorità.

Uno dei principali problemi che si vedeva più spesso in passato era mostrare contenuti diversi a desktop e mobile. Questa è una pratica molto pericolosa e potrebbe risultare in risultati organici inferiori.

Alcuni dei principali fattori che potrebbero influire sulle prestazioni del sito web includono:

  • un gran numero di plugin

Cerca di stare alla larga dall'installare un gran numero di plugin. Più plugin hai, più pesante e ingombrante diventa il tuo sito web.

Inoltre, i plugin sono il potenziale punto di ingresso per gli hacker (quando non aggiornati in tempo), quindi potrebbero anche presentare un rischio per la sicurezza.

  • immagini non ottimizzate

Le immagini sono uno dei fattori più comuni che influenzano la velocità delle pagine e le prestazioni complessive di un sito web. A nessuno piacciono i siti web che caricano lentamente, quindi consigliamo sempre di cercare di mantenere le immagini meno di 100 kb in dimensione.

Strumento Page Speed Insights di Google con raccomandazioni per dimensionare correttamente le immagini
Strumento Page Speed Insights di Google con raccomandazioni per dimensionare correttamente le immagini

  • servizi di hosting

Tieni in considerazione che il server in cui ospiti il tuo sito web è la base su cui tutto sarà costruito. Pertanto, è meglio non scegliere la soluzione più economica e risparmiarti problemi in futuro. Vale la pena investire un po' di più ma sapendo che in cambio otterrai un servizio di hosting affidabile, sicuro e veloce.

In sintesi

Come abbiamo già potuto vedere, ci sono numerosi modi in cui si può sbagliare quando si parla di SEO. Vale anche la pena notare che questi sono solo alcuni dei problemi tecnici SEO più popolari e comuni in cui potremmo imbatterci. Ci sono molti altri incubi SEO che potrebbero accadere.

Speriamo di averti aiutato finora a ottenere un'idea e una comprensione migliori dei principali problemi SEO e ciò che è ancora più importante: come evitarli o risolverli.

Buona fortuna!

Autore: Ognian Mikov

Ognian Mikov

Il SEO è entrato nella mia vita nel 2012 e da allora non l'ho più lasciato. Per me è molto più di un lavoro: è allo stesso tempo una passione e un hobby, qualcosa che mi spinge ogni giorno a imparare e a migliorare. Che stia studiando nuovi argomenti, creando contenuti o immergendomi in interventi tecnici, resto sempre affascinato dall'immenso mondo del digital marketing e dalle infinite opportunità che offre per migliorare le performance di un sito web.

Nel 2021 sono entrato a far parte di SEO Alive e SEOcrawl — la mia prima azienda completamente in remoto — dove ho potuto sviluppare nuove competenze e lavorare a progetti entusiasmanti. Ma la cosa più importante è che ho avuto la fortuna di conoscere colleghi straordinari, da cui ho imparato molto e che sono diventati anche amici.

Ho una laurea in Marketing e un master in Relazioni Pubbliche e Pubblicità. Nel tempo libero amo stare con mia figlia e, quando posso, gioco e guardo scacchi, calcio (Само Левски & Més que un club) e poker.

→ Leggi tutti gli articoli di Ognian
Altri articoli di Ognian Mikov

Scopri altri contenuti di questo autore