Questo articolo ti aiuterà a

La SEO non è cambiata negli ultimi 20 anni! Neanche con l’arrivo di ChatGPT

Se hai cliccato su questo articolo è perchè ti ha attratto un titolo così no-sense… infatti è decisamente provocatorio! Tuttavia, a parte l’irrefrenabile voglia di creare un titolo clickbait, credo fermamente in quello che ho scritto. Sono in questo settore da oltre 20 anni e l’algoritmo di Google è sempre lo stesso, semplice e in 3 soli step:

  1. GOOGLE CREA REGOLE PER GARANTIRE LA QUALITÁ
  2. LE REGOLE VENGONO INFRANTE DA CHI PUBBLICA I SITI (PUBLISHER)
  3. GOOGLE SI AGGIORNA E PENALIZZA

Che pensavi? Che fosse l’algoritmo di posizionamento a restare invariato???? MAGARI!!!!

Quello purtroppo cambia mediamente due volte l’anno e ogni volta che c’è un aggiornamento Google tutti ne parlano come se avessero reinventato la ruota! Ma in realtà il messaggio che ci lancia Google è sempre lo stesso “NON PROVARE A FREGARMI!”

Se sei un imprenditore, magari non addetto ai lavori ma appassionato di web, sei sicuramente vittima del terrorismo fatto dagli espertoni SEO ad ogni aggiornamento di Google e temi di perdere posizioni… be sappi che le tue paure, se hai sempre fatto le cose per bene, sono infondate! Ho siti nelle prime tre posizioni da decine di anni… si oscillano a volte sono primi, a volte terzi… ma sono sempre li!

Un sacco di consulenti continuano a propinare approcci quantitativi anziché qualitativi, a danno dei propri clienti – la maggior parte dei siti statici sta perdendo punti anziché guadagnarli e il traffico cala – una volta bastava “un blog”, adesso ci serve “un sito con i contro🌵”

Google è sempre al lavoro per migliorare la qualità dei suoi risultati di ricerca e per offrire ai suoi utenti le migliori risposte alle loro domande. Per farlo, l’azienda utilizza un algoritmo di posizionamento che determina quali pagine web dovrebbero apparire nei risultati di ricerca per una determinata query.

Tuttavia ci sono “esperti SEO” che cercano di hackerare l’algoritmo di Google aggirando le sue disposizioni e questo porta Google a cambiare molto spesso le regole del gioco per costringere i publisher a pubblicare contenuti di qualità che rispondano alle esigenze degli utenti e che non siano puramente finalizzati al posizionamento in prima pagina (che tra l’altro manco esiste più perché adesso c’è lo scroll infinito).

MOMENTO PIERO ANGELA: STORIA DEGLI AGGIORNAMENTI GOOGLE

Negli anni 90 bastava puntare su una keyword precisa e ripeterla più volte all’interno della pagina per aumentarne la presenza (keyword density) e far si che Google posizionasse bene la pagina. Gli “scienziati” hanno iniziato a inserire la keyword ovunque, in frasi senza senso, o peggio ancora nascondendola in sezioni bianche con testo bianco (quindi invisibile), ripetendola migliaia di volte in ogni pagina… insomma porcate pazzesche!
Quindi Google introdusse all’inizio del 2000 il concetto di keyword stuffing che in italiano vuol dire “i trucchetti che ho scritto nel paragrafo precedente sono cacca” e ha iniziato a penalizzare tutti i siti che lo facevano.

Come vedi già nel 1990 il concetto era: imposto regole, i publisher le aggirano, Google li penalizza!

La nuova regola era quella di usare le keyword in una frase di senso compiuto, quindi i publisher che hanno fatto? Hanno iniziato a sfruttare altre variabili di posizionamento, nello specifico le interconnessioni tra le pagine (link interni) creando tante pagine ottimizzate sulla stessa keyword ma con contenuti di bassissima qualità, pagine scritte velocemente, non aggiornate, con poche informazioni o peggio ancora duplicate… insomma fuffa!

Così nel 2011 (aggiornamento Panda) Google ha cominciato a penalizzare i contenuti di bassa qualità e duplicati.

Cosa hanno fatto i publisher? Hanno sfruttato un’altra importantissima variabile che incide sul posizionamento: i link in ingresso! E via col mercato dello scambio link! Purtroppo, per loro, la pacchia è durata meno di un anno, nel 2012 Google ha iniziato a penalizzare lo scambio di link e ha inserito il concetto di autorevolezza del dominio… in pratica link in ingresso si, ma da siti più autorevoli del proprio!

Questa battaglia si è susseguita negli anni e si sussegue tutt’ora! Potrei portare un esempio per ogni anno dal 2000 a oggi. L’apice è avvenuto tra il 2013 e il 2015 quando Google ha abbattuto il concetto di keywords sostituendolo con intento di ricerca, in pratica ha introdotto un nuovo sistema di ricerca semantica, basato sulla comprensione del significato delle parole chiave e sulla correlazione tra le parole usando sistemi di intelligenza artificiale (nel 2015 signori!!!) per capire cosa effettivamente cerca l’utente.

Cosa vuol dire? Che chi, fino a quel momento, si era sparato su una gamba per posizionare “appartamento in affitto a milano” iniziava a competere, non solo con chi aveva ottimizzato le proprie pagine per quella precisa keyword ma, anche con tutte le migliaia di ricerche simili come ad esempio “cerco casa in affitto a milano”. Tra l’altro questo tipo di ottimizzazione è in continua evoluzione nel 2019 è stata introdotto un sistema di learning machine che elabora il linguaggio naturale dell’utente fornendo risultati sempre più specifici e precisi imparando dagli utenti stessi.

Ci sono stati poi aggiornamenti riguardanti la user experience, le performance del sito il layout da mobile… insomma Google non rende la vita facile agli esperti SEO.

In generale, gli aggiornamenti dell’algoritmo di Google mirano a migliorare la qualità dei risultati di ricerca, penalizzando le pratiche di spamming e premiando le pagine web con contenuti di alta qualità, link in ingresso di qualità e una buona user experience complessiva.

Google e l’intelligenza artificiale

In questo periodo si è parlato tanto dei sistemi di intelligenza artificiale come ChatGPT per scrivere contenuti per i siti.. ho visto cose fantastiche automazioni che intercettano le ricerche sul web e inviano a ChatGPT i titoli che elabora l’articolo e lo pubblica automaticamente sul blog… tutto fighissimo! Ma siamo sicuri che questo possa piacere a Google?

In realtà no!

Per quanto futuristica e affascinante sia questa soluzione gli articoli prodotti dalle AI sono abbastanza freddi e i contenuti che propongono sono spesso superficiali e poco approfonditi, quindi di bassa qualità. Già questo potrebbe bastare per una penalizzazione, senza tener conto del fatto che si potrebbe incappare in contenuti duplicati.

La mia domanda è: se Google usava l’AI nel 2015 e tu la stai usando adesso, praticamente 10 anni dopo, davvero speri che non se ne accorga e non ti penalizzi?

I software di AI sono bellissimi e utilissimi per fare calendari editoriali, newsletter, contenuti di nurturing… ma la SEO e tutta un’altra cosa!

ChatGPT: usare con moderazione e leggere attentamente le avvertenze

Quindi come possiamo usare l’Intelligenza artificiale a nostro vantaggio senza essere penalizzati? Semplice! Possiamo usarla per farci dare degli spunti da rielaborare (come ho fatto io per questo articolo), rielaborare non vuol dire solo riscrivere con altre parole… vuol dire aggiungere le propria esperienza all’articolo, le proprie opinioni, in altri termini: polarizzare l’articolo. Io sono certo che qualcuno tra voi che legge questo articolo non sarà d’accordo con me… e ci sta non si può piacere e tutti, perché non tutti hanno buon gusto e le competenze per capire quanta verità ci sia in queste parole!

Ma perché leggere bene le avvertenze? Supponiamo che tu faccia un mero copia e incolla dei contenuti proposti da ChatGPT, di chi è la proprietà intellettuale o il copyright di qeulla’rticolo? Tua o Sua? La cosa migliore è: prendi spunto, rielabora, personalizza e polarizza!

Cosa devo misurare per capire se sto andando bene lato SEO?

Se sei preoccupato rispetto a qualche “marachella seo” fatta in passato perché magari hai seguito il guru sbagliato o qualche cuggino ti ha consigliato male puoi sempre rimediare… anche se non sarà semplicissimo.

STEP1: se hai installato Google Analytics o qualsiasi altro sistema di tracciamento analizza le visite organiche degli ultimi 2 anni e cerca di capire se ci sono state variazioni importanti e da cosa sono state causate

STEP2: usando tools SEO come Ubersuggest, SeoZoom o SemRush fai un audit del sito e vedi qual è la tua autorevolezza, quella dei tuoi link in ingresso, la tua posizione media, quante pagine hai posizionato e quante no, quali errori seo vengono rivelati (descrizioni e titoli mancanti o duplicati, link rotti, ecc…) e correggi tutto.

STEP3: ripeti lo STEP 2 almeno ogni 2 mesi monitorando sempre autorevolezza, link in ingresso, posizione media ed errori seo.

Gli aspetti da tenere sotto controllo sono tantissimi, io qui te ne ho elencati solo alcuni, ad esempio non ho parlato di performance o freshness e ho solo accennato alla link building… se ti senti sopraffatto da tutti questi concetti e hai bisogno di una mano noi di Snasto siamo qui per te (be dai una markettata alla fine dell’articolo la dovevo mettere per forza)! Scherzi a parte, fare SEO è un lavoro da esperti, i risultati si vedono nel lungo termine e, anche affidandosi ad esperti, non sono mai né sicuri né definitivi. Addirittura capita che alcuni interventi diventino peggiorativi! Quindi se il tuo obiettivo è posizionarti al meglio sui motori di ricerca affidati a gente esperta. (NON A QUELLI CHE TI CHIAMANO SPACCIANDOSI PER GOOGLE E DICENDOTI CHE TI GARANTISCONO LA PRIMA POSIZIONE… GOOGLE NON TI CHIAMA QUANDO HAI FATTURE IN SOSPESO FIGURATI SE TI CHIAMA PER PROPORTI LA PRIMA PAGINA!)

L’articolo è finito, andate in pace!

Vuoi aiuto su questo argomento?

Compila il modulo e ti chiameremo noi!

Quali sono i tuoi obiettivi?