Creare sitemap per Google

Inviare sitemap a google
by

Creare sitemap per Google

Creare una sitemap per Google ? Devi sapere che: 
Prima cosa da fare è creare la nostra sitemap utilizzando un sitemap generator online, come per esempio quello accessibile all’indirizzo https://www.xml-sitemaps.com/.

Potete farvi un idea grazie a questo video creato da SEO Center

Inviare sitemap e creare file robots.txt

Ecco come Creare sitemap per Google inviarla, creando il file robots.txt  ai fini dell’indicizzazione del sito web:
vediamo quindi come inviarla con Google Web Master Tool verso Google.

E’ sufficiente inserire l’URL del nostro sito web all’interno del form “Starting URL”
e decidere la frequenza di aggiornamento del nostro sito mediante le opzioni  nel menu a tendina
“Change frequency”: “Daily” se il sito verrà aggiornato giornalmente ,
“Weekly” settimanalmente, “Mounthly” se mensilmente ecc.

Web marketing : gli strumenti di Google

creare sitemap per googleDopo aver cliccato il tasto “Start” è possibile scaricare la nostra Sitemap in formato XML
per poi caricarla via FTP ( FileZilla , Cyberduck ecc. ) nella cartella principale del sito  in modo da visualizzarla
per esempio se si trova all’indirizzo www.nomesito.com/sitemap.xml è sufficente digitare  sitemap.xml
e cliccare sul pulsante Invia sitemap.

 

C’è però un’ altra operazione importante da fare per favorire la corretta indicizzazione del tuo sito web,
ovvero Creare sitemap per Google e Invio .
Questo file serve per comunicare ai motori di ricerca quali sezioni del sito devono indicizzare,
Infatti, di solito  non tutte le pagine di un sito  vanno indicizzate  e, sopratutto, sono da evitare i contenuti duplicati
perchè potrebbero comportare penalizzazioni nel posizionamento dei motori di ricerca.

Vediamo le indicizzazioni passo-passo per scrivere questo file con estensione .txt per il quale possiamo adoperare un semplice programma di editing di testo come Blocco notes.

Disallow

La riga Disallow del file robots.txt potrebbe anche generare alcune problematiche se non viene gestita come si deve,
per bloccare l’accesso dei crawler a ogni pagina del sito web è necessario inserire quanto segue:

User-agent: *
Disallow: /

Il comando principale è Disallow: serve  a indicare qual’è il contenuto da bloccare,
e deve essere introdotto con il simbolo”/”.

creare sitemap per googleSi possono usare anche alcune combinazioni  di caratteri speciali,
Tuttavia il primo comando da inserire nel file  è User-agent e serve a indicare a quale robot dei motori di ricerca
ci riferiamo per esempio ( Googlebot ).E’ sempre consigliabile applicarlo a tutti i motori di ricerca inserendo quindi il valore “*“( asterisco).
La prima riga del nostro file robots.txt allora sarà : User-agent : *

 

 

Personale opinione: consiglio sempre di inserire questa indicazione all’interno del file robots.txt in maniera tale che non possa essere scansionato prima che sia finito,
Bisogna ricordarsi in seguito di rimuovere l’indicazione sopra citata una volta che il sito è finito,
ed è sul dominio definitivo.

Ad esempio, per bloccare solo una determinata pagina si può utilizzare la stessa formula di prima con in aggiunta il percorso della pagina che desideri bloccare:

User-agent: *
Disallow: / pagina – da – bloccare.html

Stessa cosa se desideri farlo per una cartella ( /cartella-da-bloccare.html ).

E’ fondamentale che tu capisca che, tramite queste indicazioni bloccherai l’accesso alla scansione di determinate pagine o cartelle ma non ne bloccherai l’indicizzazione.

I motori di ricerca possono raggiungere tramite un link esterno il tuo sito web indicizzandola,però senza visualizzarne il contenuto.

Se preferisci non indicizzare alcune pagine ,devi utilizzare la stringa:
<meta name=”robots”content=”noindex”>.

Da sapere:

Il file robots.txt è pubblico e tutti possono visualizzarlo in passato alcune istituzioni Governative o aziende hanno avuto qualche problema di reputazione per avere indicato in questo file, in seguito ad Eventi importanti,di non indicizzare alcuni contenuti che erano già stati pubblicati, la teoria del sospetto lascia intendere che alcuni contenuti si sono voluti effettivamente nascondere.

Allow

 Per fare in modo di far scansionare le pagine del tuo sito web è necessario scrivere queste due righe:

User-agent: *
Allow:

Questa indicazioni base ti consiglio di collocarle all’interno del file robots.txt nella tua root.
Puoi utilizzare queste stringhe quando hai intenzione di permettere l’accesso a specifiche risorse che vengono bloccate da un indicizzazione di Disallow.

Per esempio ,se vorrai consentire l’accesso a una determinata destinazione ad esempio presente in una cartella bloccata tramite Disallow, dovrai inserire queste due righe:

User-agent:  *
Disallow:  /cartella da bloccare/

Allow: cartella-da-bloccare/ file-consentito.html

 Come indicare la sitemap dentro il file robots.txt ?

L’indicazione è sempre sostenuta dai crawler di Google, Ask, Bing, e Yahoo
Che si può utilizzare per dire ai motori di ricerca le url della sitemap,
inserisci quindi queste righe:

sitemap:  /sitemap-pagine.xml
”        ”       /sitemap-immagini.xml
”         ”      /sitemap-articoli.xml

Testare il file robots.txt nella Google Search Console

Se andiamo in Google Search Console e nel menu sulla sinistra alla voce crawl ( Scansione ) è presente una funzione che consente di testare il funzionamento del file robots.txt.

Testare il file robots.txt nella Google Search Console

 

 

 


Recommended Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi

netBay by Computer-music© 2018 Tutti i diritti riservati – Cookie e Privacy Policy P. IVA 0297669036