Nuove direttive per il file robots.txt

Ciao Matt, ho un problema di indicizzazione: il mio sito ha 200.000 pagine ma ne vengono indicizzate solo 100.000. Quello del mio concorrente invece ha solo 120.000 pagine, ma sono tutte indicizzate. Come posso fare per raggiungerlo?

Approfitto della tua domanda per specificare che Google ha pensato a chi ha problemi come i tuoi: ci sono nuove direttive per il file robots.txt

Eccole nei dettagli:

Nel tuo file robots.txt aggiungi queste righe:

User-agent: googlebot
Disallow: http://www.sitodelconcorrente.com/

In tale maniera tutte le pagine del sito del tuo concorrente saranno escluse dall’indice.

Se invece vuoi escludere solo alcune pagine, ad esempio il catalogo dei prodotti, molto utile ad esempio se si tratta di e-commerce o price comparison, allora:

User-agent: googlebot
Disallow: http://www.sitodelconcorrente.com/folder-products/

Se infine, oltre ad eliminare le pagine dall’indice di Google, vuoi che l’intero sistema planetario che ruota intorno a Google ignori il tuo concorrente:

User-agent: googlebot
Disallow: registrant http://www.sitodelconcorrente.com

Infine per l’eliminazione fisica del concorrente tramite arresto cardiocircolatorio

User-agent: googlebot
Disallow: blood/life registrant http://www.sitodelconcorrente.com

Tieni presente che siamo ancora in fase beta, e l’uso dell’ultima direttiva non funziona ancora bene. Puoi sempre fare un giro a New York e comprarti una pistola con silenziatore.

2 commenti »

  1. DAG said,

    settembre 17, 2007 @ 14:19

    Spero sia uno scherzo…

    Dopo ADWords utilizzato per nuocere i concorrenti, ora ci si mette anche il robot.txt…

    Mah…

  2. mattkazz said,

    settembre 20, 2007 @ 14:55

    Non dubitare: è tutto vero. Prova e vedrai che funziona, altrimenti segnala il problema a Google Help.

RSS feed for comments on this post · TrackBack URI

Lascia un commento