- Il file Robots.txt -
|
|||
TUTORIAL | |||
Cos'è e a cosa serve il file robots.txt | |||
<% 'ADV_ORGANIZER 1.0 | formato, categoria, base, altezza, unico, disposizione, voto, dove, numero,tipo,refresh,output response.write(organize_adv(0,categoria,120,600,,,7,,1,0,1,)) %> |
DEFINIZIONE
User-agent: NomeUserAgent Disallow: /
Il primo campo (User-agent) serve a definire quale robot (es. Internet
Explorer, lo spider di Google, ecc.) dovrà essere escluso, il secondo (Disallow)
invece descrive da quale sezione del sito escluderlo. Ecco un esempio che
fornisce una panoramica generale del funzionamento del file:
robots.txt. |
||
<< INDIETRO |