Ak sa motáte okolo webu, tak súbor robots.txt
asi dobre poznáte. Ide o textový súbor, ktorý umožňuje správcom webu zakázať, alebo povoliť prístup niektorým botom (vyhľadávačom ako napríklad Google).
Túto metódu pôvodne definoval Martijn Koster v roku 1994. No a počas septembra tohto roku bolo vydané RFC 9309 – Robots Exclusion Protocol, ktoré štandardizuje formát súboru robots.txt
. RFC je stále však odporúčanie, nie norma – ak ju dodržíš nemáš problém.
Samozrejme robots.txt
neznamená striktný zákaz indexácie z pohľadu nejakej ochrany, bot ho môže ignorovať resp. zariadiť sa podľa seba ak ide o weby s pomerne veľkým množstvom spätných referencií.