Można ograniczyć ruch robotów internetowych na stronie, odpowiednio przygotowując plik robots.txt.
Plik należy umieścić w głównym katalogu każdego serwisu www, tak by był dostępny w następujący sposób:
http://moja.domena.pl/robots.txt
Przykładowa treść pliku robots.txt, blokująca wszystkie roboty oprócz robotów wyszukiwarek Google i Microsoft Bing:
User-agent: googlebot
Disallow:
User-agent: bingbot
Disallow:
User-agent: *
Disallow: /
Uwaga: roboty internetowe traktują zawartość pliku robots.txt jako
wskazówki. Większość z robotów do tych wskazówek się stosuje. Jednak może się zdarzyć, że robot celowo i natarczywie ignoruje zawartość pliku robots.txt. Wówczas można takiego robota zablokować mniej przyjazny (dla robota) sposób:
w pliku .htaccess