Ustawiłem pewne reguły w pliku robots.txt dla konkretnego agenta dla mojej witryny Drupal.
Mam jedno pytanie. Kiedy ten agent próbuje uzyskać dostęp do strony internetowej, czy dostęp ten będzie nadal rejestrowany w moim pliku apache access_log?
Odpowiedzi:
1 dla odpowiedzi № 1Disallow
w robots.txt technicznie nie uniemożliwia agentom użytkownika dostępu do Twojej witryny. Każdy agent użytkownika decyduje, czy chce honorować plik robots.txt, czy nie.
Domyślnie Drupal nic nie robi z zawartością pliku robots.txt, a zawartość robots.txt w ogóle nie wpływa na dzienniki serwera.