/ / Виключіть певні URL-адреси в Django urls.py, коли на моєму тестовому (не виробничому) сайті - django, seo, sitemap, robots.txt

Виключити певні URL-адреси в Django urls.py, коли на тестовому (не виробничому) сайті - django, seo, sitemap, robots.txt

Я запускаю наші виробничі та тестові майданчики на Heroku. У мене є robots.txt та карта сайта, які я хочу запускати лише під час виробництва (щоб Google не почав сканувати наш тестовий сайт і штрафував нас на реальний сайт за дублікат вмісту).

Найпростішим рішенням буде щось на зразок додавання заяви if на urls.py, щоб не містити /robots.txt та /sitemap.xml, коли на тестовому сайті. Однак я не можу зрозуміти, як це зробити.

Я міг би включати різних роботів.txt-файл на моєму тестовому сайті, який забороняє сканувати будь-яку сторінку, що здається нормальним рішенням. Але, оскільки ми додаємо більше типів мап сайту тощо, буде "легше мати один випадок if / else в urls.py.

У когось елегантне рішення цієї проблеми?

Відповіді:

0 для відповіді № 1

Я зробив би це так:

from django.conf import settings

urlpatterns = patterns("",
...
)

if settings.DEBUG:
urlpatterns += patterns("",
...
)