/ / Bestimmte URLs in Django urls.py ausschließen, wenn auf meiner Test- (nicht Produktions-) Site - django, seo, sitemap, robots.txt

Schließen Sie bestimmte URLs in Django urls.py aus, wenn Sie sich auf meiner Test- (nicht Produktions) -Site befinden - django, seo, sitemap, robots.txt

Ich betreibe unsere Produktions- und Teststandorte auf Heroku. Ich habe eine robots.txt- und sitemap, die ich nur während der Produktion ausführen möchte (damit Google unsere Testseite nicht durchsucht und uns auf der realen Website für doppelten Inhalt bestraft).

Die einfachste Lösung wäre etwa das Hinzufügen einer if-Anweisung zu urls.py, um /robots.txt und /sitemap.xml nicht auf der Testsite zu enthalten. Ich kann jedoch nicht herausfinden, wie ich das mache.

Ich könnte andere Roboter einschließen.txt-datei auf meiner test-website, die das crawlen für jede seite nicht zulässt, die wie eine ok-lösung erscheint. Wenn wir jedoch weitere Arten von Sitemaps usw. hinzufügen, ist es einfacher, eine if / else-Anweisung in urls.py zu haben.

Hat jemand eine elegante Lösung für dieses Problem?

Antworten:

0 für die Antwort № 1

Ich würde es so machen:

from django.conf import settings

urlpatterns = patterns("",
...
)

if settings.DEBUG:
urlpatterns += patterns("",
...
)