/ Django、seo、sitemap、robots.txtのテストサイト(生産サイトではない)でDjango urls.pyの特定のURLを除外

django、seo、sitemap、robots.txtのテストサイト(生産サイトではない場合)のDjango urls.pyの特定のURLを除外

Herokuで私たちの生産サイトとテストサイトを運営しています。 私はrobots.txtとサイトマップを用意しています。これは、Googleがテストサイトのクロールを開始し、重複したコンテンツの実際のサイトにペナルティを課すようにするためです。

最も簡単な解決策は、テストサイトに/robots.txtと/sitemap.xmlを含めないためにurls.pyにif文を追加することです。しかし、私はこれを行う方法を理解することはできません。

私は別のロボットを含めることができました。私のテストサイトでは、OKのソリューションのように見えるページのクロールを許可していないときにtxtファイルを表示します。しかし、より多くのタイプのサイトマップなどを追加すると、urls.pyに1つのif / elseステートメントを入れる方が簡単になります。

誰でもこの問題に対する洗練された解決策を持っていますか?

回答:

回答№1は0

私はそうしたやり方でそれをやります:

from django.conf import settings

urlpatterns = patterns("",
...
)

if settings.DEBUG:
urlpatterns += patterns("",
...
)