/ / Ako prispôsobiť DNN robots.txt tak, aby umožnil prehliadaču modulov špecifický súbor Sitemap? - seo, dotnetnuke, robots.txt, googlebot

Ako prispôsobiť DNS robots.txt, aby bolo možné prehľadávať stránky vyhľadávačov špecifické pre daný modul? - seo, dotnetnuke, robots.txt, googlebot

Používam modul EasyDNN News pre blog,na našich stránkach DNN. Základný súbor Sitemap DNN neobsahuje články generované týmto modulom, ale modul vytvára vlastnú mapu stránok.

Napríklad: domain.com/blog/mid/1005/ctl/sitemap

Keď sa pokúsim odoslať tento súbor Sitemap spoločnosti Google, hovorí sa, že blokuje súbor Robots.txt.

Pri pohľade na súbor Robots.txt, ktorý sa dodáva s DNN, som si všimol nasledujúce riadky pod užívateľskými agentmi Slurp a Googlebot:

Disallow: /*/ctl/       # Slurp permits *
Disallow: /*/ctl/       # Googlebot permits *

Chcel by som odoslať sitemap modulu, ale ja "drád by som vedel, prečo je / ctl pre tieto užívateľské agenty zakázané a aký by bol vplyv, keby som tieto riadky odstránil zo súboru? Konkrétne, pretože sa vzťahuje na Google prehľadávanie stránky.

Ako ďalší odkaz som si tento článok prečítalnižšie o zamedzení duplicitného ukladania sankcií tým, že zakážete špecifické adresy URL, ktoré obsahujú / ctl, ako napríklad prihlasovacie meno, register, výrazy atď. „Som zvedavý, či je to dôvod, prečo DNN iba nepovolila žiadnu adresu url s / ctl.

http://www.codeproject.com/Articles/18151/DotNetNuke-Search-Engine-Optimization-Part-Remov

odpovede:

0 pre odpoveď č. 1

Správny spôsob, ako to dosiahnuť, by bolo použitie poskytovateľa služby DNN Sitemap, čo je sakramentsky ľahké urobiť ako vývojár modulov.

Nemám mať blog post / tutorial na to, ale mám vzorový kód, ktorý možno nájsť v

http://dnnsimplearticle.codeplex.com/SourceControl/latest#cs/Providers/Sitemap/Sitemap.cs

To umožní, aby vlastné moduly pridali svoje vlastné informácie do súboru Sitemap služby DNN.

Dôvod / CTL je zakázané, pretože normálny spôsob načítania ovládacích prvkov Prihlásenie / Registrácia / Profil je robiť stránku? Ctl = login a to zvyčajne nie je niečo, čo chcú ľudia indexovať.

Ďalšou možnosťou je len upraviť súbor robots.txt.