/ / SEO sitemap.xml динамично съдържание - SEO, карта на сайта, динамични данни

SEO sitemap.xml динамично съдържание - SEO, карта на сайта, динамични данни

Да кажем, че имаме тези страници:

1. http://www.mywebsite.com/users/thomas-roberts
2. http://www.mywebsite.com/pages/thomas-roberts/1
3. http://www.mywebsite.com/pages/thomas-roberts/hello-kitty-collection

Има ли възможност да направите това в sitemap.xml:

<?xml version="1.0" encoding="utf-8"?>

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://mywebsite.com/users/^(w+)$/</loc>
<lastmod>2006-11-18</lastmod>
<changefreq>daily</changefreq>
<priority>1</priority>
</url>
<url>
<loc>http://mywebsite.com/users/^(w+)$/pages/^(w+)$</loc>
<lastmod>2006-11-18</lastmod>
<changefreq>daily</changefreq>
<priority>0.8</priority>
</url>
<url>
<loc>http://mywebsite.com/users/^(w+)$/pages/^(d+)$</loc>
<lastmod>2006-11-18</lastmod>
<changefreq>daily</changefreq>
<priority>0.6</priority>
</url>
</urlset>

Надявам се, че моят пример е ясен, че не посочваме нов елемент "url" в файла sitemap.xml, но вместо това отговаряме на регекс към URL адреса и ние просто се връщаме всеки път, за да го актуализираме.

Ако това не е решение, как се прави Twitterи Facebook индексират всичките си страници (профилни страници и т.н.) в Google? Създават ли нова карта на сайта всеки път, когато е създаден нов потребител, и актуализират своята карта на сайта някога някой актуализира тяхната страница / профил?

Аз бях много крив, ако indead ние някак си да генерира sitemap.xml (който има ограничение от 50.000 елемента и 10mb), каква би била добра идея за генериране на Sitemap, ако съдържанието се промени?

Благодаря много.

Отговори:

2 за отговор № 1

Картата на сайта трябва да съдържа действително URL адреси. Regex не са приемливи и съвсем безполезни, тъй като те не казват на търсачките нищо.

Sitemap просто казват на търсачките къде да намерят вашето съдържание. Така че, ако съдържанието на дадена страница се промени, картата на сайта наистина няма да я засегне, що се отнася до търсачките.


0 за отговор № 2

За съжаление файловете на sitemaps изискват изрични URL адреси в тях. Файлът Robots.txt вместо това признава определен вид Синтаксис на заместващи символи чрез знаците * и +, за да представляват набор от URL адреси, но това не важи за файловете със сайтове.


0 за отговор № 3

Мисля, че най-добрата идея е да актуализирате URL адреса в aбаза данни (или кеш), използвайки скрипт, който се изпълнява от задача cron. Ако sitemap.xml може да бъде генериран в рамките на сървъра, тогава нека да се изпълнява в движение с помощта на данните. Вижте тук за пример: https://stackoverflow.com/a/29468042/4058484

Въпреки това, ако имате огромно количество данни, тогава най-доброто се намира в URL адресите на няколко Sitemap, което е разрешено, докато са изброени sitemap.xml, посочени в robots.txt вижте подробностите тук: http://www.sitemaps.org/protocol.html#sitemapIndexXMLExample.