/ / SEO sitemap.xml динамічний контент - seo, карта сайту, динамічні дані

SEO sitemap.xml динамічний контент - SEO, Sitemap, динамічні дані

Давайте скажемо, що ми отримали ці сторінки:

1. http://www.mywebsite.com/users/thomas-roberts
2. http://www.mywebsite.com/pages/thomas-roberts/1
3. http://www.mywebsite.com/pages/thomas-roberts/hello-kitty-collection

Чи є така можливість у sitemap.xml:

<?xml version="1.0" encoding="utf-8"?>

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://mywebsite.com/users/^(w+)$/</loc>
<lastmod>2006-11-18</lastmod>
<changefreq>daily</changefreq>
<priority>1</priority>
</url>
<url>
<loc>http://mywebsite.com/users/^(w+)$/pages/^(w+)$</loc>
<lastmod>2006-11-18</lastmod>
<changefreq>daily</changefreq>
<priority>0.8</priority>
</url>
<url>
<loc>http://mywebsite.com/users/^(w+)$/pages/^(d+)$</loc>
<lastmod>2006-11-18</lastmod>
<changefreq>daily</changefreq>
<priority>0.6</priority>
</url>
</urlset>

Я сподіваюся, що мій приклад зрозумілий, ми дійсно не вказуємо новий елемент "url" у файлі sitemap.xml, але замість цього ми відповідаємо регулярним виразом для url, і ми щоразу повертаємося до оновлення.

Якщо це не є рішенням, як це зробити Twitterі Facebook індексують всі свої сторінки (сторінки профілів і т.д.) у Google? Чи генерують вони нові мапи сайту кожного разу, коли створюється новий користувач, і оновлюють свій сайт, коли хтось оновлює свою сторінку / профіль?

Я був дуже currious, якщо indead ми отримали як-небудь породжують sitemap.xml (котрий має межу 50.000 пунктів та 10mb) що би була гарна ідея для генерації sitemaps якщо вміст приїжджає модифікований?

Дуже дякую.

Відповіді:

2 для відповіді № 1

Карта сайту повинна містити фактично URL-адреси. Regex не є прийнятними і абсолютно марними, оскільки вони нічого не повідомляють пошуковим системам.

Sitemaps просто повідомляють пошуковим системам, де можна знайти ваш вміст. Таким чином, якщо зміст сторінки змінено, карта сайту дійсно не вплине на нього, оскільки стосується пошукових систем.


0 для відповіді № 2

На жаль, файли Sitemaps вимагають явних URL-адрес у них. Файл Robots.txt замість цього визнає певний тип Синтаксис Wildcard через знаки * і + представляють набір URL-адрес, але це не стосується файлів sitemaps.


0 для відповіді № 3

Я вважаю, що найкращою ідеєю є оновлення URL вбазу даних (або кеш) за допомогою сценарію, який виконується завданням cron. Якщо файл sitemap.xml може бути згенерований в межах часового інтервалу сервера, дозвольте йому працювати на льоту, використовуючи дані. Див. Тут приклад: https://stackoverflow.com/a/29468042/4058484

Однак, якщо у вас є величезна кількість даних, найкраще розташовуються URL-адреси в декількох файлах Sitemap, які дозволені, якщо перелік sitemap.xml вказаний у файлі robots.txt. http://www.sitemaps.org/protocol.html#sitemapIndexXMLExample.