/ / Suchmaschinen-Bots und Meta-Aktualisierung für deaktiviertes Javascript - Javascript, Aktualisierung, Suchmaschine, Meta-Tags

Suchmaschine Bots und Meta-Refresh für deaktiviert Javascript - Javascript, Aktualisieren, Suchmaschine, Meta-Tags

Ich habe eine Website, auf der Javascript aktiviert sein muss, damit sie funktioniert

Es gibt ein <noscript> -Tag mit einem Meta, mit dem der Benutzer zu einer Seite weitergeleitet wird, die ihn über das deaktivierte Javascript informiert ...

Ich frage mich, ist das eine schlechte Sache für Suchmaschinen-Crawler?
Weil ich mir bei jemandem eine E-Mail schickehabe kein js, also kann ich analysieren, ob es notwendig ist, die Website für diese Leute neu zu erstellen, aber es ist zu 100% js aktiviert und die einzigen, die JS nicht haben, sind Suchmaschinen-Crawler ... Ich denke, google, yahoo etc doesn Nehmen Sie die Meta-Aktualisierung nicht ernst, wenn Sie sich in einem <noscript> befinden?

Sollte ich etwas tun, um zu überprüfen, ob es sich um Bots handelt, und sie nicht mit Meta umleiten?

Vielen Dank,
Joe

Antworten:

3 für die Antwort № 1

Anstatt den Benutzer / Bot mit Nachdruck zu senden, sollten Sie oben auf der Seite nicht einfach Text anzeigen lassen, der angibt, dass Javascript aktiviert ist, um die Site zu verwenden.

Dadurch können die Bots die Seite weiterhin lesenund folgen Sie den Links ohne Javascript. Dies würde die Probleme mit der Weiterleitung beenden und es wäre nicht notwendig, Bots eine andere Seite zu liefern. Dadurch würden Sie mehrere Seiten aktualisieren.

Vielleicht möchten Sie auch einen Blick darauf werfen Google Webmaster Tools um zu sehen, was Google gerade liest, und um dies zu verbessern.

Beispiel: Wenn Sie Javascript auf SO deaktivieren, wird oben ein rotes Banner mit der Meldung "Stapelüberlauf funktioniert am besten mit aktiviertem JavaScript" angezeigt. Sie können den Link zu einer Seite mit mehr Informationen erstellen, wenn Sie der Meinung sind, dass dies nicht ausreicht.


2 für die Antwort № 2

Hast du es versucht <!--googleoff: all--> <noscript><meta redirect... /></noscript><!--googleon: all-->? Es ist keine vollständige Lösung, aber einen Versuch wert ...


1 für die Antwort № 3

Folgendes würde ich tun:

  1. Stellen Sie es so ein, dass die Site einigermaßen funktioniertJavascript. Wenn Sie Ajax überall verwenden, stellen Sie sicher, dass die Links href auf die URL gesetzt haben, in der Sie Ajax verwenden. Dies kann dazu führen, dass Ihre Website ohne Javascript "etwas" funktioniert.
  2. Fügen Sie einige .htaccess-Weiterleitungen für die Bots hinzu. Leiten Sie sie an einen vernünftigen Ort weiter, an dem sie zu bestimmten Links gehen und bestimmte Inhalte indizieren können

Ihre Website, wie sie ist, ist wahrscheinlich sehr schlecht in Bezug auf Crawl-Fähigkeit und SEO.

bearbeiten: ok, ich sehe dein Problem. Die Crawler werden umgeleitet, nachdem sie das Zeug in Noscript gesehen haben.

Wie wäre es dann mit dieser Lösung:

Wenn Sie nur eine Seite mit dem Noscript haben,Anschließend können Sie Ihrer Apache-Konfiguration einige Umschreiberegeln hinzufügen, die den Bots eine andere Version der Seite anzeigen, und diese Version hat kein Noscript-Tag. zum Beispiel:

RewriteCond %{HTTP_USER_AGENT} Googlebot [OR]
RewriteCond %{HTTP_USER_AGENT} msnbot [OR]
RewriteCond %{HTTP_USER_AGENT} Slurp
RewriteRule ^.*$ nometa.html [L]

Welche Technologien setzen Sie ein? Verwenden Sie serverseitige Sprachen, verwenden Sie sogar Apache? Ich nahm an, Sie haben Apache + HTML, aber keine serverseitige Sprache. Wenn auf dem Server etwas ausgeführt wird, ist dies einfacher.


1 für die Antwort № 4

Da <meta> im <body> einer Seite nicht zulässig und <noscript> im <head> -Bereich nicht zulässig ist, geben die Bots möglicherweise nur auf einer Seite auf, auf der sie schlechtes HTML gefunden haben.

Ich schlage vor, dass Sie einfach ein <noscript> -Tag verwenden, um eine Warnmeldung und einen Link zu kapseln, auf den der Benutzer klicken kann, wenn kein Javascript aktiviert ist.

Suchmaschinen können daran gehindert werden, diesem Link zu folgen /robots.txt Datei oder durch Platzieren eines

<meta name="ROBOTS" content="NOINDEX,NOFOLLOW" />

Tag auf der Seite, auf die verlinkt wird.


1 für die Antwort № 5

Sie könnten eine Seite mit der Aufschrift "Sie benötigen Javascript" haben. Und dann auf dieser Seite hinzufügen

<script>
window.location.href="/thejspage.html";
</script>

Auf diese Weise werden Personen mit Javascript-Unterstützung einfach auf die gültige Seite weitergeleitet, und die Spinnen bleiben einfach auf dieser Seite, anstatt eine Seite zu speichern, auf der kein Javascript vorhanden ist.

Dies sollte auch Ihrer SEO helfen (da die Suchmaschinen eine Seite finden, die normale Benutzer sehen können).


0 für die Antwort № 6

Möglicherweise können Sie einen Browser ohne Kopf verwenden und den HTML - Schnappschuss der Seite für diejenigen bereitstellen, für die JavaScript nicht aktiviert ist, einschließlich der Crawler.

http://code.google.com/web/ajaxcrawling/docs/getting-started.html