Unsere Datenschutzrichtlinie wird in Kürze aktualisiert. Bitte sehen Sie sich die Vorschau an.

SEO: Onpage-Optimierung

Crawlersteuerung

Testen Sie unsere 2016 Kurse

10 Tage kostenlos!

Jetzt testen Alle Abonnements anzeigen
Der Crawler kann über mehrere Arten gesteuert werden. Eine strukturierte Auszeichnung informiert den Crawler, welche Dokumente für Sie wirklich wichtig sind.
04:01

Transkript

Die Steuerung des Crawlers gehört zu den nächsten Aufgaben während der Patchoptimirung. Es existieren eine Vielzahl an Möglichkeiten um den Crawler während seiner Arbeit zu beeinflussen. Besitzen Sie, beispielsweise, eine Internetseite, die oft neuen Inhalt bekommt, es ist wichtig, daß der Crawler regelmäßig über die neuen Inhalte informiert wird. Falls Sie eine Seite besitzen, auf der innerhalb der Dokumente oft Änderungen geschehen, sollten Sie auch dies dem Crawler mitteilen. In den nächsten Minuten zeige ich Ihnen, wie Sie den Crawler unterstützen und ihm zeigen, welche Dokumente wirklich wichtig sind. Die Suchmaschine besucht regelmäßig Ihre Internetseite und versucht dabei neue und aktualisierte Seiten zu ermitteln. Diesen Prozess bezeichnet man als Crawling. Damit sich die Suchmaschine dabei nicht nur auf eine Seite festliegt, besitzt jede Internetseite ein Crawlbudget. Dieses Crawlbudget definiert, wieviele Seiten von dem Crawler maximal pro Tag abgerufen werden können. Das Crawlbudget ist unter anderem abhängig von der Größe, der Anzahl der Empfehlung und der Serverarchtektur. Wenn Sie Ihre Internetseite in der Wert- massetools vom Google angemeldet haben, haben Sie dort die Möglichkeit das Crawlbudget ein gewisser Art und Weise zu beeinflussen. Bei der Einstellung für den Crawler existieren zwei Optionen. Zum ein, die optimale Crawling-frequenz vom Google bestimmt zu lassen oder die maximale Crawling-frequenz zu beschränken. Falls Sie die Frequenz vom Google selbst bestimmen lassen, analysiert Google während des Abrufens Ihre Dokumente, die Geschwindigkeit Ihres Servers. Daran erkennt der Crawler, ob die Anfragen, die von der Suchmaschine gestellt werden, gegebenenfalls zu viel Last für den Server sind, und deswegen die Anfrageanzahl reduziert werden muss. Sehen Sie auch die Möglichkeit die maximale Crawling-frequenz selbst zu definieren. In dem Beispiel können Sie sehen, daß zwischen zwei Anfragen, die die Suchmaschine an dem Beispieldomain stellt, 125 Sekunden lehen. Um zu prüfen, ob die Suchmaschine kugel- sicher wirklich an Ihren Programm hält, hält man eine Übersicht der Crawl- aktivitäten der letzten 90 Tage. In diesen Statistiken kann man sehen, wieviele Dokumente pro Tag von dem Crawler analysiert wurden. Zudem erhalten Sie eine Auflistung über die heruntergeladenen Kilobyte und wie lange das Herunterladen eines Dokuments durchschnittlich gedauert hat. Anhand dieser Statistiken können Sie auch sehr gut sehen, ob sich innerhalb Ihrer Domain irgendwelche Fehler eingeschlichen haben, in dem sich die Crawling-Statistiken signifikant verändern. Auch eine Aufrücksmessung einer Performanceoptimierung lässt sich anhand der dritten Grafik durchführen. Sie können dann sehr gut erkennen, ob in den letzten 90 Tagen sich die Performance deutlich verbessert oder verschlechtert hat. Es stehen Ihnen unterschiedliche Möglichkeiten zu Verfügung, wie Sie Suchmaschen über Aktualisierung informieren können. Eine dieser Möglichkeiten sind Sitemaps. Sitemaps werden wie folgt beschrieben. Durch die Verwendung von Sitemaps können Sie Suchmaschinen über Dokumente informieren, die von einem Crawler analysiert werden können. Eine weitere Möglichkeit Suchmaschinen über Änderung zu informieren, sind so genannte Ping-Dienste. Diese werden über eine XML-RPC-Schnittstelle über Aktualisierungen informiert und finden häufig Anwendung in Blogs. Über diese Schnittstelle werden nicht nur Suchmaschinen über Änderungen informiert, sondern beispielsweise, auch Seiten, die Sie innerhalb eines Blogbeitrags verlinkt haben. Zur Steuerung eines Crawlers stehen in dem Fall mehrere Möglichkeiten zur Verfügung. Diese Robotsanweisung können unterschiedliche Orten innerhalb Ihrer Domain oder auf der Seite definiert werden. Die bekannteste ist das Metarobotstag, das eine seitenspezifische Steuerung des Crawlers ermöglicht. Diese Steuerung ist sowohl in der Metatags, als auch in X-Robotstag möglich. Zusätzlich steht Ihnen auch das Seitenweitesperren von Dokumenten mit der rebots.txt zur Verfügung, als auch die Angabe des Attributs „rel=nofollow“ als Eigenschaft von Links. In diesem Video habe ich Ihnen gezeigt, daß es sinnvoll ist den Crawler bei seiner Arbeit zu unterstützen. Dafür sollten Sie wichtige Inhalte priorisieren, die crawlbaren Inhalte sind voll steuern und Inhalte sperren, die nicht für den Crawler bestimmt sind.

SEO: Onpage-Optimierung

Lernen Sie, wie Sie durch gezielte Maßnahmen am Quellcode Ihrer Website deren Sichtbarkeit für Suchmaschinen erhöhen. Sie erfahren auch, welche Analyse-Werkzeuge dabei helfen.

2 Std. 5 min (38 Videos)
Derzeit sind keine Feedbacks vorhanden...
 
Exklusiv für Abo-Kunden
Erscheinungsdatum:19.02.2015
Aktualisiert am:27.04.2016

Dieser Online-Kurs ist als Download und als Streaming-Video verfügbar. Die gute Nachricht: Sie müssen sich nicht entscheiden - sobald Sie das Training erwerben, erhalten Sie Zugang zu beiden Optionen!

Der Download ermöglicht Ihnen die Offline-Nutzung des Trainings und bietet die Vorteile einer benutzerfreundlichen Abspielumgebung. Wenn Sie an verschiedenen Computern arbeiten, oder nicht den ganzen Kurs auf einmal herunterladen möchten, loggen Sie sich auf dieser Seite ein, um alle Videos des Trainings als Streaming-Video anzusehen.

Wir hoffen, dass Sie viel Freude und Erfolg mit diesem Video-Training haben werden. Falls Sie irgendwelche Fragen haben, zögern Sie nicht uns zu kontaktieren!