- rss. Really Simple Syndication, man rss-feeds abonnieren und zu dem gwählten Thema erhält man die neuesten Infos
- backlinks, bei fehlendem Know-How oder mangelnder Zeit ist die Verpflichtung einer Agentur sinnvoll
Webmaster-Tools: über Google-Suche, der Blog ist sofort integriert - Analysesoftware, um zu checken, ob die Website Fehler aufweist (Crawller-Fehler, fehlerhafte Backlinks)
Konfiguration->Einstellungen
Unter dem Mnüpunkt Optimierung kann eine Sitemap erstellt werden, damit der Crawler von Google anhand der Sitemap "sauber" und schnell ausgelesen werden kann. Ohne Sitemap geht der Crawler u.U. nur bedingt über alle Seiten - > Vorteil der Sitemap
GSite Crawler : Beispielprogramm, um eine Sitemap zu erstellen, Website crawlwn lassen, Sitemap (+gss-Datei) erstellen lassen und in das Rootverzeichnis kopieren
XML-Sitemaps sind in folgenden Fällen besonders nützlich:
- Ihre Website enthält dynamischen Content.
- Ihre Website enthält Seiten, die beim Crawlen durch den Googlebot
- Ihre Website ist neu und es wird nur durch wenige Links auf sie verwiesen. Der Googlebot durchsucht das Web durch Verfolgen von Links von Seite zu Seite. Spärlich verlinkte Websites sind daher nur schwer zu finden.
- Ihre Website enthält ein großes Archiv mit Content-Seiten, die untereinander nur spärlich oder überhaupt nicht verlinkt sind.
Keine Kommentare:
Kommentar veröffentlichen