Digital sozialisiert, Denker, Macher und Angel Investor.

Köder für Crawler

K

Immer wieder Google… Neu können Anbieter von Webangeboten Google in einer XML-Sitemap mitteilen, welche Seiten gecrawlt werden sollen: Google Sitemap. Der Bereich der technischen Suchmaschinen-Optimierung (v.a. bei generierten Inhalten mit «?» und «&» in der URL) ist somit weitgehen vereinfacht. Wurde aber nun Cloaking nicht grad ein bisschen einfacher?
Die Inhalte (Tags) sind sehr einfach: Wie häufig besucht werden soll (changefreq), das Änderungsdatum (lastmod), die URL und eine Priorität im Set (priority). Hier ein Beispiel einer solchen Sitemap:
i-1e78ba28bd19d166913663caf6e1214c-google_sitemap_example.gif
Und nun ans programmieren (oder zum Generator von Google in Python).

1 Kommentar

  • Wieso nicht gleich wie beim favicon.ico oder robots.txt eine Datei definieren, in der man die sitemap anbietet? dann hätten die anderen suchmaschinen auch was davon 😉 und man müsste nicht immer die site generieren und rum schicken, sondern kann sie generieren lassen.
    Das wär doch ein geschäftsmodell für einen standard ;o)

Digital sozialisiert, Denker, Macher und Angel Investor.