Immer wieder Google… Neu können Anbieter von Webangeboten Google in einer XML-Sitemap mitteilen, welche Seiten gecrawlt werden sollen: Google Sitemap. Der Bereich der technischen Suchmaschinen-Optimierung (v.a. bei generierten Inhalten mit «?» und «&» in der URL) ist somit weitgehen vereinfacht. Wurde aber nun Cloaking nicht grad ein bisschen einfacher?
Die Inhalte (Tags) sind sehr einfach: Wie häufig besucht werden soll (changefreq), das Änderungsdatum (lastmod), die URL und eine Priorität im Set (priority). Hier ein Beispiel einer solchen Sitemap:
Und nun ans programmieren (oder zum Generator von Google in Python).
Köder für Crawler
K
Wieso nicht gleich wie beim favicon.ico oder robots.txt eine Datei definieren, in der man die sitemap anbietet? dann hätten die anderen suchmaschinen auch was davon 😉 und man müsste nicht immer die site generieren und rum schicken, sondern kann sie generieren lassen.
Das wär doch ein geschäftsmodell für einen standard ;o)