Duplicate Content, oder das Problem mit schlechten Seiten
Ich bin gestern wieder über das hier gestolpert, und muß sagen, ich könnte weinen.
(klar, schon etwas älter, aber das Thema ist iwie immer noch aktuell)
Google selbst hält sich (wie so oft) nicht an seine eigenen Ratschläge:
Die eigene deutsche Seite läuft unter .com
googlewebmastercentral-de.blogspot.com
Hm, was schließen wir daraus?
Es ist besser, Seiten zu bauen, auf denen der User das findet, was er sucht, anstelle Seiten zu bauen, auf denen man glaubt, Suchmaschinen mögen sowas…
Gleiche Inhalte sind nun mal gleich, und dann muß Google seinen Algorythmus zu Rate ziehen, welche denn jetzt interessanter für den Besucher sein könnte.
Das das meist nicht die Seite ist, die man selbst gerne im Index hätte, tja…
Mein Blog wird nicht optimiert, basta (daher auch keine Enttäuschungen).
Ich schreibe, was ich gut/schlecht finde, auf der ersten Seite sind max. 3 Artikel, und zwar im Ganzen (nicht immer dieser Teaser-Kram…), und jeder Artikel für sich selbst hat eine eigene URL.
Klar ist das duplicate content, aber interessiert mich nicht.
Wenn die Einträge gut gelistet werden, schön; wenn nicht, who cares 🙂