StartseiteSEO

Wie behandelt Google Textduplikate?

23.09.2008
Nachdem Duplikate und Plagiate auch von den deutschen Gerichten verfolgt werden, ist es zweckmäßig auch einige Regeln aus den Kommentaren von Google Mitarbeitern herauszuarbeiten.

Wie behandelt Google Textduplikate? Duplicate Content wird nicht mit SERP-Abzug bestraft, sondern aus den Suchergebnissen gefiltert. Plagiate werden also nicht angezeigt. Welche Kriterien nimmt Google für das herausfiltern?

- Seiten mit übermäßig lange Copyrigth-Vermerke werden ausgefiltert

- Produktseiten, die sich nur in den Farben unterscheiden, werden ausgefiltert. Nur eine Seite wird angezeigt

- Seiten mit identischem Inhalt, aber in verschiedenen Sprachen und mit den entsprechenden Landesdomains werden akzeptiert, z.B. deutschsprachige Seite auf .de ist keine Dublette zur englischsprachigen Seite auf .uk

- Links zwischen länderspezifischen Dubletten-Domains werten gewertet, der Link von der .de-Seite auf die .uk-Seite ist ok

- Duplikate auf einer Landesseite (.de, .com usw) und einer Handy-Seite (.mobi) werden zugelassen

- Wenn aus bestimmten Gründen die Inhalte verschiedener Webseiten kopiert werden müssen, sollte nur die Master-Seite in der sitemaps.xml für die Robots
gemeldet werden.

- Je mehr Zeit und Ressourcen der Googlebot verwendet, um duplizierte Inhalte einer Website zu crawlen, desto weniger Zeit hat er, die restlichen Inhalte dieser Website zu erfassen. Duplicate verringert somit auch die Anzahl der Seiten im Index und reduzieren über weniger interne Links folglich die SERP.

Vermeidung von Duplikaten für die Bots

Damit die Bots nciht unerwünschterweise doppelte Inhalte diskriminieren, sind folgende Strategien erforderlich

- Doppelte Seiten durch die robot.txt für die Bots sperren

- Robots durch das nofollog-Tag in den Links auf Dopppelte Seiten vom Besuch dieser Seite abhalten.

- nach der Neustrukturierung einer Website können die Nutzer und Bots über eine 301-Weiterleitung ("RedirectPermanent") auf die neue Struktur geleitet werden. Beim Apache-Server erfolgt dies in der ".htaccess"-Datei, beim IIS über die Verwaltungskonsole.

- konsistene Links verwenden, z.B. immer nur http://www.suma-pro.de/
verwenden, und nicht parallel die Formen http://www.suma-pro.de/index.php oder
http://suma-pro.de

- immer die oberste Domain für landesspezifische Inhalte verwenden.
Die Domain www.beispiel.de weist eher auf www.beispiel.com/de oder de.beispiel.com.
Landesspezifischen Content zu präsentieren. www.beispiel.de weist eher auf Deutschland-spezifischen Content hin als www.beispiel.com/de oder de.beispiel.com.

Momentan diskutiert Google intern, ob in das Webmaster Central ein Tool "Duplicate Content Filter Meter" aufgenommen werden soll. Der Vorteil wäre sicherlich, daß weniger Duplikate im Netz stehen würden.

Zusammenfassung

Es wird geklärt, wie Google Duplikate und Plagiate behandelt.

Kommentare

Hier klicken, um einen Kommentar zu schreiben

auf die ersten Google Seite mit Google Regeln Juni 2008
© suma-pro.de (2007- Mit Suchmaschinenoptimierung nach dem
SEO MASTERPLAN
und gutem Shop-Design auf die erste Seite
Datum der letzten Änderung