StartseiteSEO

Neue Google Regeln

24.09.2009 (2. Update vom 02.07.2008)
Im GoogleWatchBlog wird von Udi Manber, dem Chef des Search Quality Bereichs berichtet, daß über 450 neue Google Regeln allein im Jahre 2007 eingeführt wurden. Aktuell werden im Google Webmaster-Zentrale Blog die neuen Google Regeln präsentiert Ein großes Team arbeite ständig daran, den Tricksern das Handwerk zu legen. Die wichtigsten Regelgruppen werden im folgenden erschlossen.

Domain
Die Domain bezeichnet den Name einer Website, so wie die Firma der Name eines Unternehmens ist. Bei der Neuanlage einer Website hat der Eigner die Wahl zwischen
- eigenem Personennamen "usergmbh.de"
- eigenem Ortsnamen "schlossuser.de"
- (künftigen) eigenem Markennamen "usermarke.de"
- dem wichtigsten Keyword "keyword.de"
- dem wichtigsten Keyword mit Regionalbezug "keywordort.de"
als Domain.
Die Wahl der Domain sollte namens- und markenrechtlich geprüft werden. Folgende Abmahnfallen sollten vermieden werden
- Fremde Marken (OLG Hamm Urt.v. 19.06.2001 - 4 U 32/01)
- Unternehmenskennzeichen (BGH Urt. v. 09.09.2004 - I ZR 65/02)
- Werktitel von Zeitschriften, Filmen oder Software
- Städtenamen, KFZ-Kennzeichen,
- Namen von Behörden (LG Köln, Urt. v. 28.05.98 - 15 O 15/98) oder Prominenten
Bei ähnlich klingenden Namen sollte man sich lange überlegen, ob man das Risiko eine Rechsstreits mit dem Inhaber einer großen Marke eingeht.
- Selbst Tippfehler-Domains (donline.de; BGH 27.11.2003 - I ZR 148/01) oder
- Gattungsbegriffe (mitwohnzentrale.de; BGH Urt.v. 17.05.2001 - I ZR 216/99) sind untersagt.
- Nach dem Olympia-Schutzgesetz (OlypmSchG) dürfen auch die Olympischen Begriffe, Symbole und Jahreszahlen samt ihrer Abwandlungen nicht ohne unerschwinglich teuere Lizenz verwendet werden.
- Auch die Wortmarken der Fußballmeisterschaften (z.B. EM 2008) sind geschützt.

Nach Geltung des neuen Rechtsberatungsgesetzes ab 1. Juli 2008 dürfen auch Internetunternehmen diese Fragen für Sie klären.

Seitens der Suchmaschinen werden "user marke.de" oder "user-marke.de" deutlich weniger Besucher haben als "usermarke.de". Das kann durch Erwerb aller drei Domains samt permanenter Umleitung auf "usermarke.de" berücksichtigt werden.

Einem beschreibenden Domainnamen ist auf jeden Fall zu bevorzugen. Er wird besser erinnert und die Suchmaschinen bepunkten die Domain höher, wenn Sie das Schlüsselkeyword enthält.
Die Domain sollte wegen der Lesbarkeit auch nicht zu viele Zeichen haben. Wahrnahmungspsychologisch kann man auf einen Blick vielleicht 8 Zeichen noch erkennen, mit Bindestrch, dann 17 Zeichen. Aber denken Sie auch daran, daß die Benutzer die Domain immer wieder eintippen müssen. Das kann schon nerven, vergl. bundesgerichtshof.de und bgh.de (da war jemand schneller).

Domainalter
Je länger eine Domain im Netz ist, desto höher ist das Vertrauen in diese Domain.
Damit spielt auch die Website History eine größere Rolle. Werden Suchergebnisse schon länger gespeichert, steigt das Vertrauen im Gegensatz zu einer neuen Website mit hohen Besucherzahlen. Das Domainalter ist jedoch kein Faktor im Google Ranking. (Google Webmaster-Zentrale Blog, 18.09.2009)

Dateinamen
Der Name einer Domain ist aufgebaut wie der Name einer Datei als Teil einer URL.
Ein Dateiname kann einen Bindestrich (z.B. suma-pro) oder einen Unterstrich (z.B. my_name) enthalten. Für die Suchmaschinen macht das schon einen Unterscheid, denn Unterschiede sind als Trennzeichen konzipiert und werden demnächst auch so eingesetzt (Google Webmaster-Zentrale Blog, 23.09.2009)
Aktuell werden Bindestriche als Trennzeichen behandelt und Unterstriche nicht. Es verbessert die Häufigkeit der Anzeige, wenn lange Dateinamen durch Bindestriche gegliedert sind.

Sandbox
Eine neue Website muss Vertrauen und Reputation aufbauen und landet daher zunächst in der sandbox. sie wird wegen des sandbox-Filters nicht in den Suchergebnissen angezeigt. Dieser Filter ist nicht vom Alter der Website abhängig, sondern von anderen Relevanz-Kriterien. Wird etwa gleich nach der Veröffentlichung der Website ein kontextbezogener Link von einer Seite mit hoher Reputation (=PR) auf die Website gesetzt, erscheint die Seite schon am gleichen Tag in den Suchergebnissen.

Website-Struktur
Die Webseiten Navigation soll für die Besucher gemacht werden. Besucher sollen sich gut zurechtfinden. Eine sorgfältige Strukturierung auf maximal 3 Ebenen unterstützt auch den Googlebot, der nur selten zu 4. und weiteren Ebenen crawlt.

Gültiger HTML-Code
Auch Fehler im HTML-Code werden bei den Google Punkten berücksichtigt.

Relevanz
Die meiste Energie wurde in die Verbesserung der Algorithmen zur Messung der Relevanz einer Webseite investiert. Dabei werden besonders Zeitmodelle stärker beachtet, also die Entwicklung der Parameter im Zeitverlauf.

Verlaufsanalyse
Ein weiteres Google Patent zur Aktualität eines Dokuments wurde umgesetzt. Das Patent beschreibt, warum eine ständig aktualisierte Seite mit vielen externen Links eine höhere Suchmaschinenrangposition haben muss, als eine alte Seite, die nur häufig verlinkt wurde.
Besonders durch die Einführung weiterer zeitabhängigen Modellen der Verlaufsanalyse wurde es möglich, Änderungen in Mustern zu erkennen und darauf zu reagieren. Wenn etwa regelmäßig wenige neue Links generiert werden aber dann auf einmel sehr viele, deutet das auf Linkkauf hin - oder auf eine gute virale Guerilla-Werbekampagne hin. Da aber Google auch die Eigentümer-Informationen zu einer URL für die Analyse heranzieht, werden Linkfarmer-Strukturen auch hier wieder schnell erkannt.

Kontextabhängige Verlinkung
Offensichtlich wird jetzt besonderer Wert auf Links aus den Texten heraus gelegt. Google erwartet im Durchschnitt 10 Links pro Seite. Es verstärkt die SERP, wenn in den Linktexten auch die Keywords der jeweiligen Seite möglichst weit vorne im Linktext enthalten sind. Dann fliest der Linksaft besser ("PageRank, or Link Juice" nennt es Matt Cutts).
Minuszeichen sollten nicht in den URL's auftreten.

Backlinks
Möglichst viele natürliche Verweise auf eine Seite ist noch immer der beste Pagerank-Booster. Google erwartet im Durchschnitt 10 Links pro Seite. Aber vermeiden Sie gekaufte backlinks. Gogle erkennt die Linkfarmen zumeist und bestraft Farmer wie Käufer. Teilweise surfen sogar Google-Mitarbeiter durch die einschlägigen Blogs und hinterlassen dort mit warnenden Kommentaren ihre Spuren.

Zulässig und erwünschte sind Links auf fremde Seiten mit dem Attribut rel="nofollow", bzw. die generelle Anweisung als Meta Tag "INDEX, NOFOLLOW". Ob dann für einen Link bezahlt wird, interessiert Google nicht.

schlechte Nachbarschaft
Google bestraft geradezu schlechte Nachbarschaft. Wenn Sie schlechten Umgang haben, melden Sie einfach Google auf dem Formblatt
http://www.google.com/safebrowsing/report_badware/
. Dann wird alles gut ;-)

Am besten prüfen Sie regelmäßig auch die Nachbarschaft auf dem IP-Server Ihres Providers mit derselben IP Ihrer Website
http://www.myipneighbors.com/
Verlangen Sie gegebenenfalls von Ihrem Provider, daß schlechte Nachbarschaft auf eine andere IP verlagert wird, denn die Suchmaschinen durchsuchen immer die ganze IP und schlechte Nachbarschaft färbt ab. Optimal sind themenverwandte Websites, freilich von unterschiedlichen Domain-Eignern aus verschiedenen Orten, aber gleichen Ländern.
Am besten fahren Sie aber nicht mit einer singulären, eigenen IP, sondern mit kontextbezogener hochkarätiger Nachbarschaft.

Flash
Google und Yhoo! haben in Zusammenarbeit mit Adobe einen Weg gefunden, auch Flash-Seiten zu indizieren. Bislang wurden nur statischer Text und Links auf Flash-Seiten problemlos erkann. Justin Everett-Church, Senior Product Manager Adobe Flash Player: "Nutzer erhalten bessere Suchergebnisse, weil eine Menge Informationen in SWF-Dateien stecken, die nun voll indiziert werden".

versteckter Text
Ist man unfähig, vernünftige und informative Texte um die Keywords einer Seite zu schreiben, werden die Keywords häufig unsichtbar in der gleichen Farbe wie der Hintergrund auf die Seite gesetzt. Man braucht sich dann nicht zu wundern, wenn Google die Seite mit der Sandbox bestraft.

Keyword-Spamming
Ebenso macht es keinen Sinn, die Keywords einfach aufzählend auf die Seite zu schreiben. Aber einer bestimmten einstelligen Zahl schlägt die Google-Falle zu.

Cloaking
Nennt sich das Verfahren, den Besuchern eine andere Seite zu zeigen als den Bots. Auch das wird jetzt von den Spidern sicher erkannt und bestraft.

Plagiate
Gestohlene Inhalt werden vom Googlebot sicher erkannt und aus dem Index eliminiert.

Linkkauf
Durch Algorithmenoptimierung werden fast alle Linkfarmen oder Link-Tauschringe erkannt und entsprechende gekaufte Links ignoriert, bei Übermaß sogar negativ bewertet.

qualitative Inhalte
Noch stärker wird jetzt Wert auf qualitative Inhalte gelegt. Bieten Sie Ihren Besuchern wertvolle Informationen. Dann steigt auch die SERP.

Favoriten, Lesezeichen, Social Booksmarks, Social Media Seiten
Bietet eine Seite informative Inhalte, äußern sich Besucher gerne positiv über diese Seite in den Social Media Seiten, auch Social Bookmarks, Lesezeichen oder Favoriten genannt. Diese Texte mit positven Beurteilungen motivieren Google, die Webseite höher zu bewerten. Favoriten sind damit Pagerank-Booster.

Keywords
sollten im ersten Absatz einer Seite stehen, damit die Seite auch gefunden wird.
Die Keyword-Phrase sollte den Inhalt der Seite genau charakterisieren. Aber ein Keyword sollte nicht häufiger als viermal auf einer Seite auftreten und nicht alle Keywords sollten genau viermal auf allen Siten auftreten, da sonst Verdacht auf Keyword-Spamming besteht.

Title und Description
Beide Tags werden als Suchergebnisse angezeigt und motivieren mit Klick auf die Seite. Daher sollten Sie genau treffen.

Regionalisierung
Nach der Integration von MAP in Google wurde auch die Regionalisierung verbessert. In den Google Webmaster Tools kann die Region des Angebots der Webseite genau beschrieben werden. All business is local.

Webbsite bewerben
Damit die Website möglichst schnelle im Internet bei den Interessenten bekannt wird, sollte sie mit Inhalten beworben werden. Dafür eignen sich besonders die Einträge in hochwertige Webkataloge; DMOZ und Yahoo! sind Pflicht, aber auch Pressenotizen, Artikel, Foren- und Blogbeiträge und Favoriten in den Bookmark-Verzeichnissen.
Bannerwerbung ist angesichts der geforderten qualitativen Inhalte nicht mehr so wirkungsvoll.

Sitemap
Die sitemap.xml hilft nicht nur dem Googlebot, sich besser auf der Website zurecht zu finden, sondern kann auch für vielfältige andere Zwecke eingesetzt werden. Ist die Sitemap in den Google Webmaster Tools registriert, brauchen nach einer Änderungung der Website und ihrer Sitemap nur doch Google und Yahoo! über die neue sitemap.xml informiert zu werden. Nach wenigen Stunden sind die Bots wieder auf der Website und setzen die Indizierung fort. In der robots.txt wird den bots mitgeteilt, wo die sitemap-xml zu finden ist.
Feed
RSS und andere Feeds werden von Google alle paar Minuten geparst und abgerufen. Steht in einem Feed ein neuer Eintrag, werden die in ihm enthaltenen URLs ganz nach oben auf die Prioritätenliste des Googlebots geschoben und dadurch häufig ganz oben bei einer Websuche abgezeigt.

Ping
Bislang konnte man schon nach der Neuerstellung einer sitemap.xml den Googlebot anpingen und er kam nach einigen Stunden vorbei, um die Änderungen auf der Website zu scannen.

Blog
Jetzt kann auch die die Blogsuche von Google angepingt und so über neuen Inhalt informiert werden. Der Blog-Crawler kommt schon nach wenigen Minuten vorbei und hält dadurch den Blog-Index aktuell. Einträge und URLs werden sehr schnell in den Index der Websuche übernommen. Auch wenn man schon die sitemap.xml regelmäßig aktualisiert, empfiehlt Google den zusätzlichen Einsatz der Pings.

Zuerst sollte man den Blog manuell bei Google anmelden:

http://blogsearch.google.com/ping

Hier das Format der Blog-Ping-Adresse von Google. Der Ping soltle nach jeder Blog-Änderung abgeschickt werden.

http://blogsearch.google.com/ping?
name=BLOGNAME&url=BLOGURL&changesURL=FEEDURL

Der GoogleWatchBlog pingt nach jedem neuen Beitrag die folgenden Bots an
http://rpc.technorati.com/rpc/ping
http://rpc.pingomatic.com/
http://ping.weblogalot.com/rpc.php
http://ping.blogg.de/?name=GoogleWatch&url=
http://www.jmboard.com%2Fgw&rss=
http://ping.wordblog.de/
http://rpc.weblogs.com/RPC2
http://rpc.icerocket.com:10080/
http://blogsearch.google.com/ping?name=GoogleWatchBlog&url=http://www.googlewatchblog.de/&changesURL=
http://www.googlewatchblog.de/feed/

Wird beispielsweise eine Pressemeldung bei einer Newsseite mit entsprechender Pingautomatik publiziert, dauer es teilweise keine 15 Minuten, bis die Pressemeldung und alle eingebundenen Links im Index sind.

Adwords
Gelegentlich findet man bei SEO-Experten Hinweise darauf, daß allein die Schaltung von AdWords-Anzeigen die Website auf die erste Seite bringt. Klar kommt durch AdWords-Anzeigen der Googlebot häufiger auf die Seite, aber er muß schon wertvolles finden, was er bepunkten kann. "One thing doesn't have to do with the other" behauptet dazu Googles SPAM-Wächter Matt Cutts.

Zusammenfassung

Im Jahre 2007 wurden 450 neue Google Regeln zur Bestimmung der SERP eingeführt. Die Wirkung dieser Regeln wird beschrieben.

Dr. Wolf Blass und Sabine Blass

Kommentare

Hier klicken, um einen Kommentar zu schreiben

Erste Regeln zu Duplikaten mit Duplicate Content
© suma-pro.de (2007- Mit Suchmaschinenoptimierung nach dem
SEO MASTERPLAN
und gutem Shop-Design auf die erste Seite
Datum der letzten Änderung