Webseiten für Suchmaschinen optimieren

Gernot Steenblock

Was soll so ein Beitrag in unserem Modellbau-Magazin?

Nun ist es endlich soweit, RC-Network bringt eine Modellbausuchmaschine. Unser Dank gilt dafür Darius Mahmoudi. Viele von Euch haben eine eigene Webseite oder aber betreuen die Internetseiten ihres Vereins. Immer wieder kann man feststellen, dass diese Seiten in den diversen Suchmaschinen nicht oder nur ganz schlecht auffindbar sind. Woran liegt das wohl?

Wir wollen mit diesem Bericht ein bisschen hinter die Eingabemasken der Suchmaschinen schauen. Denn nur wer die Roboter, die eine Suchmaschine auf Eure Seiten los lässt, begreift, kann ihnen das nötige Futter liefern, um eine Platzierung in den Top-ten zu erreichen.

Warum eine eigene Sparten-Suchmaschine ?

Jeder von Euch hat sicherlich schon eine Suchmaschine benutzt. Je nach Suchbegriff mit mehr oder weniger Erfolg. Genau deshalb, um diesen Erfolg zu verbessern, gibt es nun eine Suchmaschine für den Modellbau.
Wir alle kennen Hänschen Balsastaub, den Modellbauer aus Überzeugung. Unser Hänschen möchte sich im Internet nach einem neuen Modellflieger umsehen. Ein DISCUS soll es sein. Also, Google gestartet und DISCUS reingehämmert. Ungefähr 622.000 Treffer meldet die Suchmaschine. Wie viele davon wirklich das Modellflugzeug DISCUS beinhalten, lässt sich kaum erahnen. Also wird die Suche kurzerhand auf die deutsche Sprache beschränkt. Was aber immer noch ca. 16.700 Treffer liefert. Herr Balsastaub ist frustriert und stellt sich auf eine langwierige Suche ein...

Anders bei einer Suche mit der Modellbausuchmaschine von RC-Network. Das Wort DISCUS bringt gerade mal 112 Treffer. Da ist aber alles dabei, von der 6,7m-Orchidee bis hin zum DISCUS1 mini und natürlich auch das manntragende Original. Und das schon unter den ersten 10 Treffern.

Was Suchmaschinen so alles erkunden?

Durch die Anmeldung bei einer Suchmaschine erfährt der Roboter zunächst einmal nur die Webadresse, auf der er nachschauen soll. Findet er dort keine auswertbaren Daten, wird die Seite auch nicht in die Suchmaschine aufgenommen. Findet er zu wenig oder die falschen Daten, wird die Seite zwar aufgenommen, sie wird jedoch nie unter die Top-ten kommen.

Zwar arbeiten nicht alle Suchmaschinen nach dem gleichen Verfahren, dennoch können durchaus allgemeingültige Regeln aufgestellt werden

Zunächst sucht der Roboter nach einer robots.txt-Datei. In dieser Datei kann man angeben, welche Suchmaschine welche Verzeichnisse durchsuchen soll. So kann zum Beispiel ein reines Bildverzeichnis oder auch ein passwortgeschützter Bereich von der Suche ausgeschlossen werden. Diese robots.txt-Datei sagt auch, ob alle Suchmaschinen gleich handeln sollen oder ob einzelne Maschinen mehr als andere durchsuchen sollen. Findet sich keine solche Datei, wird die Suchmaschine alle Verzeichnisse und alle Links verfolgen.

Hier einige Befehle, mit denen eine Suchmaschine durch eine robots.txt-Datei gesteuert wird. Hinter dem # steht ein Kommentar, der nicht ausgewertet wird.

User-agent: linkCheck # Datensatz betrifft linkCheck
Disallow: /de/prv/ # alle Dateien in /de/prv/ sind für die Suchmaschine tabu
Disallow: /cgi-bin/ # /cgi-bin/ ist ebenfalls gesperrt
# Leerzeile beginnt neuen Datensatz
User-agent: BadSpider # Datensatz betrifft die Suchmaschine BadSpider
Disallow: / # BadSpider darf diese Seite nicht aufnehmen
# Leerzeile beginnt neuen Datensatz
User-agent: * # Dies hier betrifft alle anderen Spider
Disallow: /de/prv/ # alle Seiten in /de/prv/ sind für die Suchmaschine tabu
Disallow: /cgi-bin/ # /cgi-bin/ ist ebenfalls gesperrt
Disallow: /verboten/ # hier darf [ausser linkCheck, sh. oben] niemand suchen

Der nächste Schritt ist das Auslesen der Informationen, die im Head der Startseite (meist index.htm) stehen. Dazu gehören Titel, Beschreibung (Description) und Suchbegriffe (Keywords). Auch der Fließtext (Body) und die Linkliste wird mit geprüft.

Die so gefundenen Begriffe werden gespeichert und es wird gezählt, wie oft welcher Begriff in den oben genannten Bereich auftaucht.
Genau diese Worthäufigkeit ist es, auf die es beim Ranking ankommt.
Mal ein Beispiel:
Das Wort "Modellflugzeug" steht im Titel, bei den Keywords und im Fließtext. So wird es von der Suchmaschine dreimal gelesen. Sollte nun jemand in eben dieser Suchmaschine nach dem Begriff "Modellflugzeug" suchen, so wird diese Seite ein gutes Ranking erreichen. Jedoch wird eine Seite, die den Begriff "Modellflugzeug" noch zusätzlich in der Description eingebunden hat, eine noch bessere Platzierung erlangen.

Suchmaschinen durch Metatags steuern?

Es gibt drei Meta-Tags, mit denen Sie eine Suchmaschine steuern können. Allerdings werden diese Befehle nicht von allen Suchmaschinen befolgt im Gegensatz zu den Befehlen der robots.txt-Dateien.

<META NAME="robots" CONTENT="index, nofollow">
Die diese Anweisung enthaltene Seite darf indiziert [index], die darin gefundene Links sollten aber nicht verfolgt [nofollow] werden.
<META NAME="robots" content="noindex, follow">
Die den Tag enthaltene Seite sollte nicht erfasst werden, gefundene Links dürfen verfolgt werden.
<META NAME="robots" content="noindex, nofollow">
Die Seite sollte nicht erfasst und darin gefundene Links nicht verfolgt werden.

Wie sieht denn nun ein optimaler Head-Bereich aus?

Dies lässt sich nicht pauschal beantworten. Jedoch möchte ich eine mögliche Vorgehensweise beschreiben. Welches sind die 5 bis 7 wichtigsten Begriffe, die Ihre Webseite beschreiben? Denken Sie dabei an den Inhalt der Seiten, aber auch an den Ort Ihres Vereins oder Ihren Namen. Berücksichtigen Sie bitte auch die verschiedenen Schreibweisen oder die Unterschiede wie Einzahl/Mehrzahl. Sollte Ihre Seite schon online sein, so ist es eine sehr gute Hilfe, sich dort in der Webstatistik die Suchbegriffe, mit denen Ihre Seite bis jetzt gefunden wurde, mal anzuschauen.
Diese Worte bilden den Titel Ihrer Startseite. Eine Trennung erfolgt hier nur durch ein Leerzeichen. Je mehr Begriffe aus dem Fachjargon verwendet werden, um so fachlich kompetenter sind später die Besucher der Seite. Schmückt Euch nicht mit Federn, die auf den Seiten nicht vorhanden sind. Nur weil MP3 der zweithäufigste Suchbegriff ist, muss er noch lange nicht auf jeder Modellbauseite eingearbeitet sein ;)

Für die Beschreibung (Description) ist es nun wichtig, mit wenigen Sätzen (bis zu 200 Zeichen) die Webseite zu beschreiben. Achten Sie dabei darauf, dass in den Sätzen genau diese Worte vorkommen, die bereits im Titel enthalten sind. Bilden Sie jedoch richtige Sätze, da ein Roboter eine reine Aufzählung, wie sie in der Titelzeile vorkommt, erkennt und nicht noch mal bewertet.

Kommen wir nun zu den Keywords. Für diese haben Sie, je nach Suchmaschine, bis zu 1000 Zeichen Platz. Solche Suchbegriffe trennt man durch ein Komma. Den Anfang bilden die Worte, die im Titel bereits verwendet wurden. Dann sollten weitere wichtige Begriffe folgen und gegen Ende auch die alternativen Schreibweisen. Denkt dabei auch daran, dass z. B."Ju88" ein anderes Ergebnis liefert als die Suche nach "Ju 88" oder "Modell Flugzeug" wiederum andere Ergebnisse liefert als "Flugzeugmodell". Auch die unterschiedlichen Schreibweisen, die z. B. durch die Rechtschreibreform eingeflossen sind, spielen hier eine Rolle z. B. Photo und Foto.

Der Fließtext (Body) sollte nur das widerspiegeln, was schon in der Beschreibung erwähnt wurde. Also eine Erläuterung, was den Besucher der Seite erwartet. Jedoch ist hier der Umfang des Textes durch kein Limit eingeschränkt. Einige Suchmaschinen durchforsten jedoch nicht den gesamten Text, was uns dazu bringt, die "Lieblingsbegriffe" möglichst schon am Textanfang einzubauen; denn was jenseits dem von der Suchmaschine vorgegebenen Limit liegt, wird einfach ignoriert. Auch hier wird wieder die "Textprüffunktion", die wir schon von den Beschreibungen her kennen, eingesetzt. Also, Finger weg von stupiden Aufzählungen.
Merke: Ein guter Text (aktiver Wortschatz) ist tausendmal besser als eine Preisliste. Suchmaschinen prüfen auch die Textqualität. Rechtschreibfehler sind dabei Gift.

Wie gut man textmengenmäßig liegt, kann auf verschiedenen Internetseiten geprüft werden. So zum Beispiel auf der Seite Webmasterplan ©. Einfach URL eintippen und sich benoten lassen.

Was sonst noch das Ranking verbessert?

Jede Suchmaschine verfolgt die Links, die auf der angemeldeten Webadresse zu finden sind. Sollten sich nun eines oder mehrere unserer Wörter bei den Links wiederfinden, so würde dies wiederum ein Plus im Ranking zur Folge haben. Daher darauf achten, dass die Links nicht nur "n1.gif" heißen. Ausschreiben der Linkbegriffe bringt auch hier wieder Rankingpunkte.
Moderne Suchmaschinen überprüfen auch, wie oft bei anderen Seiten ein Link auf Ihre Homepage gesetzt ist. Je mehr befreundete Webseiten also auf Ihre Seite verweisen (linken), desto besser ist es für Sie.

So, nun noch zum letzten Punkt, der die Positionierung verbessert. Das Klickverhalten der Besucher wirkt sich bei einigen Suchmaschinen ebenfalls auf die Rankingposition aus. Je häufiger eine Seite bei diesen Suchmaschinen angewählt wir, desto höher steht die Page im Ranking.

Was einem Suchmaschinen krumm nehmen?

Findige Zeitgenossen missbrauchen diese Regeln und kommen auf die kuriose Idee, die Suchmaschinen zu überlisten. Da gibt es zum einen die, welche das Design ihrer Seite nicht durch eine lange Beschreibung beschädigen wollen und deshalb den Fließtext in der Hintergrundfarbe der Seite darstellen. Für den Besucher existiert nun kein Text, aber die Suchmaschinen würden diesen dennoch erfassen. Heute erkennen jedoch Roboter diesen Kniff und verweigern eine Aufnahme der Webseite. Auch Webseitenbetreiber, die mit Spam nur so um sich werfen, werden heute von den Mitarbeitern der Suchmaschinen aus dem Verteiler genommen.
Dagegen macht es nichts, wenn man die Textmenge, die geprüft wird, deutlich überschreitet. Der Automat wird lediglich bis zu der eingestellten Zeichenmenge auslesen und den Rest einfach ignorieren. Alle sog. "Tricks" und andere, von Nicht-Informatikern empfohlenen Überlistungsversuche führen daher stets zu reduzierter Bewertung oder vollständiger Zurückweisung, ja sogar bis zur Sperrung der entsprechenden Seiten.
Dynamische Seiten, wie z. B."cgi-Script" oder "http get", erzeugen bei den Suchmaschinen einen „Error 404“. Daher sollten diese Verzeichnisse schon in der robots.txt-Datei (siehe oben) ausgeschlossen werden.

Frame oder nicht Frame, das ist hier die Frage ?

Netscape hat Frames erfunden und natürlich machen Frames dem Webdesigner und Programmierer das Leben leichter. Jedoch schaden genau diese Frames dem Suchmaschinenranking. Mit ein Grund warum Netscape heute auf seiner Seite auf Frames verzichtet.
Frames sind ja nichts anderes als mehrere unterschiedliche Seiten. Nun besucht ein Roboter das Frameset und springt dann sofort in den Hauptframe. Dort findet er aber meist keine Links, die er verfolgen könnte, und das war's dann. Die Seite wird einfach nicht so tief und gründlich durchsucht. Im Extremfall bleibt es beim Spidern des Hauptframes, wenn überhaupt gespidert wurde. Wichtig ist aus diesem Grund auch eine Verlinkung der Frames untereinander, und außerdem sollte immer eine "Hilfsnavigation" im Hauptframe liegen. Besser noch ist es, zumindest die Startseite ohne Frames zu gestalten.

Automatisch oder manuell anmelden ?

Ob Sie nun Ihre Seiten von Hand bei den Suchmaschinen, Linklisten und Webverzeichnissen anmelden, bleibt jedem selbst überlassen. Natürlich ist es automatisch wesentlich einfacher. Bei keiner Suchmaschine müssen die Seiten mehrfach angemeldet werden, da jede Suchmaschine versucht, innerhalb eines Monats den vorhandenen Datenbestand zu überprüfen. Also, immer etwas Geduld, im schlimmsten Fall sind es sechs Wochen bis Sie unter den Top-ten landen.

Bei welchen Suchmaschinen anmelden?

Häufig ist in Werbung und Spam zu lesen: "...ich melde Ihre Seiten bei 5000 Suchmaschinen an für...". Die Zahlen der Suchmaschinen lassen sich dabei frei austauschen. Bis zu 300.000 Suchmaschinenanmeldungen werden teilweise angeboten. Wenn wir nun annehmen, dass jedes Land zwei bis drei wichtige Suchmaschinen hat, kommen wir weltweit auf maximal 500 Suchmaschinen. Davon scheiden schon die meisten aus, da diese Suchmaschinen nur die eigene Landessprache erkennen und aufnehmen.
Merke: 95% aller Anwender benutzen nur eine Handvoll Suchmaschinen.

Dies waren im März 2003 die 5 am häufigsten genutzten Suchmaschinen im deutschsprachigen Raum:

Quelle Webhits

Selbst die kleineren Suchmaschinen, die zumindest vom Namen her bekannt sind (z. B. von Abacho bis Speedfind), werden selten von mehr als 0,05% aller Anwender benutzt oder sind so unbedeutend, dass sie in den Messungen überhaupt nicht auftauchen.
Im gesamten deutschsprachigen Raum gibt es ca. 38 Suchmaschinen, von denen jedoch nur eine (Google) als sehr wichtig eingestuft wird. International kann sich neben Google noch MSN search und alltheweb als sehr wichtig einstufen. Bei den Webverzeichnissen kann sich international nur Yahoo behaupten von den 9 deutschsprachigen jedoch kein einziges. Noch schlechter sieht es bei den Linklisten aus. Lediglich Web Tip kann sich hier behaupten.

Was sonst noch zu sagen ist?

Ich hoffe, Euch mit diesem Beitrag zu einem besseren Ranking verhelfen zu können. Wer diese Tipps beherzigt, sollte ohne größere Probleme bei den Suchergebnissen immer vorne mit dabei sein.

Es gibt noch eine ganze Menge Feinheiten, die zu beachten wären, dies würde aber den Rahmen dieses Beitrags bei weitem sprengen. Ich denke, das Wesentlichste ist zunächst gesagt und mir bleibt nur, Euch viel Erfolg mit Eurem Internetauftritt zu wünschen.

Verschiedenes

Stand: 06.03.2003