Menü

Verlinken oder bezahlen -- Suchmaschinen im Internet

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 161 Beiträge
Von

Das Wachstum des Internet scheint ungebrochen. Wie viele Webseiten es mittlerweile gibt, weiß niemand. Zur Orientierung in der Datenvielfalt greifen viele Nutzer auf Suchmaschinen zurück. Damit eine Website hier auf den oberen Plätzen der Ergebnisliste landet, muss das Angebot inhaltlich, konzeptionell und technisch gut gemacht sein. Nach Expertenmeinung haben dann auch private Internet-Seiten die Chance auf eine gute Platzierung: "Wenn die Seite für den Nutzer gut gemacht ist, dann ist sie auch für die Maschine gut", sagt Stefan Karzauninkat, Betreiber von Suchfibel.de in Hamburg.

Die wichtigsten Regeln für gut zu findende Internet-Seiten sind laut Karzauninkat banal, denn Suchroboter arbeiten nach einem festgelegten Muster: Eine Seite sollte Texte mit einer aussagekräftigen Überschrift, übersichtliche Zwischentitel, beschreibende Verweise auf Unterrubriken oder themenverwandte, externe Seiten sowie eine durchdachte Navigation haben. Die Metatags hätten dagegen an Bedeutung verloren, sie seien in der Vergangenheit zu oft missbraucht worden.

Nach ähnlichen Kriterien sucht auch der Webkatalog Yahoo Einträge aus. Hier werden Internet-Seiten jedoch nicht mit Hilfe eines Roboters, sondern durch eine Redaktion geprüft. "Wir achten auf das Gesamtkonzept", sagt Yahoo-Sprecherin Patricia Rohde in München. Der Inhalt müsse unter anderem umfangreich und optisch gut lesbar sein. Außerdem benötige die Seite eine durchdachte Navigation. Eher hinderlich für eine gute Platzierung bei Suchmaschinen sind Karzauninkat zufolge Bilder, Flash-Animationen und Frames. Suchroboter könnten diese Elemente nicht auslesen. Das gleiche gelte für Seiten mit dynamischen Inhalten.

Die effektivste Methode, sich mit einer Website einen Platz in der Suchmaschine zu sichern, seien möglichst viele externe Verweise auf eine Seite, sagt Wolfgang Sander-Beuermann, verantwortlich für die Metasuchmaschine Metager des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover. Mit vielen Links auf die Seite verschaffe sich der Betreiber eine gute Platzierung beim Marktführer Google.

"Da viele Nutzer diesen Trick jedoch mittlerweile raushaben, führt sich das Google-System ad absurdum", sagt Sander-Beuermann. Trickser bauten unter anderem Netzwerke von aufeinander verweisenden Seiten, so genannte Linkfarmen auf, um Google auszutricksen, sagt auch Karzauninkat. Eine Lösung dieses Problems ist schwierig: "Das Ranking nach der Anzahl von externen Links ist schließlich das Standbein der Google-Technologie", so Sander-Beuermann. Und die Technik habe auch Vorteile: Wer sich einbinde in die Internet-Struktur und logische Zusammenhänge innerhalb seines Internet-Auftritts pflege, habe eine gute Chance auf eine Platzierung bei der Suchmaschine.

Jedoch ist der Grad der Vernetzung nicht die einzige Kategorie, nach der bei Google eine Internetseite bewertet wird: "Google schaut sich verschiedene Faktoren an, um die Relevanz einer Seite zu beurteilen", sagt Nate Tyler von Google in Mountain View im US-Bundesstaat Kalifornien. Dazu gehörten der Text und die Position der Seite in einer Navigationsstruktur.

Betreiber von Webseiten können sich auch von professionellen Dienstleistern in Suchmaschinen eintragen lassen. Oft werben diese Anbieter damit, ihre Kunden gegen Gebühr in 1000 Suchmaschinen einzutragen. Davon rät Suchmaschinen-Experte Karzauninkat aber ab: "Bei diesen Anbietern gibt es 95 Prozent schwarze Schafe und fünf Prozent, die es gut machen. Außerdem reicht die Anmeldung in ein paar der wichtigsten Suchmaschinen aus", sagt er. Dazu gehörten neben Google unter anderem Lycos, Fireball, Yahoo sowie die Suchdienste der Internet-Anbieter AOL, MSN und T-Online. Hier können sich Seitenbetreiber aber auch ohne fremde Hilfe eintragen lassen. Nützlich sind aber auch Einträge in Kataloge wie Open Directory und Allesklar.de.

Die weitere Entwicklung ist den Experten zufolge ungewiss: "Das Web wird immer undurchschaubarer", sagt Wolfgang Sander-Beuermann. Dabei sei ein Teil des Internet nicht einmal richtig erfasst, es fehlten Inhalte in Datenbanken. Sander-Beuermann sieht darin eine Chance, auf qualitativ hochwertige Inhalte zu stoßen: "Fast alles, was in einer Datenbank liegt, ist durch eine redaktionelle Kontrolle gegangen." Zurzeit arbeitet er an Forschungsportal.net, einer wissenschaftlichen Suchmaschine, die einen Überblick über die deutsche Forschungslandschaft geben soll.

Heute haben Seitenbetreiber laut Karzauninkat vor allem zwei Möglichkeiten, um sich bei Suchmaschinen gut zu platzieren und damit möglichst viele Internet-Nutzer zu erreichen: Einerseits könnten sie schlicht für einen Eintrag zahlen. Die "sponsored Links", die viele kommerzielle Anbieter nutzen, verkauft unter anderem der deutsche Anbieter Overture für die Suchmaschinen bei T-Online. Auch Google präsentiert sie prominent auf der Seite. Privaten Anbietern bliebe aber auch eine kostenlose Alternative: Gut gemachte Seiten hätten nach wie vor eine Chance auf gute Platzierungen. Dazu sollte das Angebot immer weiter optimiert werden. (Miriam Tang, dpa) / (anw)