Suchen ohne Googlen

Die erfolgreichste Suchmaschine der Welt beunruhigt die Netzwelt zunehmend. Doch nicht alle nehmen die Dominanz von Google einfach hin – sie setzen auf bessere Suchtechnologien.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht
Von
  • Niels Boeing

Könnte Google doch ein bisschen böse sein? Dass die weltweit führende Suchmaschine „Don’t be evil“ als Leitspruch hat, beruhigt die Netzbürger schon lange nicht mehr. Auf der einen Seite beugt sie sich den Zensurgelüsten der chinesischen Regierung, auf der anderen Seite verhängt sie über Unternehmen schon mal die hauseigene „Todesstrafe“: Erst Anfang Februar hatte Google BMW kurzzeitig aus seinem Suchindex verbannt, nachdem der Autohersteller dabei erwischt worden war, Suchergebnisse nach „BMW“ mit so genannten Doorways zu manipulieren – zusätzlichen Seiten, die Nutzer auf die Firmenseite umleiten. Nicht einmal ein internationaler Konzern kann es sich aber leisten, bei Google nicht mehr gefunden zu werden.

Diese Episode zeigt nicht nur die erschreckende Marktmacht der Kalifornier, sondern auch ein gravierendes Problem der Google-Technologie: Die Suchmaschine ist anfällig für Spamseiten, die nur dafür angelegt werden, den Nutzer wegzulocken. „Solche Seiten werden immer wieder ohne Prüfung in den Google-Suchindex aufgenommen“, sagt Markus Franz. Der 18-jährige Programmierer weiß, wovon er spricht. Gemeinsam mit Suma-eV, dem „Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs“ in Hannover, hat Franz Metager 2 entwickelt. Der Nachfolger von Metager ist eine Metasuchmaschine, die die Suchergebnisse der bekannten Anbieter mit einem neuen Verfahren bündelt – und dabei den Suchmüll entfernt.

„Anders als etwa bei Google wird nicht einfach nur auf den Suchindex zugegriffen. Metager 2 lädt bei jeder Abfrage die entsprechenden Dokumente herunter und analysiert, ob deren Inhalt überhaupt relevant ist“, erklärt Franz, auf dessen Algorithmus Metager2 aufbaut. Die Rechnerlast ist dabei zwar größer als bei Google und führt zu etwas längeren Antwortzeiten. Die Qualität der Ergebnisse, ist sich Franz sicher, werde aber letzlich die Nutzer überzeugen. Bis Ende des Jahres soll Metager 2 außerdem um einen eigenen Index ergänzt werden, der auch die Bewertungen der Nutzer berücksichtigen soll.

„Informationen sind das Erdöl des 21. Jahrhunderts“, sagt Wolfgang Sander-Beuermann von Suma-eV, Leiter des Suchmaschinenlabors der Uni Hannover. Immer mehr Experten halten es deshalb für wichtig, dass die Förderung dieses Rohstoffes nicht dem Oligopol der großen Betreiber Google, Yahoo und MSN überlassen wird, deren Technologien nicht transparent sind.

Der Erfolg von Google, das relativ spät, gegen Ende des New-Economy-Booms in den Markt eintrat, verdankt sich seinem berühmten PageRank-Algorithmus. Der lieferte nicht nur bessere Ergebnisse als die damalige Konkurrenz, sondern auch deutlich schnellere. Doch der Erfolg hatte seinen Preis: Der Suchindex wird inzwischen nur noch etwa alle dreißig Tage aktualisiert. Zudem läuft die Suche über einige wenige, über die Welt verteilte Rechenzentren. „Google ist ziemlich monolithisch aufgebaut“, urteilt Franz. Indem Metager 2 diverse andere Suchmaschinen berücksichtige, kann es eine größere verteilte Informationsbasis nutzen. Er bezweifelt auch, ob das Linkkonzept des PageRank-Algorithmus’ wirklich noch zentral für Googles Technologie sei. Ein Zweifel, den jeder bestätigen wird, der brandneue Seiten mit ein paar Tricks in die oberen Regionen des Rankings manövriert hat.

Dabei gilt Googles Algorithmus nicht einmal als der beste. Der US-Mathematiker John Kleinberg hatte bereits 1998 – zur selben Zeit wie die Google-Gründer Sergey Brin und Larry Page – eine Alternative entwickelt, die anders als Google nicht nur die Links auswertet, die aus den Weiten des Webs auf eine bestimmte Webseite zeigen. Kleinbergs Algorithmus berücksichtigte auch, ob die verweisenden Seiten sich überhaupt mit dem Thema Suchanfrage beschäftigen. Das verlangsamte das Ergebnis jedoch erheblich, konnte aber immerhin Suchmanipulationen effizienter herausfiltern. Der Mathematikprofessor Apostolos Gerasoulis fand den Ansatz so überzeugend, dass er ihn weiterentwickelte und mit einigen Studenten die Suchmaschine Teoma gründete. Teoma wurde später von AskJeeves, dem viertgrößten Suchdienst, gekauft, das den Algorithmus verfeinerte.

Vergangene Woche hat AskJeeves nun zu dem Generalangriff auf den Marktführer geblasen, den Analysten erwartet hatten, als im vergangenen Sommer Medienmogul Barry Diller in das Unternehmen eingestiegen war. Umbenannt in Ask.com und mit einem einfachen, zugegebenermaßen an Google angelehnten Design, wartet der Dienst zum einen mit neuen Funktionen auf. Herausragend ist dabei die Vorschau: Bewegt man den Mauszeiger auf das Fernglas-Symbol neben dem Suchergebnis, wird ein Bild der entsprechenden Seite eingeblendet (siehe Screenshot). Zum anderen bietet Ask.com ein Menü an, das eine Suche erweitert oder eingrenzt. „Das ist jetzt die Suchmaschine, die man im Auge behalten muss“, urteilt das amerikanische Search Engine Journal. Die deutsche Ausgabe von Ask.com befindet sich noch in der Beta-Version, Mitte des Jahres soll dann aber die Vollversion auch auf deutsch zur Verfügung stehen.

Ausgerechnet zu einer Zeit, da Google fast monatlich mit neuen Zusatzdiensten aufwartet und „googlen“ zum Synonym für „suchen“ geworden ist, könnte die Luft für die Nummer 1 dünner werden. Ein Dèjà Vu: Als Google 1999 online ging, schien der Suchmarkt mit Altavista, Yahoo und Excite längst aufgeteilt. Doch dann wurden die Karten neu gemischt. 2006 dürfte ein ähnlich spannendes Jahr für Suchmaschinen werden, zumal Microsoft ebenfalls eine neue Suchmaschine angekündigt hat. (nbo)