Smartphone denkt voraus

Hinter den Kulissen von Siri und Co.

Wissen | Hintergrund

Persönliche Assistenten wie Siri oder Google Now machen das Smartphone erst smart. Sie nehmen dem Benutzer auf Zuruf manche Aufgabe ab. Einige handeln sogar direkt, ohne dass der Benutzer etwas dafür tun muss. Ein Blick in den Maschinenraum.

Computer, … ! Bis vor wenigen Jahren war das, was digitale Assistenten heute wie selbstverständlich leisten, noch Science-Fiction: Man gibt dem Assistenten einen Befehl oder fragt ihn etwas in normaler Alltagssprache, ganz wie bei einem menschlichen Gegenüber; die Software antwortet oder führt die Befehle aus. Mitunter handeln Assistenten auch von sich aus und präsentieren dem Benutzer selbstständig News oder das Wetter.

Dass die persönlichen Assistenten überhaupt funktionieren, ist nur einem Durchbruch in der Software-Technik, viel Rechenpower in der Cloud sowie der Ingenieurskunst ihrer Betreiber zu verdanken, die Wissen aus den verschiedensten Quellen intelligent verknüpfen. Weil Google deutlich weiter ist als die Konkurrenz, haben wir vor allem Informationen zu Googles Now zusammengetragen und um Details zu anderen Assistenten ergänzt.

Erkennernetze

Google Now & Co. setzen auf große Fortschritte einer im Grunde uralten Technik der künstlichen Intelligenz auf: neuronale Netze, insbesondere sogenannte Deep-Learning-Netze. Google betreibt neuronale Netze mit Abermillionen Neuronen und einer Tiefe von bis zu 30 Ebenen. Die Netze kommen dabei an vielen Stellen bei Google Now und anderen Diensten des Anbieters zum Einsatz, vor allem bei der Spracherkennung. Googles neuronale Netze sollen mittlerweile 92 von hundert Wörtern korrekt erkennen.

Jeff Dean, als Senior Fellow einer der Verantwortlichen für Googles Deep-Learning-Projekt, sagte in einem Interview, dass die KI-Gruppe von Google fast ein interner Dienstleister für Aufgaben aller Art ist [1]. Etwa 35 bis 40 Gruppen bei Google greifen demnach auf deren Dienstleistungen zurück. Außer bei der Suche und Spracherkennnung kommen die smarten Netze laut Dean auch bei Ads, Street View und bei den selbstfahrenden Autos zum Einsatz.

Auch andere große Anbieter von Assistenten betreiben eigene Spracherkenner auf Deep-Learning-Basis – darunter Microsoft, Amazon und SoundHound. Apple bezieht die betreffende Technik von seinem Partner Nuance. Das Thema Deep Learning macht aber nicht nur bei digitalen Assistenten Furore. Es vergeht keine Woche, ohne dass ein Software-Hersteller nicht wieder einen neuen Dienst, eine neue App oder eine Studie vorstellt, die mit Deep Learning zu tun hat. So identifiziert Googles im Mai vorgestellter Dienst „Photos“ automatisch Objekte und Personen und organisiert hochgeladene Bilder zu thematischen Gruppen.

Im Echtzeit-Übersetzer von Microsofts Messenger-Dienst Skype arbeiten ebenfalls Worterkenner, die mit Deep Learning trainiert wurden. Wolfram Alpha betreibt einen eigenen Bildidentifizierer, den jeder unter www.imageidentify.com mit selbst hochgeladenen Bildern testen kann. IBMs KI-System Watson hilft unter anderem beim E-Mail-Dienst Verse, wichtige Nachrichten für die Benutzer hervorzuheben. Und Facebook hat kürzlich vermeldet, dass ein experimenteller Algorithmus des Unternehmens Menschen schon anhand ihrer Körperhaltung, Kleidung und ihrer Frisur auf Bildern identifizieren könne – ihr Gesicht ist dazu nicht mehr notwendig.

Der Wissensgraph

Ein weiterer wesentlicher Stützpfeiler der Assistenten ist eine riesige Basis formalisierten Wissens. Auch solche Vorhaben sind ein alter Hut in der KI-Forschung. Das Cyc-Projekt, das Alltagswissen nachbilden soll, existiert zum Beispiel seit 1984 [2]. Google geht nicht wissenschaftlich an das Thema heran. „Das Ziel von Google ist es, die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen“ – so das Selbstverständnis des Unternehmens. Insofern scheint Google zu versuchen, einfach alles in seinen „Knowledge Graph“ einzubauen, was es in die Hände kriegt.

Der Knowledge Graph umfasst derzeit 40 Milliarden Fakten zu 570 Millionen Dingen in 15 000 Typen, so Behshad Behzadi, der Director of Conversational Search bei Google – ein riesiger Datenschatz. Google-Now-Produktmanagerin Aparna Chennapragada verriet auf der Google-Entwicklerkonferenz I/O ein wenig mehr über die Detailtiefe: „Wir verstehen mehr als 100 Millionen Orte. Nicht nur ihre Form und ihr Layout, sondern auch interessante Dinge, etwa wann sie belebt sind, wann sie geöffnet sind und was man benötigt, um dort zu sein“.

Inhalte des Wissensgraphs werden bei der Google-Suche sichtbar, sowohl mobil als auch auf dem Desktop. Auf dem PC erscheinen Inhalte aus dem Knowledge Graph in einem Kasten neben den normalen Suchtreffern. Mobil präsentiert die Suche einen kompakten Kasten über der restlichen Trefferliste. Schätzungen gehen davon aus, dass derzeit etwa bei 25 Prozent der Suchanfragen der Knowledge Graph zu Rate gezogen wird.

Etliche Datenquellen

Google bezieht diese Daten aus den verschiedensten Quellen. Die Herkunft seiner Informationen zeigt die Knowledge-Graph-Box mit an. Bei der Box zu „Hannover“ zum Beispiel stammen die meisten Informationen aus der Wikipedia. Die Einwohnerzahl entnimmt Google den Angaben zufolge aber einer Datenbank der Vereinten Nationen.

Wikipedia ist sicherlich eine der wichtigsten Quellen für Informationen im Knowledge Graph. Ein zweiter großer Fundus ist Freebase beziehungsweise Wikidata. Freebase war einmal so etwas wie eine „Wikipedia für strukturierte Daten“, die von Freiwilligen befüllt wurde. Google hatte 2010 den Betreiber der Freebase übernommen. Ende Juni hat Google Freebase dann dichtgemacht und ihre Datenbank Wikidata übertragen, weil das Projekt der Wikimedia Foundation die größere Community hat.

Viel von dem Wissen im Knowledge Graph stammt aus Googles eigenen riesigen Datenbeständen. So betreibt Google neben der Volltextsuche auch eine Bilder- und eine Produktdatenbank. Auch sitzt der Suchmaschinenriese seit der Übernahme des Flugsuchespezialisten ITA Software auf einem Fundus von Flugreise-Informationen. Darüber hinaus hat Google etliche weitere Datenbestände mit gut erschlossenen Daten etwa zu News, Videos und vielem mehr.

Neben diesen großen Wissensbeständen versucht Google auch, im kleineren Stil Daten für den Knowledge Graph zu generieren. So hat es für die US-Version der Suchmaschine eine Reihe von Medizinern eingespannt, die Informationen zu Krankheiten zusammengestellt haben. Wer dort gesundheitliche Beschwerden oder Symptome angibt, dem präsentiert Google eine Liste von möglichen Krankheiten.

Von Menschen aggregierte Informationen sind aber eher die Ausnahme; Google steht mehr auf automatisch auswertbare Daten. Die sollen die Betreiber von Websites aller Art zum Knowledge Graph beisteuern, indem sie ihre Inhalte in einem passenden Format bereitstellen. Google ist auch deshalb einer der größten Unterstützer des „Semantic Web“. Diese Erweiterung soll es einfacher machen, Daten zwischen Rechnern auszutauschen und zu verwerten. ...

Sie möchten wissen, wie es weitergeht?

Smartphone denkt voraus

2,49 €*

c't 16/2015, Seite 122 (ca. 5 redaktionelle Seiten)
Direkt nach dem Kauf steht Ihnen der Artikel als PDF zum Download zur Verfügung.

Artikel-Vorschau
  1. Erkennernetze
  2. Der Wissensgraph
  3. Etliche Datenquellen
  4. Antworten statt Trefferlisten
  5. Google kennt Dich
  6. Big Data
  7. Fünf Allzweckhelfer
  8. Digitale Assistenten
  9. Wie neuronale Netze funktionieren

Lesen Sie hier die Verbraucherinformationen

* Alle Preise verstehen sich inklusive der gesetzlichen MwSt.

Als c't-Plus-Abonnent gratis lesen

weiterführende Links

Kommentare

Infos zum Artikel

Artikelstrecke
Kapitel
  1. Erkennernetze
  2. Der Wissensgraph
  3. Etliche Datenquellen
  4. Antworten statt Trefferlisten
  5. Google kennt Dich
  6. Big Data
  7. Fünf Allzweckhelfer
  8. Digitale Assistenten
  9. Wie neuronale Netze funktionieren
1Kommentare
Kommentare lesen (1 Beitrag)
  1. Avatar
Anzeige

Anzeige

weiterführende Links
  1. Zu diesem Artikel hat die Redaktion noch folgendes zusammengestellt:

    Links (12)

Artikel zum Thema
Anzeige