Menü

Microsoft Build 2016: Chatten statt klicken

Unter dem Schlagwort "Communications as a Platform" hat Microsoft-Chef Satya Nadella auf der Entwicklerkonferenz Build 2016 präsentiert, wie natürlichsprachliche Kommunikation künftig klassische Bedienoberflächen ablösen könnte.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 29 Beiträge
Von

Geht es nach dem Willen von Microsoft-Chef Satya Nadella, dann werden Nutzer in Zukunft immer weniger Zeit damit verbringen, mit speziellen Applikationen zu arbeiten. Stattdessen verwenden sie immer öfter Kommunikations-Anwendungen wie Skype, E-Mail oder SMS. Die sollen in die Lage versetzt werden, natürliche Sprache zu erkennen und zu verarbeiten.

In jedem Kommunikationskanal können intelligente Agenten stecken, die Informationen aus ein- und ausgehenden Nachrichten extrahieren und automatisch weiterverarbeiten. Als Beispiel war von einem Assistenten die Rede, der eine per E-Mail eingehende Taxiquittung erkennt, weiß, dass der Empfänger gerade auf Dienstreise ist, und die Rechnung automatisch an die Anwendung zur Reisekostenabrechnung seiner Firma weiterleitet.

An die Stelle klassischer Web-Anwendungen, in denen der Besucher Formulare ausfüllen muss, um beispielsweise etwas zu bestellen, treten Bots, mit denen der Nutzer natürlichsprachlich kommunizieren kann und die dann Sätze verstehen wie: "Ich möchte um 20 Uhr eine große Salami-Pizza geliefert bekommen". Die Lieferanschrift und die Details zur Bezahlung steuern dann wieder intelligente Agenten bei.

Grundlage der technischen Realisation dieser Visionen sind aus Microsofts Sicht die Sprachassistentin Cortana sowie die Algorithmen zum Machine Learning, die Microsofts Cloud-Infrastruktur Azure bereithält. Die können Anbieter dazu verwenden, ihren Bots Sprache, aber auch andere Erkennungs-Funktionen beizubringen, zum Beispiel Bild-Klassifizierung oder eine Einschätzung, wie eine in einem Bild abgebildete Person gerade gelaunt ist. Eine Übersicht zu den angebotenen Diensten sowie die Möglichkeit, sie in eigene Anwendungen einzubinden, gibt es bei Microsoft Cognitive Services. Speziell für Bots dürfte der etwas weiter reichende Language Understanding Intelligent Servcice (LUIS) interessant sein.

Ein Bot nach Microsofts Lesart entsteht, indem man ihn einerseits mit eigenen Funktionen verknüpft, also etwa der Bestellabwicklung eines Pizzabringdienstes, und andererseits in verschiedene Kommunikations-Kanäle einklinkt, etwa in Skype. Letzteres übernimmt das Microsoft Bot Framework, das ab sofort als Preview verfügbar ist.

Den Abschluss der Eröffnungs-Keynote bildete eine bejubelte Demonstration der Fähigkeiten von Microsofts Cognitive Services abseits von Bots: Der blinde Entwickler Saqib Sheikh hat sie mit einer Kamerabrille von Pivothead kombiniert und so eine App geschaffen, die Sehbehinderten auf Knopfdruck erklärt, was gerade in der Umgebung zu sehen ist, oder Schrift vorliest.

Seeing AI (Quelle: Microsoft)

(hos)