Trends & News | News

Gewinner des Robotics@Home Contest

Microsoft hat die Gewinner des Roboter-Wettbewerbs Robotics@Home bekanntgegeben. Die Vorgaben des Wettbewerbs waren, dass die Lösung auf Grundlage der Eddie-Plattform des Herstellers Parallax und des Microsoft Robotics Developer Studio erstellt werden mussten. Der mit 10 000 US-Dollar dotierte „Grand Prize“ ging an Arthur Wait für seinen SmartTripod. Das schlaue Stativ erleichtert etwa Video-Bloggern die Arbeit und richtet die auf ihm montierte Videokamera immer auf den jeweiligen Protagonisten aus. Dabei sind sogar Kamerafahrten möglich, wie ein Video des Entwicklers zeigt (siehe c’t-Link). Beim Ersatz des menschlichen Kameramanns hilft die Kinect, die auch sogenannte „Cue Zones“ auswertet: Zeigt die aufgenommene Person mit der Hand in eine Zone, reagiert die Kamera mit einem Schwenk in die vorgegebene Richtung.

Für den Assistenz-Roboter Kemoda bekam Todd Christell den mit 5000 US-Dollar ausgelobten „First Prize“. Der Roboter kann älteren Personen bei Problemen zu Hilfe eilen und eine Videoverbindung zu einem Helfer herstellen. Der zweite Preis ging mit 3000 US-Dollar an das Team „Plant Sitter“ für seinen blumengießenden Roboter. Welche Pflanze wann gegossen werden soll, wird durch Spracheingabe und Fingerzeig festgelegt. Den Ort der Pflanzen findet der Roboter durch einen abgewandelten SLAM-Algorithmus wieder. Zum Bewässern kommen zwei große Spritzen zum Einsatz, die der Roboter selbstständig befüllen beziehungsweise motorisiert aufziehen kann. (dab)

Nachfolger des TurtleBot

Der koreanische Hersteller Yujin Robot hat auf der vergangenen Roboter-Konferenz ROSCon einen Prototypen des TurtleBot-Nachfolgemodells mit verbesserten Sensoren vorgestellt. Das aktuelle TurtleBot-Modell beruht auf der mobilen Create-Plattform des Herstellers iRobot. Die hat mittlerweile zehn Jahre auf dem Buckel und darf unter anderem aufgrund fehlender FCC/CE-Zertifizierung nicht außerhalb der USA verkauft werden. Zudem ist die Ausstattung mit Sensoren nicht gerade üppig; außer Rad-Enkodern, Bumpern und Cliff-Sensoren hat sie nichts zu bieten. Beschleunigungs- und Gyro-Sensoren fehlen beim Create.

Yujin hat nun Anregungen der TurtleBot-Bauer Willow Garage, Clearpath Robotics und I Heart Engineering umgesetzt und die Plattform Kobuki geschaffen. Kobuki enthält bereits ab Werk einen kalibrierten 1-Achs-Gyro (100 Grad pro Sekunde). Die Rad-Encoder haben eine hohe Auflösung von rund 12 Ticks pro Millimeter. Der Antrieb kann Kobuki mit 50 Zentimeter pro Sekunde bewegen, wobei er sogar noch leiser als der Create sein soll. Daneben enthält der Roboter einen leistungsfähigen Akku (6600 mAH), der über dedizierte Anschlüsse auch stromhungrige zusätzliche Verbraucher versorgen kann. Ansonsten bleibt die Plattform kompatibel zu den anderen Komponenten und mechanischen Aufbauten des TurtleBot 1. Insbesondere der 25-polige Anschluss des Create zur externen Steuerung ist auch im Kobuki zu finden. Im vierten Quartal dieses Jahres sollen die ersten TurtleBot 2 mit Kobuki verfügbar sein, vermutlich wird aber der Kinect-Sensor gegen den Xtion-Sensor von Asus ausgetauscht. Der Preis für einen Turtlebot 2 soll bei 1500 US-Dollar liegen. Sowohl TurtleBot 1 als auch TurtleBot 2 laufen mit dem quelloffenen Roboterbetriebssystem ROS von Willow Garage. (dab)

Robotik-Bastelsets

Der Hersteller Makeblock (http://makeblock.cc/) hat mit dem Verkauf seiner Robotik-Baukästen begonnen. Distributionspartner ist der Elektronikanbieter Seeed, der sieben mechanische Robotik-Kits und vier dazu passende Elekronik-Kits in sein Angebot aufgenommen hat. Das Besondere an Makeblock ist die Stabilität: Statt Plastik kommen Profile, Stangen, Winkel, Lochplatten und Zahnräder aus Aluminium zum Einsatz. Das Ganze hat dafür auch seinen Preis: Das rund hundertteilige Starter-Kit inklusive vier Motoren kostet 180 US-Dollar. Damit können Anwender zwei- und vierrädrige sowie Krabbelroboter bauen. Zur Ansteuerung benötigt man noch eines der Arduino-kompatiblen Elektronik-Kits mit Motor-Shields und Sensoren. Das günstigste Kit schlägt mit 43 US-Dollar zu Buche.

Einen leichten Einstieg in die Robotik will SparkFun mit seinem Fahrroboter MiniBot ermöglichen. Für erste Versuche muss man nur die Motoren (Tamiya Twin Motor Gearbox) und den Batteriehalter montieren, die IR-LEDs und Empfänger einlöten und den Arduino-Mini programmieren. Die Verdrahtung des zugrunde liegenden Arduino-Pro-Minis mit den Platinen für IR-Sensoren, Motortreiber und USB2Serial-Chip (FTDI) entfällt, da auf der MiniBot-Platine bereits alles miteinander verbunden ist.

Möchte man eigene Konstruktionen realisieren, so kann man das vorgestanzte Board auseinanderbrechen und die Einzelplatinen per Kabel wieder verbinden. Die Prototyping-Felder der Platinen bieten genügend Platz für eigene Erweiterungen. Ein Tutorial mit Codebeispielen führt schnell zum ersten Einsatz des Roboters.

Der Preis des ab sofort verfügbaren MiniBot liegt bei 75 US-Dollar. Als Prototypen zum Auseinanderbrechen (ProtoSnap) sind bei SparkFun zudem das LilyPad Development Board und der Pro Mini ohne Roboterkomponenten erhältlich. (dab)

Gesellschaftswandler

Workshop zu den gesellschaftlichen Auswirkungen der Robotik

Ob als bester Freund des Menschen, als gehorsamer Sklave oder als Kamerad fürs Schmutzige und Gefährliche: Sobald Roboter intelligent genug sind, um sowohl Sprache als auch Gesten zu verstehen, werden sie zu sozialen Akteuren und verändern damit gesellschaftliche Strukturen. Über die Konsequenzen lässt sich vorerst nur philosophieren.

Die Diskussion über Navigationsverfahren ist bei Robotiktagungen an sich nichts Ungewöhnliches. Was Barbara Gonsior beim „Workshop on Advanced Robotics and its Social Impacts“ (ARSO) Ende Mai in München vorstellte, fiel dann aber doch aus dem Rahmen: Der Roboter könne doch einfach nach dem Weg fragen, schlug die Forscherin von der Technischen Universität München vor.

Die räumliche Orientierung stand bei der präsentierten Studie dann allerdings gar nicht im Vordergrund. Vielmehr ging es in dem von Gonsior beschriebenen Experiment darum zu testen, inwieweit sozialpsychologische Theorien auch auf die Interaktion zwischen Menschen und Robotern anwendbar sind. Dafür spielten die Versuchspersonen zunächst ein Quizspiel mit dem Roboterkopf Eddie, der über Sprache und Mimik Gefühle ausdrücken kann. Wenn dabei eine emotionale Nähe zum Roboter zustande kam, zeigten sich die Menschen eher bereit, ihm anschließend auch bei der Frage nach dem rechten Weg behilflich zu sein – ganz ähnlich wie in der zwischenmenschlichen Kommunikation.

Gonsiors Vortrag zählte beim ARSO-Workshop zu den wenigen, die sich tatsächlich auf sozialwissenschaftliche Konzepte und Begrifflichkeiten stützten, um Roboter und ihre Beziehung zum Menschen besser zu verstehen. Ansonsten ist die Verständigung zwischen Geistes- und Ingenieurwissenschaften nach wie vor schwierig. Klaus Mainzer, Direktor des neu eingerichteten Munich Center for Technology in Society (MCTS), sieht in der Überwindung des Grabens zwischen Philosophen und Ingenieuren, die verschiedene Sprachen sprechen, eine große Herausforderung. Schließlich seien beide gefordert, um den zukünftigen Platz von Robotern in der Gesellschaft zu bestimmen.

Für Mainzer, der selbst Mathematik, Physik und Philosophie studiert hat, fügen sich Robotik und Künstliche Intelligenz in die Geschichte der biologischen Evolution ein. Informationen seien zunächst in den Genen, dann in den neuronalen Netzwerken der Gehirne gespeichert worden, bis die Menschen schließlich außerkörperliche Informationsspeicher erfanden. Die entwickelten sich in Gestalt digitaler Technologien mittlerweile derartig rasant weiter, dass sie bald alle biologischen Systeme in den Schatten stellen könnten. Mainzer nannte das Jahr 2060 als Orientierungsdatum, bis zu dem ein einzelner PC die Leistungsfähigkeit aller menschlichen Gehirne übertreffen könnte. Das sei natürlich eine „riskante Voraussage“, räumte er ein. Sie lasse sich aber auch nicht ausschließen.

Unklare Perspektiven

Auf die gesellschaftlichen und kulturellen Konsequenzen einer solchen Entwicklung scheint unser Sozialsystem nicht gut vorbereitet zu sein. In deutschen Gesetzestexten komme das Wort „Roboter“ nicht vor, resümierte etwa Daniel Eck (Universität Würzburg) seine Nachforschungen zur rechtlichen Einbettung der Robotik. Gemeinsam mit seinem Forschungskollegen Jan-Philipp Günther erörterte er den fiktiven Fall eines durch einen autonomen Rollstuhl verursachten Unfalls: Wer ist verantwortlich, wenn die Kollisionsvermeidung des Rollstuhls eine Ausweichbewegung veranlasst, durch die ein Radfahrer stürzt und sich schwer verletzt? Das Fazit nach ausführlicher Diskussion des Paragrafen 823 BGB, der die Schadensersatzpflicht regelt: „Die Haftbarkeit bei Robotern ist weitgehend unklar.“

Auch die Diskussion ethischer Fragen wirkt bisher kaum über die Kreise der Philosophie hinaus. Ein gesellschaftlicher Dialog über Robotik und Künstliche Intelligenz, wie er von mehreren Referenten gewünscht wurde, steckt noch in den Anfängen. Die Physikerin und Informatikerin Gordana Dodig-Crnkovic von der schwedischen Mälardalen-Universität erinnerte daran, dass das zunehmende Verschwimmen der Grenze zwischen Mensch und Maschine insbesondere in den Bereichen der Sicherheit, des Schutzes der Privatsphäre und der persönlichen Integrität schwierige Probleme mit sich bringe. Sie empfahl, die Beschäftigung mit Ethik stärker in der Ingenieursausbildung zu verankern.

Die von Dodig-Crnkovic geäußerte Sorge, die ausschließliche Kommunikation mit Robotern könnte bei den Menschen psychologische Schäden bewirken, schien allerdings nicht sehr aktuell angesichts einer europaweiten Umfrage, deren Ergebnisse beim ARSO-Workshop präsentiert wurden. In Deutschland sind diesem „Eurobarometer“ zufolge 76 Prozent der Befragten der Ansicht, dass Roboter den Menschen Arbeitsplätze stehlen. 30 Prozent wollen keine Roboter in der Erziehung, 74 Prozent lehnen ihren Einsatz in der Altenpflege ab.

Wenn Barbara Gonsior und ihre Forschungskollegen demnächst ihr Orientierungsexperiment unter realistischeren Bedingungen wiederholen und einen Roboter auf die Straße schicken, wo er sich durchfragen muss, könnte es daher sein, dass ihm statt klarer Wegbeschreibungen patzige Bemerkungen entgegengeschleudert werden. Mit Beleidigungsklagen muss deswegen niemand rechnen, jedenfalls vorerst nicht. Schließlich haben Roboter bislang noch keine Gefühle, die verletzt werden könnten. Falls sich die Notwendigkeit aber doch ergäbe oder die Maschinen eines Tages von selbst Emotionen entwickeln sollten, so Klaus Mainzer, müssten sie durch entsprechende Gesetze geschützt werden. (dab)

Artikel kostenlos herunterladen

weiterführende Links

Anzeige