1 Einleitung1
2018 wurde die Munich School of Robotics and Machine Intelligence (MSRM) als Integrative Research Center an der Technischen Universität München (TUM) gegründet (https://www.msrm.tum.de). Ziel der MSRM ist die Erforschung der Grundlagen der Robotik (Siciliano und Khatib 2016), der Perzeption und der Künstlichen Intelligenz (KI, Russel und Norvig 2010), um in einem interdisziplinären Umfeld innovative und nachhaltige Lösungen für zentrale Herausforderungen der Gegenwart zu entwickeln. Alle drei Forschungsfelder sind zentrale Säulen der Maschinellen Intelligenz. Diese legt den Fokus auf die Erforschung und Entwicklung von vertrauenswürdiger, verkörperter künstlicher Intelligenz, die sich sowohl ihrer selbst als auch ihrer Umgebung bewusst ist. Dies umfasst die Erforschung von Technologien, die für zukünftige intelligente Systeme grundlegend sind, um ihre Umwelt zu erfassen, Handlungen zu planen, zu lernen und sicher mit der physikalischen Welt – und hier allen voran mit dem Menschen – zu interagieren.
Verkörperte künstliche Intelligenz, wie z. B. in Form eines intelligenten Roboters, ist nicht einfach nur ein Computer. Sie verfügt über einen Körper ausgestattet mit einem künstlichen zentralen Nervensystem zur Verbindung von Wahrnehmung (Sensorik) und Agieren (Aktorik), und damit auch über die Fähigkeit, in der physischen Welt und mit den Menschen zu interagieren. Dies wird uns in Zukunft völlig neue Anwendungsfelder dieser Technologie in der Praxis ermöglichen. Statt durch Schutzzäune abgeschirmt, wie z. B. in den Produktionsstraßen der Automobilindustrie üblich, schlägt die Forschung zur Mensch-Maschine-Interaktion eine neuartige Brücke zwischen Menschen und Maschinen und eröffnet ungeahnte Möglichkeiten der gegenseitigen Kooperation und Koexistenz, vor allem aber der technischen Assistenz für den Menschen. Diese neue „Vernetzung“ von Mensch und Maschine manifestiert sich in Roboterassistenten genauso wie in autonomen Fahrzeugen oder Produktionsassistenten sowie insbesondere in kollektiv miteinander vernetzten Systemen, die künftig und mit Hilfe intelligenter Algorithmen Automatisierung sogar als Service anbieten können, nicht mehr als monolithische Speziallösung. In der Fabrik der Zukunft arbeiten schließlich Menschen und besonders feinfühlige Roboterwerkzeuge und -assistenten Hand in Hand. Maschinen können beispielsweise Bewegungsabläufe erlernen, indem sie von Menschen zunächst angeleitet und geführt werden, bis sie diese schließlich autonom bewältigen können. Einmal gelernt lässt sich diese Fähigkeit von beliebig vielen miteinander vernetzten robotischen Systemen ausführen sowie energie- und zeiteffizient optimieren.
Das Potenzial dieser Technologie reicht aber noch ungleich weiter. Im Bereich Gesundheit und Medizin z. B. auf dem Feld der minimal-invasiven Chirurgie können bereits heute Orte erreicht werden, zu denen wir bisher keinen Zugang hatten. Über kleinste Trokarpunkte, entsprechende Werkzeuge und Kameras wird das chirurgische Personal sprichwörtlich in den Körper „teleportiert“, ohne beispielsweise den Thorax öffnen zu müssen. Weiterhin hat Maschinelles Lernen die Bildgebung in den letzten Jahren nachhaltig verbessert und damit die Diagnostik auf ein neues Level gehoben. Mit Hilfe Künstlicher Intelligenz sowie entsprechender Vernetzung stehen prozessierte Informationen nicht nur dem direkt behandelnden Personal, sondern perspektivisch dem gesamten medizinischen Apparat zur Verfügung. Das besondere Anforderungsprofil und die spezifischen Herausforderungen der Forschung an den beschriebenen cyber-physischen Technologien wird besonders im Unterschied zu rein digitalen Anwendungen deutlich. Das vorliegende Kapitel beschreibt deshalb zunächst die Herausforderungen intelligenter Robotik (Abschn. 2) und erörtert diese anhand der Unterscheidung zwischen verkörperter KI und KI ohne Körper, also rein prozessierender oder kommunizierender, jedoch nicht physisch interagierender Algorithmen (Abschn. 3). Bereits ein sehr eklektischer Blick auf die Geschichte der intelligenten Robotik verdeutlicht den transdisziplinären Ansatz dieses Forschungsfeldes (Abschn. 4.1), aus dem sich zahlreiche Herausforderungen und Fragestellungen ergeben, die hier leider nur sehr kurz angeschnitten werden können (Abschn. 4.2). Um eine schnelle Technologieentwicklung und Umsetzung zu ermöglichen, setzt die MSRM gleichberechtigt auf einen erkenntnis- sowie einen zweck- und nutzerzentrierten Ansatz (Abschn. 5). Anhand zwei zentraler Leuchtturminitiativen, der Fabrik der Zukunft (Abschn. 5.2) und dem Forschungszentrum Geriatonik (Abschn. 5.3) wird gezeigt, wie das Technologiepotenzial zur Arbeit an zentralen gesellschaftlichen Herausforderungen genutzt und innovativ in die Realanwendung gebracht wird.
2 KI, Robotik und Komplexität – Herausforderungen der Forschung
Im März 2016 gelingt es der von Google Deep Mind entwickelten KI AlphaGo, Lee Sedol den Großmeister im Brettspiel GO2 mit unvorhergesehenen, also bisher nicht bekannten Strategiezügen zu schlagen (Silver et al. 2016). Durch modernste Methoden des maschinellen Lernens, vor allem des bestärkenden Lernens (Sutton und Barto 2018), konnte sie sich einen Suchraum eröffnen, den man zuvor nicht für möglich gehalten hatte. Die Bilder dieses Ereignisses gingen um die Welt und erinnerten doch in ihrer Bedeutung an eine ähnliche Szene, die fast 20 Jahre zuvor stattfand, als der damals beste Schachspieler der Welt, Garri Kasparow, im Schachspiel gegen die künstliche Intelligenz Deep Blue (entwickelt von IBM) einen ganzen Wettkampf verlor (die erste Partie bereits im Jahr 1996). GO ist, das lässt sich mathematisch relativ einfach zeigen, ein wesentlich komplexeres Spiel als Schach, da der Suchraum relevanter Züge ungleich größer ist. Und dennoch stellt sich dem aufmerksamen Betrachter die Frage, ob man innerhalb von 20 Jahren nicht doch einen größeren technologischen Fortschritt erwarten würde. Die in AlphaGo bewiesene Rechenleistung der Technologie ist unumstritten beeindruckend, jedoch ist beiden Szenen gemein, dass 1997 ebenso wie 2016 ein Mensch benötigt wird, um die Züge der Maschine in der physischen Welt umzusetzen. In der virtuellen Welt des Computers wird das Spiel gespielt, aber um die Figuren zu erkennen, zu sehen, zu greifen und den Zug umzusetzen, ist das Programm auf die Anwesenheit einer Person angewiesen.
Macht man sich diese Tatsache erst einmal bewusst, wird schnell deutlich, dass sich die meisten Entwicklungen, Schlagzeilen und Diskussionen zur Künstlichen Intelligenz in den letzten Jahren auf rein datenanalytische bzw. kommunikationstechnische Aspekte beziehen. Die physische Welt jedoch, in der wir als Menschen interagieren, physisch tätig sind und unsere Körper bewegen, setzt dieser unverkörperten KI sehr klare Grenzen. Die Fähigkeit, in der physischen Welt mit den Menschen zu interagieren erfordert einen Körper, wie z. B. den eines Roboters, eines Fahrzeuges, Flugzeugs oder anderen technologischen und perspektivisch auch hybriden Systemen. Erst die Form der verkörperten KI wird uns in Zukunft völlig neue Anwendungsfelder ermöglichen. Zur Entwicklung ebendieser auch cyber-physisch genannten Systeme ist jedoch ein ungleich größeres und transdisziplinäres Forschungs- und Entwicklungsumfeld erforderlich.
Die grundlegende Frage, wie Robotersysteme dazu befähigt werden können, diese so ‚einfach‘ erscheinenden Interaktionsfähigkeiten zu erlernen leitet die Forschung im Bereich Maschinelle Intelligenz an. Wie komplex physische Interaktion und Manipulation relativ gesehen tatsächlich sind, zeigt ein genauerer Blick auf zwei Bereiche: Zum einen die Mobilität, verstanden als das zielgerichtete Fortbewegen von Punkt A nach Punkt B; und zum anderen die Manipulation (aus dem Lateinischen: manus die Hand) zu verstehen als das Greifen und „Begreifen“ der Welt. Selbst einfachste Einzeller können sich bekanntermaßen von A nach B bewegen, doch die Fähigkeit ein Werkzeug mit der Hand einzusetzen, um kreativ mit der Welt zu interagieren, sie nach eigenen Vorstellungen zu ändern und sie zu begreifen ist heute nur den Primaten gegeben. Mobilität zum einen und Manipulation zum anderen, trennen also rein evolutionär gesehen Milliarden von Jahren. Die zeitliche Größenordnung des Komplexitätsunterschiedes zwischen diesen beiden Fähigkeiten, also die Fähigkeit der reinen Bewegung versus die der kreativen intelligenten Interaktion mit der Welt, gilt es zu verstehen, um entsprechende Systeme entwickeln zu können. Die Koexistenz des menschlichen Gehirns, des zentralen Nervensystems und der Hand, die Größe und das Gleichgewicht beim Fortbewegen auf zwei Beinen und dabei gleichzeitig die Welt zu begreifen und zu erfahren sind Fähigkeiten, die wir technisch noch immer nicht einfach nachbauen können. Die Komplexität intelligenter Robotik übersteigt demnach um ein Vielfaches jene, aktueller künstlicher Intelligenz, die im Grunde ausschließlich auf dem Konzept der Kommunikation basiert. Besonders plastisch wird diese Diskrepanz, wenn man z. B. das Lernverhalten kleiner Kinder betrachtet und zwar nicht das kognitive, sondern das motorische, also beispielsweise das Greifen von Objekten. Hierzu ein anekdotisches Beispiel: ein vierjähriges Kind richtet großes Chaos im Wohnzimmer an und man gibt ihm eine Chance, dem Aufräumen zu entgehen, wenn es ihm innerhalb von zehn Versuchen gelingt, einen Schlüssel in ein Zylinderschloss zu stecken. Das Kind hat das geschafft, aber immerhin sieben Versuche benötigt. Zum Erlernen dieser motorischen Fähigkeit waren vier Jahre des Heranwachsens, Lernens, Interagierens und eben diese sieben Versuche notwendig, um den Schlüssel letztlich in der uns eigentlich selbstverständlichen Bewegung zielgerichtet in das Schloss einzuführen. Noch 2015 stellt das Erlernen solch ‚einfacher‘ Fähigkeiten selbst die führenden Robotikexpertinnen und -experten und ihre robotischen Systeme vor scheinbar unlösbare Herausforderungen. Man könnte also konkludieren, dass die Interaktion mit der Welt, wie sie im eigentlich profanen Öffnen einer Tür3 zum Ausdruck kommt, der eigentliche nächste Quantensprung in der KI-Technologieentwicklung sei.
3 Des Pudels Kern: Künstliche Intelligenz mit und ohne Körper
Anhand der grundlegenden Unterscheidung zwischen künstlicher Intelligenz ohne Körper (disembodied AI), bei der es ausschließlich um Berechnung geht und künstlicher Intelligenz mit Körper (embodied AI), welche physisch mit der Welt interagiert, lassen sich diese Anforderungen an die neue Forschungsdisziplin verdeutlichen.
Bei der KI ohne Körper werden in der Regel ein Datenempfänger und -sender mit einem Algorithmus verbunden, d. h. Daten oder eine Informationskette werden empfangen, an einen KI Algorithmus weitergeleitet, der dann eine entsprechende Verarbeitung durchführt und das Ergebnis in einem Frage-Antwort-Schema liefert. So arbeiten z. B. die Sprachassistenzsysteme Siri und Alexa, die ein Audiosignal aufnehmen, das in der Cloud verarbeitet wird, wo es basierend auf einer großen Datenmenge analysiert und die entsprechende Bedeutung berechnet wird, um ein möglichst sinnvolles Ergebnis zurückzuspielen. Dass das nicht immer einwandfrei funktioniert, zeigt sich zum Beispiel daran, wie schwer die Systeme Dialekte erkennen und fehlerfrei auswerten können.
Die verkörperte KI funktioniert im Gegensatz zu den eben beschriebenen Systemen grundsätzlich verschieden. Sie ist mit einem sensomotorischen Körper ausgestattet, der eben nicht nur Daten austauscht, sondern auf den immer auch die Umwelt mit Daten und Energie reagiert. Das bewusste Schütteln der Hand ist natürlich auch ein datentechnischer Prozess mit abstrakter Bedeutung, aber vor allem wird beim „realen Handshake“ mechanische und thermodynamische Energie zwischen Körper und Umwelt (bspw. einer zweiten Person oder einem gegriffenen Objekt) ausgetauscht, die aufgrund der gekoppelten Eigenschaften von physikalischen Grundprozessen, schlichtweg den Grundgesetzen der Physik inhärent unterliegt. Ein eigentlich kommunikativer, sequenzieller Prozess wird durch die Einbettung in die physische Umwelt zu einem inhärent gekoppelten Prozess. Zwischen dem sensomotorischen Körper und der Welt gibt es also eine direkte Interaktion, weshalb dann auch der KI-Algorithmus in seiner umfassenden Interpretation als ein interagierendes System gesehen werden muss – und nicht wie bei der KI ohne Körper der Fall – als ein sequenzielles, also nacheinander ablaufendes System. Reine Sequenzialität funktioniert also nicht für Körper. Verkörperte KI basiert gezwungenermaßen auf systemischer Interpretation und auf dem Konzept der Rückkopplung, die den physikalischen Grundgesetzen inhärent ist (ausführlich dazu z. B. Pfeifer und Iida 2004).
Im heutigen Alltag unterstützt uns in der Regel noch KI ohne Körper, deren Technologien relativ weit fortgeschritten sind. KI mit Körpern steckt dagegen noch in den Kinderschuhen, denn abgesehen vom Staubsauger- oder Rasenmäherrobotern arbeitet die Menschheit kaum mit Systemen, deren Körper physikalisch „bewusst“ mit der Welt interagieren. Wir befinden uns insofern gerade erst am Beginn der Entwicklung verkörperter KI bzw. intelligenter Robotersysteme. Kein Wunder also, dass sich künstliche Intelligenzen ohne Körper derzeit viel stärker mit den kritischen Fragen des Datenschutzes oder Überwachung konfrontiert sehen, denn letztlich besteht ihre originäre Funktionalität darin, Muster in Daten zu erkennen und diese umfassend zu analysieren.
Das Konzept der verkörperten KI, der interagierenden autonomen4 Maschinen, welche reale Zusammenhänge verstehen, sich in der Welt bewegen und sogar mit ihr interagieren, ist auch deshalb so spannend, weil es im Grunde auch die Frage nach den systemischen Eigenschaften des Menschen aufwirft: was ist jenseits der für sich schon komplexen Anatomie autonomer Systeme erforderlich, um in einer physikalischen Welt zu interagieren und zu agieren? Hier trifft die Entwicklung intelligenter Maschinen auf die Erforschung der Grundprinzipien des menschlichen Körpers und seiner Funktionsweise.
4 Von der Idee in den Alltag: Ideengeschichte und aktuelle Forschung der Maschinellen Intelligenz
Die bereits aufgeführten Beispiele der allseits bekannten Anwendungsfälle für Künstliche Intelligenz wie Alpha Go, Alexa und Siri führen dazu, dass künstliche Intelligenz in der öffentlichen Wahrnehmung häufig als rein informatisches Problem wahrgenommen wird. Die führenden forschenden Köpfe auf diesem Gebiet stammen aber streng genommen aus ganz unterschiedlichen Fachdisziplinen. Und auch historisch lag der Fokus viel stärker auf verkörperten Systemen. Auf der Dartmouth Conference 1956, die als Gründungsmoment der künstlichen Intelligenz in der Akademia gilt, waren Wissenschaftlerinnen und Wissenschaftler der Kognitionswissenschaften, Mathematik, Elektrotechnik, und natürlich Informatik vertreten,5 darunter auch Claude Shannon, weltbekannt als Begründer der Informationstheorie. Künstliche Intelligenz war schon damals ein fächerübergreifendes Thema. Die heutzutage weit verbreitete Idee, sie beschränke sich ausschließlich auf das Feld der Informatik, muss daher revidiert werden. Obwohl Dartmouth zurecht als die Gründungskonferenz der KI gehandelt wird, muss auch darauf hingewiesen werden, dass die damals diskutierten Ideen auf Forschungsansätzen fußen, die weitaus länger zurückliegen als 1956. So finden sich Beiträge zu Robotik und künstlicher Intelligenz beispielsweise im Grunde schon bei den großen Universalgelehrten, wie Gottfried Wilhelm Leibniz und Leonardo Da Vinci.6 Beiden waren bereits Potenziale auf dem Gebiet der physischen Manifestation von Intelligenz bewusst, die nun auch die aktuelle Forschung verfolgt.
4.1 Verkörperte Intelligenz als Werkzeug
Gottfried Wilhelm Leibniz ist bekannt als Erfinder des Binärcodes, der in einer einfachen Randnotiz seiner Aufzeichnungen zu finden war. Gleichzeitig hat er neben der Infinitesimalrechnung, die er zur selben Zeit aber unabhängig von Sir Isaac Newton entwickelt hat, aber auch den ersten Rechner – Taschenrechner könnte man sagen – entwickelt, der alle vier Grundrechenarten beherrscht. Leibniz nutzte den Code also in einer physikalischen Manifestation. Er unterschied nicht zwischen dem Konzept der Berechnung und dem der physischen Manifestation – wie es heute bei der künstlichen Intelligenz häufig der Fall ist. In seiner Monadologie beschäftigt ihn auch die Frage nach Körper und Geist, die er auch dahingehend beantwortet, dass eine Maschine aufgrund ihrer konstruktivistischen Bauart nie einen Geist besitzen könne.
Lange Zeit hat niemand besser als Leonardo da Vinci verstanden, dass der Mensch einem Bauplan folgt. Dass Anatomie einen funktionellen Zweck hat, zeigt er an seinem Automaten. Letzterer ist ein mechanisches System, das in einer einzigen linearen Bewegung einen komplexen Bewegungsapparat steuert und veranschaulicht, wie der menschliche Körper einem gewissen Bauplan folgt, der auch die Steuerung, Regelung und das Lernen vereinfacht. Stellt man sich vor, man müsste alle Muskeln, alle Gelenke auf einem kognitiven Level parallel ansteuern, bedeutet das, man müsste mehrere hunderte Dimensionen gleichzeitig denken und planen. Für den Menschen sind bewusst schon drei Dimensionen eine Herausforderung, nimmt man nur zum Einstieg an, jeder Muskel wäre eine eigene Dimension, so würde diese Vorstellung kollektiv komplett überlasten. Die Antwort auf dieses Problem ist ein derart klug entworfener Körper, der es erlaubt, dass ein zentrales Nervensystem mit selbst mit hohen Latenzen, wenig Bandbreite und im Prinzip auch großen Ungenauigkeiten, d. h. einem großen Rauschen, in der Lage ist, einen so komplexen Körper zu steuern. Dieser Bauplan birgt in sich eine Art Intelligenz, die primär physikalisch und mechanisch manifestiert, jedoch auch algorithmisch interpretierbar ist.
Für die künstliche Intelligenz und Robotik waren (und sind) die grundsätzlichen Ideen dieser beiden Herren grundlegend: Erstens der Grundgedanke Leibniz’, dass ein Werkzeug, in diesem Fall der Taschenrechner, eingesetzt wird, um Menschen das Leben zu erleichtern, um eben nicht permanent von Hand rechnen zu müssen. Und zweitens da Vinci, der mit als Erster eine Verbindung zwischen dem Aufbau des menschlichen Körpers und dem einer Maschine erkennt, insbesondere in der Bewegungsmechanik.
Aufbauend auf diesen zunächst einfach erscheinenden Prinzipien und zahlreichen darauffolgenden Erkenntnissen des 20. Jahrhunderts ist die Technologieentwicklung im Bereich der robotischen Systeme seit den 50er-Jahren geradezu explodiert. Erste Industrieroboter wurden gebaut und mit dem Aufkommen der Humanoiden (Kajita et al. 2014) wurden erstere bereits programmiert, konnten also die Verbindung zwischen Berechnung und mechanischer Bewegung in sich vereinen. Deep Blue wurde erfunden, daneben auch das erste minimalinvasive Chirurgierobotersystem namens „da Vinci“ und Stanley, eines der ersten Systeme, das autonom durch die Wüste fahren konnte, oder BigDog, ein System von Boston Dynamic, das komplexe vierbeinige Bewegungsmuster durchführt, u. v. m. Im Gegensatz zu Siri und Alexa sind diese Systeme jedoch kaum in unserem Alltag zu finden. Erstaunlich, dass in einer Welt, in der wir permanent von Digitalisierung sprechen und jeder einen kleinen Supercomputer namens Handy in seiner Tasche trägt, intelligente und feinfühlige Roboter, die als Werkzeuge genutzt werden können, kaum eine Rolle spielen.
4.2 Was müssen intelligente Systeme können
- a)
Wahrnehmung und Sensorik
Ähnlich dem Menschen ist auch für intelligente Roboter der Tastsinn ein zentrales Sinnesorgan. Voraussetzung für die Vision feinfühliger, leicht bedienbarer Roboterwerkzeuge, die durch ihre Lernfähigkeit und Interaktivität als Werkzeug eingesetzt werden können, ist dass diese möglichst schnell und effizient lernen. Stattet man die Systeme mit einem Tastsinn aus, kann der Roboter ähnlich wie ein kleines Kind an die Hand genommen werden, um ihm die entsprechenden Bewegungsabläufe beizubringen.
Die Entwicklung profitiert hier vor allem von Fortschritten im Bereich der Sensorik. Sensoren sind quasi die Sinnesorgane der Systeme. Mit Hilfe von Kraft-/Drehmomentsensoren, die in den Systemen verbaut werden, kann gemessen und berechnet werden, wieviel Kraft auf den Roboter ausgeübt wird, aus welcher Richtung diese stammt und wo sie vermutlich auf den Roboter treffen wird. Darüber hinaus wird an Konzepten geforscht, die statt einzelner Sensoren sogenannte SmartMaterials – wiederum ein eigener Forschungsbereich – einsetzen (McEvoy und Correll 2015). Der menschlichen Haut nachempfunden wird hier z. B. an Materialien gearbeitet, die die gesamte Roboteroberfläche überziehen und so mit Hilfe einer großen Menge von kleineren vernetzten Sensoren auch parallel ablaufende Krafteinwirkungen erfassen können (Stichwort: taktile Perzeption). Was einerseits die Sensibilität des Roboters erhöht, verursacht auf der anderen Seite natürlich eine ungemein höhere Komplexität und erfordert immense Rechenleistung, was wiederum den Bereich der Datenverarbeitung berührt.7
- b)
Unabhängige Navigation
- c)
Sicherheit
„One, a robot may not injure a human being, or, through inaction, allow a human being to come to harm. […]. Two, a robot must obey the orders given it by human beings except where such orders would conflict with the First Law. […]. And three, a robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.“ (Asimov 1941, S. 26)8
- d)
Lernfähigkeit
Die Alltagstauglichkeit bzw. der Einsatz robotischer Systeme auch in kleineren und mittelständischen Unternehmen als Werkzeuge und Unterstützer scheitert derzeit in vielen Fällen noch an der aufwändigen Nutzung und Programmierung. Statt auf reine Expertensysteme zu setzen, fokusiert die Forschung deshalb auf Anwendungen, die auf die Ansprüche der Nutzenden zugeschnitten werden. Robotische Systeme werden mit einer künstlichen Intelligenz ausgestattet, die es ermöglicht, Objekte robust zu erkennen und selbstständig relevante Strukturen aus der Umgebung ableitet. Gleichzeitig arbeitet die Forschung an einfachen und intuitiven Bedienoptionen z. B. in Form von Apps.
Bereits erwähnt wurde das Lernen durch Vorführen oder „an die Hand“ nehmen. Hier werden – von der menschlichen Eigenschaft Fähigkeiten zu erlernen – inspirierte Lernalgorithmen im System entworfen. Beim sogenannten „Apprenticeship Learning“ demonstriert der Mensch dem Roboter eine Aufgabe, indem er seine Bewegungen anleitet. Das System imitiert diese Demonstration und erlernt so eine neue Fähigkeit, kann sich nach diesem Training sogar selbstständig verbessern und den Prozess optimieren. Auch robotisches Greifen, Manipulieren und Objekterkennung mit Lernmethoden gehören zu den zentralen Forschungsfeldern der Robotik (Burdet et al. 2013; Johannsmeier et al. 2019).
- e)
Mechatronik
Neben den Fähigkeiten neuartiger robotischer Systeme beschäftigt auch deren komplexe Beschaffenheit die Forschung auf dem Gebiet intelligenter Robotik. Wie müssen Roboter entworfen werden, um einerseits die an sie gestellten Aufgaben optimal erfüllen zu können, andererseits in der Interaktion mit Menschen nicht befremdlich zu wirken oder gar gefährlich zu werden. Optimale Leistung und sichere Interaktion bei der Entwicklung neuer Systeme brauchen innovative Materialien, Entwurfs- und Konstruktionskonzepte (Hirzinger et al. 2002). Das Leichtbaukonzept beispielsweise fokussiert auf Gewichtsreduktion, geringe Trägheit, eine hohe Mobilität und Motoren mit geringem Stromverbrauch. Dazu werden extrem leichte aber gleichzeitig stabile Werkstoffe wie Leichtmetalle oder Verbundwerkstoffe verwendet. Andere Roboterdesigns setzen auf flexible Gelenke und können so menschenähnliche Bewegungen durchführen.
Um nur die genannten Komponenten optimal aufeinander abzustimmen, müssen Forschende auf den jeweiligen Gebieten zukünftig noch enger zusammenarbeiten, um die jeweiligen Anforderungen an den Entwurf und die Entwicklung der Systeme bestmöglich zu integrieren. Die MSRM setzt dazu auf eine Kombination von Expertinnen und Experten aus Informatik, Ingenieurwissenschaft und Elektrotechnik, aber auch Physik, Chemie, Medizin und Mathematik sind zentrale Eckpunkte, wenn es um die Weiterentwicklung aber auch das Neudenken intelligenter robotischer Systeme geht.
5 Robotik „Made in München“
Der Standort München ist auf diesem Gebiet ein international anerkannter Vorreiter. Zahlreiche Schlüsseltechnologien und -theorien stammen anders als häufig landläufig vermutet aus Deutschland und Europa.
5.1 München, eine kurze Historie
Das autonome Fahren beispielsweise stammt nicht originär aus den USA. Ernst Dickmanns, Professor an der Universität der Bundeswehr in München, entwickelte in den 1980er-Jahren die Grundlagen dieser Technologie. Nicht erst 2005 wurden 50 Kilometer durch die Mojave Wüste autonom durch das von dem deutschstämmigen Sebastian Thrun geleitete Stanford Team in Rekordzeit zurückgelegt, sondern bereits im Jahr 1993 ist Prof. Dickmanns von München bis nach Odense in Dänemark fast 90 % autonom auf der Autobahn gefahren. Gerd Hirzinger entwickelten mit seinem Team am DLR den ersten ferngesteuerten Roboter für den Einsatz im Weltraum, dessen Aufgabe es war, ein frei fliegendes Objekt im Weltraum einzufangen. Die grundlegende Idee des Konzepts ist es, Satelliten im Orbit einzufangen, zu reparieren oder kontrolliert zum Absturz zu bringen. Die enge Kollaboration von DLR und dem Roboterhersteller KUKA hatte in den 90ern und frühen 00ern in der industriellen Robotertechnik große Entwicklungssprünge bis hin zum LBR iiwa, einem intelligenten und kollaborativen Leichtbauroboter, der die enge Zusammenarbeit mit Menschen ermöglicht, zur Folge. Im Bereich der Humanoiden Robotik forschten an der TUM bereits in den späten 90ern Friedrich Pfeiffer und Günter Schmid. Sie entwickelten Humanoide Roboter, die nicht nur in nur der Lage waren sich statisch fortzubewegen, sondern auch dynamisch. Sepp Hochreiter und Jürgen Schmidhuber erfanden an der TUM die sogenannten Long short-term memory (LSTM, Hochreiter und Schmidhuber 1997) Neuronalen Netze, und hiermit die Grundlage der Sprachsynthese und -verarbeitung in modernen Smart Devices. Ebenfalls in München federführend mitentwickelt wurde der erste kontinuierlich gehirngesteuerte Roboter, der es einer vollständig gelähmten Frau erlaubt hat, erstmals kraft ihrer Gedanken einen Getränkebehälter selbstständig zu greifen und zum Mund zu führen (Hochberg et al. 2012). Der mit dem Deutschen Zukunftspreis 2017 ausgezeichnete intelligente Roboterassistent des Münchner Unternehmens Franka Emika hat in Punkto Taktilität und Nutzbarkeit sowie als Referenzplattform internationale Maßstäbe gesetzt (Franka Emika 2017). Das besonders feinfühlige, adaptive, aber auch kostengünstige vernetzte System wurde für die feinfühle Manipulation und die enge Zusammenarbeit mit dem Menschen konzipiert. Durch Algorithmen des Maschinellen Lernens befähigt wurde das System auch zentrales Element auf dem Weg zur ersten realen Fertigung mit zentralen Elementen der Selbstreproduktion.
In Europa und vor allem auch München blicken wir hier also auf eine interessante Geschichte zurück. Dieser Aspekt ist vor allem auch deshalb spannend, weil gerade Europa oft als technologisch abgehängt beschrieben wird. Tatsächlich haben viele dieser Theorien ihren Ursprung jedoch gerade nicht in den USA und in China. Beide Länder scheinen aber sehr viel besser zu verstehen, wie sie umgesetzt werden. Die MSRM setzt aus diesem Grund nicht nur auf die Entwicklung zentraler Schlüsseltechnologien im Rahmen dreier zentraler Forschungssektoren (Perzeption, Künstliche Intelligenz und Robotik). Ziel ist es, reale Forschungsbedarfe mit entsprechender gesellschaftlicher Relevanz in das Forschungszentrum zurückzuspielen. Die drei Innovationssektoren, Zukunft der Arbeit, der Mobilität und der Gesundheit widmen sich diesem Ziel. Die konkreteste Form des Austauschs neu erforschter Technologien mit Firmen und Anwendern stellen zentrale Leuchtturminitiativen dar, welche die gemeinsame und gemeinschaftlich beforschte Brücke zwischen Forschungs- und Anwendungszentrum bilden. Im Bereich Zukunft der Arbeit wird hier z. B. die KI.Fabrik der Zukunft erforscht, entwickelt und aufgebaut, im Bereich der Gesundheit das Forschungszentrum Geriatronik aufgebaut.
5.2 Mission 1: Die Fabrik der Zukunft
Die bereits beschriebenen feinfühligen Roboterwerkzeuge kommen in der KI.Fabrik zum Einsatz. Die MSRM plant gemeinsam mit Partnern aus der Industrie den Bau und die Entwicklung der ersten KI.Fabrik bis zum Jahr 2030 in Bayern. Sie ist eines der großen Leuchtturmprojekte, das aktuell an der MSRM angestoßen wird und die Zukunft der Arbeit in der Produktion nachhaltig verbessern soll. Ziel der Leuchtturminitiative ist ein flexibler, vollständig vernetzter Produktionsstandort zur lokalen, krisensicheren und wirtschaftlichen Produktion modernster IT und mechatronischer Hightech-Komponenten in Bayern.
Die Vision dieser Initiative beinhaltet die neueste Generation intelligenter Roboter, die nicht isoliert an einzelnen Produktionsschritten arbeiten, sondern gemeinsam mit den Menschen hochkomplexe Aufgaben bewältigen. Die feinfühligen Roboter werden von den Menschen angeleitet und lernen so flexibel neue Arbeitsschritte. In Szenario 2 sind sie innerhalb der KI.Fabrik und über deren Standorte hinaus miteinander vernetzt und können deshalb auch kollektiv voneinander lernen. Eine zentrale künstliche Intelligenz optimiert und plant in einem dritten Szenario Produktionsschritte und Prozesse und ermöglicht eine wirtschaftliche Produktion vor Ort ab der Losgröße 1. Langfristig kann Produktion so kosteneffektiv und sogar als Service angeboten werden. Die Roboter der KI.Fabrik sollen schließlich, so das Vorhaben der Initiative, zudem als Avatare genutzt werden, d. h. mittels hochmoderner Kommunikationsmethoden (5G), intelligenter Kleidung (smart wearables) sowie multimodaler Interfaces können sich die Angestellten in die Fabrik einloggen und vor Ort Aufgaben erledigen. Lange Arbeitswege werden so auf ein Minimum reduziert und Gefahrenbereiche müssen von Menschen nicht mehr betreten werden. Möglich wird dies durch die großen Fortschritte im Bereich der Telepräsenz, deren Potenzial auch für den Gesundheitssektor neue Anwendungsgebiete eröffnet.
5.3 Mission 2: Geriatronik
Im Jahr 2018 hat die MSRM in Garmisch-Partenkirchen das erste Forschungszentrum für Geriatronik eröffnet (https://geriatronics.msrm.tum.de). Die Kombination von Mechatronik und Robotik in Geriatrie, Gerontologie und Pflege soll in diesem gesellschaftlich wichtigen Bereich eine optimale Unterstützung bieten.
Methoden und Technologien zur Telepräsenz und Regelung zum translatorischen Einsatz kommen hier zur Anwendung. So ist beispielsweise die Telemedizin ein wirksames Instrument im Kampf gegen den Fachärztemangel vor allem in ländlichen Regionen. Im Falle eines Sturzes setzt der Roboter nicht nur den Notruf ab, er ermöglicht es auch der Notrufzentrale sich in das System einzuloggen, die Hilfebedürftigen anzusteuern und nicht nur audiovisuell mit ihnen zu kommunizieren, sondern auch diagnostisch zu interagieren. Der Roboter als verlängerter Arm des medizinischen Personals ermöglicht es, innerhalb kürzester Zeit eine erste Diagnose zu stellen. Er ist ausgestattet mit einem Ultraschallgerät, kann den Blutdruck messen oder ein EKG durchführen. Zusätzlich kann der Arzt/die Ärztin sich mittels künstlicher Intelligenz, welche die Patientendaten abgleicht, seine Diagnose absichern lassen und bei der Behandlung auf das umfangreiche Wissen einer Datenbank zurückgreifen. Unfallhilfe wäre so viel schneller möglich. Gleichzeitig ermöglicht das System aber auch einfache Untersuchungen, Routinechecks und kann z. B. bei Flüssigkeitsmangel ein Glas Wasser reichen, überprüfen ob die richtigen Medikamente eingenommen wurden, und vieles mehr.
Ziel der Leuchtturminitiative ist es, die Autonomie und Mobilität im Alter möglichst lange zu erhalten sowie zwischenmenschliche Interaktion und Kommunikation zu erleichtern. Intuitiv bedienbare, adaptive Assistenzsysteme stellen sich direkt auf die Nutzenden ein und ermöglichen so Unabhängigkeit im Alter und Krankheitsfall. Ein weiteres zentrales Ziel der Geriatronik ist die Entlastung von Pflegekräften im Alltag. Durch Unterstützung in körperlich belastenden Situationen soll die allgemeine Arbeitssituation im Pflegebereich verbessert werden.
Die Forschung in Garmisch-Partenkirchen konzentriert sich dabei auf die Entwicklung des bedienerfreundlichen Serviceroboters GARMI, insbesondere im Hinblick auf sichere und fühlende menschenähnliche Hände mit Low-Level-Regelungsalgorithmen und einem innovativen multimodalen aktiv bewegungsgeregelten Kopf. Ein weiterer Schwerpunkt liegt auf der mehrstufigen Entwicklung eines multimodalen Eingabegerätes für medizinisches Personal. Angefangen hat alles bei einem einfachen haptischen audiovisuellen Panel über ein roboterbasiertes Exoskelett bis hin zu einem Kontinuum-Exoskelett, um GARMI mit hoher Präzision und Komplexität fernbedienen zu können. Um die Diagnostik aus der Ferne zu erleichtern, wird ein digitaler Zwilling des Menschen entwickelt. Daher wird eine sensor- und modellbasierte Überwachung des menschlichen Kreislaufs und Nervensystems, sowie des menschlichen Gewebes verwendet, um eine Echtzeit-Visualisierung der physiologischen Prozesse im Körper zu erstellen.
Ein integriertes Erlebniszentrum mit breit angelegten Feldstudien in Musterwohnungen wird genutzt, um frühzeitig ein kontinuierliches Nutzerfeedback zu erhalten. Diese neue Art der partizipativen Forschung und Entwicklung nimmt nicht nur Vorurteile und Ängste, sie bietet auch die Möglichkeit einer passgenauen Entwicklung unter Einbezug der relevanten Nutzergruppen.
6 Fazit: Intelligente Robotik – Zwischen Ängsten und Hoffnungen
Nach diesem kurzen Ausflug in die Welt der verkörperten KI wird bereits klar, wie anspruchsvoll und vielfältig die Entwicklung dieser Systeme sich gestaltet, dass sie aber andererseits heute schon Potenziale bietet, die wir gefühlt vor allem aus Science Fiction Filmen kennen und so in naher Zukunft nicht erwarten würden. Intelligente Roboter bilden einen zentralen Baustein der nächsten Digitalisierungsstufe. Machen Forschung und Translation, unterstützt durch zukunftsgerichtete politische und rechtliche Rahmenbedingungen, ihre Hausaufgaben, werden uns diese in allen möglichen Kontexten begleiten, die Gesundheitsversorgung verbessern, Mobilität nachhaltig und effizient gestalten und uns von körperlich belastender oder gefährlicher Arbeit entlasten.
Hat sich dieser Text nun doch überwiegend den „Versprechen“ oder besser Möglichkeiten gewidmet, so soll der Abschluss den zweifelsfrei großen und auch ernst zu nehmenden Bedenken gewidmet sein.
„The development of full artificial intelligence could spell the end of the human race.[…] It would take off on its own, and re-design itself at an ever increasing rate. […] Humans, who are limited by slow biological evolution, couldn’t compete, and would be superseded.“ (Stephen Hawking)9
Von diesen bewegenden Vermutungen sind wir, das zeigt ein Blick auf die Forschung, weit entfernt, werden es voraussichtlich in den nächsten Jahrhunderten auch bleiben. Sie sind deshalb weniger Grund zur Besorgnis, als spannendes Indiz dafür, dass künstliche Intelligenz und Robotik, wie wir sie aktuell in ihrer Frühform mehr und mehr erleben, eben auch die Grundsätze dessen berühren, was das Menschsein im Kern ausmacht. Was ist der Mensch, was ist Leben und was unterscheidet uns von den Maschinen? Kurzweil und Hawking mögen die Leistung intelligenter Systeme zum jetzigen Zeitpunkt überschätzen, sie treffen jedoch einen zentralen Kern, mit dem sich die Forschung auf diesem Gebiet eben auch auseinandersetzen muss. Schließlich sollen die Systeme künftig zu wertvollen Werkzeugen und Begleitern der Menschen werden und wir im Sinne einer positiven Zukunftsvision Technologie im Dienste und zum Nutzen des Menschen entwickeln.