Das Cockpit der Zukunft

Neue Wege in der Kommunikation von Mensch und Maschine

Markus Schmid und sein Team wollen die Interaktion zwischen Mensch und Maschine intuitiver und leichter machen.
[Foto: Universität Stuttgart/IKTD]

Autonome Fahrzeuge und Maschinen sollen uns das Leben in Alltag und Beruf leichter machen. Doch je automatisierter und vernetzter sie sind, desto komplexer werden sie. Damit die Kommunikation mit den Maschinen von morgen trotzdem reibungslos funktioniert, entwickeln Ingenieure des Forschungs- und Lehrgebiets Technisches Design der Universität Stuttgart an den Nutzer und die Situation angepasste Cockpits und Bedienelemente.

Bereits 2008 rollten in Nürnberg erstmals in Deutschland U-Bahnen ohne Fahrer über die Gleise – vollautomatisch gesteuert über ein Computernetzwerk. Über dieses stehen die U-Bahnen in ständigem Datenaustausch mit der Strecke, dem Stellwerk und einer zentralen Leitstelle. Der „Fahrer“ jedoch sitzt am Schreibtisch in der Leitstelle und überwacht auf zehn Monitoren den Betrieb. Aktuell testet die Deutsche Bahn führerlose Züge in ersten Pilotprojekten, und noch in diesem Jahr sollen erstmals auch selbstfahrende Linienbusse im öffentlichen Stadtverkehr zum Einsatz kommen.

In der Landwirtschaft hat die Digitalisierung bereits seit Mitte der 1990er-Jahre Einzug gehalten. Lange bevor autonome Autos ihre Jungfernfahrt auf der Straße absolvierten, konnten Landwirte bereits ihre Hände vom Steuer nehmen und Traktoren und Mähdrescher GPS- und Sensor-gesteuert spurgenau über die Felder fahren lassen. In Zukunft plant und überwacht der Bauer zu Hause vor dem Rechner, wie seine autonomen Fahrzeuge das Feld bestellen. Noch sind wir weit davon entfernt, dass Maschinen vollkommen autonom handeln – ohne den Menschen als „Aufpasser“. Aber auf dem Weg dorthin lösen zunehmend automatisierte oder teilautonome Maschinen, bei denen der Mensch nur im Notfall übernehmen muss, die manuell bedienbaren Gefährte ab. „Das sind ganz andere Arbeitsplätze“, sagt Markus Schmid. Auf den Nutzer prasseln unzählige Informationen gleichzeitig ein, etwa von Spurwechsel- und Einparkassistenten oder von vernetzten Geräten, beispielsweise von Smartphones oder angehängten Landwirtschaftsmaschinen. „Wie kann der Mensch so viele Informationen überhaupt verstehen und rechtzeitig darauf reagieren?“ ist eine Frage, die den Gruppenleiter des Bereichs Interface Design und Usability-Methodik schon lange umtreibt. Der Forschungsbereich ist eingebettet in das Forschungs- und Lehrgebiet Technisches Design, das Prof. Thomas Maier am Institut für Konstruktionstechnik und Technisches Design (IKTD) der Universität Stuttgart leitet.

Schmids Team konzentriert sich auf das Design von benutzerfreundlichen Bedienoberflächen und -umgebungen. An der Schnittstelle von Mensch und Maschine, dem Interface, soll die Interaktion intuitiver und leichter werden. Egal ob im Verkehr, in der Landwirtschaft oder im Operationssaal. Ein Trend ist hierbei die Verlagerung von Funktionen in die virtuellen Menü-Ebenen von berührungssensitiven Bildschirmen. „Die steigende Komplexität war mit Schaltern und Knöpfen irgendwann nicht mehr beherrschbar“, erzählt der studierte Feinwerktechniker Schmid. Viele hätten geglaubt, mit den virtuellen Interfaces sei das Problem gelöst. „Doch auch Steuerknüppeln und Drehreglern werden wir im Cockpit der Zukunft weiterhin begegnen“, ist sich Schmid sicher. Die Leute wollen etwas in der Hand halten, fühlen. „Ärzte können nicht auf dem Touchscreen eine OP durchführen“, nennt er ein Beispiel. Hier gilt es noch, die richtige Balance zu fi nden zwischen dem, was virtuell auf dem Bildschirm untergebracht ist, und den realen Bedienelementen.

Die Gestalt gibt die Drehrichtung vor

Gerade bei Joystick und Co. sind die Möglichkeiten noch lange nicht ausgereizt, um die Nutzer bei der Bedienung besser zu unterstützen. Zusammengesetzt aus beweglichen Scheiben, die durch einen Motor angesteuert werden, ließe sich beispielsweise bei einem Drehknopf je nach Situation die Form ändern. „Die Gestalt gibt mir eindeutig vor, in welche Richtung ich drehen muss. Dann brauche ich nicht hinzuschauen, sondern spüre, was zu tun ist“, erklärt Schmid. In dem Projekt aISA mit der Universität Hohenheim und der Firma elobau geht es zum Beispiel darum, adaptive Interfacesysteme für eine Traktor-Fahrerkabine zu entwickeln. Die Vision ist, dass je nachdem, ob der Traktor etwa eine Düngerspritze oder eine Ballenpresse angehängt hat, sich die Bedienelemente in Form, Farbe, Oberfläche oder Anordnung verändern. Der Landwirt macht dadurch weniger Bedienfehler, die für sich und andere zur Gefahr werden könnten, so die Hypothese. Cockpit-Entwickler müssen sich in Zukunft auch darauf einstellen, dass es immer mehr ältere Menschen geben wird, die zudem länger arbeiten müssen. Hier sind altersgerechte Bedienoberflächen gefragt, denn bei vielen Älteren schwindet zunehmend die sensorische, kognitive und motorische Leistungsfähigkeit. Eine Lösung aus Schmids Team sieht beispielsweise vor, dass Drehsteller sich automatisch von einer eher runden zu einer eckigen Form wandeln, sobald der ältere Mensch nicht mehr die nötige Kraft zum Drehen aufbringen kann.

Noch einen Schritt weiter geht es, wenn wir künftig mit Blicken Maschinen steuern könnten. „Das wäre für gelähmte Menschen sinnvoll oder für jemand, der viele Bildschirmarbeitsplätze zu überwachen hat“ erklärt Schmid ein weiteres Forschungsthema aus seiner Arbeitsgruppe. Das Auge müsste lediglich einem festgelegten Weg auf dem Bildschirm folgen, etwa die Linie eines Quadrats umfahren, und schon könnte der Benutzer sich ganz ohne Maus Informationen näher heranholen, durch Menüs stöbern oder eine Maschine betätigen.

Neben der visuellen Bedienoberfläche lässt sich aber auch die haptische Bedienumgebung anpassen, um dem Menschen bei der Bewältigung der Informationsflut zu helfen. Matti Schwalk aus Schmids Arbeitsgruppe experimentiert dazu mit einem Fahrzeugsitz. In die Sitzfläche hat der Doktorand 16 Vibrationsmotoren eingebaut, wie sie auch in handelsüblichen Handys vorkommen. Die Rückenlehne enthält 25 vibrierende Motoren. Je nachdem, welche Motoren der Maschinenbauingenieur gleichzeitig oder nacheinander vibrieren lässt, werden verschiedene Muster an Rücken und Gesäß spürbar. „Wenn der Fahrer eines teilautonomen Fahrzeugs sich in Zukunft von der Fahrbahn abwendet, um zu lesen oder E-Mails abzurufen, ist es schwierig, ihn visuell wieder auf das Übernehmen vorzubereiten“, erklärt Schwalk. Ein zusätzliches Anstupsen über den Fahrersitz kann da nicht schaden.

Kommunikation per Fahrersitz: Vibrationsmotoren in Sitzfläche und Rückenlehnen geben je nach Situation Signale an den Fahrer weiter.

Vibrationsmuster als sanfte Warner

Bisher haben Forscher nur einfache taktile Systeme getestet: ein Antippen links oder rechts im Sitz oder Gürtel, wenn ein Fahrer oder Blinder abbiegen soll, vibrierende Lenkräder, wenn das Fahrzeug die Spur verlässt, oder ein generelles Vibrieren als unspezifische Warnung. Schwalk hingegen testet bis zu 30 verschiedene Muster. Er will wissen, welche taktilen Muster die Probanden eindeutig erkennen und vor allem, wie viele sie sich überhaupt merken können. Und ob es analog zu den Piktogrammen Muster gibt, die der Mensch intuitiv mit bestimmten Informationen zusammen bringt. „Es ist tatsächlich so, dass die Teilnehmer ein x-förmiges Muster mit einem Fehler verknüpfen“, erzählt Schwalk. Sicher sei es nicht sinnvoll, jede mögliche Information im Fahrzeug taktil anzuzeigen, gibt er zu. Doch Vibrier-Reize könnten den Fahrer künftig nicht nur darauf hinweisen, wohin er abbiegen soll, oder warnen, sobald er die Spur verlässt, sondern auch auf eine drohende Kollision aufmerksam machen, einen eingehenden Anruf melden oder eine Eingabe bestätigen. „Diese taktilen Anzeigesysteme ließen sich sowohl in den Sitz eines Autos oder Traktors einbauen, als auch in die Handauflage eines OP-Geräts“, fügt Schwalks Gruppenleiter Schmid hinzu.

Ein paar Türen weiter hat Maschinenbau-Ingenieur Kristian Karlovic gemeinsam mit Regelungstechnikern vom Institut für Systemdynamik eine komplett adaptives Assistenzsystem aufgebaut. Im Vorraum seines Büros steht nun ein Prüfstand in Form eines mannshohen Gestells mit schwenkbaren Armen, das künftig bei minimal-invasiven Eingriffen die Unterarme der Operateure stützen soll. „Zusammen mit Projektpartnern des Universitätsklinikums Tübingen haben wir im Rahmen des interdisziplinären Projekts IoC-103 festgestellt, dass die Operateure während der OP sehr starke Verspannungen in Nacken und Schulter haben, die sich auch auf die Qualität der OP auswirken können“, sagt Karlovic. Oftmals dauern minimal-invasive Eingriffe mehrere Stunden. Dabei führen Operateure über kleine Öffnungen in der Bauchdecke OP-Instrumente und ein endoskopisches Kamerasystem zum Organ und operieren mit Blick auf den Bildschirm.

Mannshoch mit schwenkbaren Armen: Das adaptive Assistenzsystem unterstützt Operateure künftig bei minimal-invasiven Eingriffen.

Eine Maschine, die unter die Arme greift

Die Bedienung des entwickelten OP-Helfers ist einfach: Sobald jemand seine Unterarme auf den Armauflagen platziert, folgen diese quasi wie festgeklebt all seinen Armbewegungen und stützen diese. Mit einer schnellen Bewegung der Arme nach oben können die Ärzte ihre Unterarme wieder von der Auflage lösen, was eine von den Projektpartnern erarbeitete Anforderung war. Getestet haben die Forscher das Armassistenzsystem mit Gynäkologen und Urologen in einer Nachbildung eines OP-Saals am Universitätsklinikum Tübingen. Und tatsächlich, die Muskulatur der oberen Extremitäten wurde entlastet. In seiner Doktorarbeit geht es Karlovic nun um die Feinjustierung des Systems. So will er zum Beispiel herausfinden, wie viel Kraft die Maschine auf die Unterarme ausüben muss, um diese optimal zu stützen, und welchen Aufbau die Armauflage idealerweise hat.

In Zukunft wird es aber nicht nur wichtig, gebrauchtstaugliche Maschinen mit adaptiven Interfacegestaltungen zu entwickeln. Dabei spielt die Ästhetik eine große Rolle. Doch wie viel Ästhetik verträgt ein benutzerfreundliches Produkt? Ein modernes Flugzeug-Cockpit würde wohl keinen Design-Preis gewinnen. Es zu verschönern, stieße aus Sicherheitsgründen bald schon an Grenzen. Für seine zukünftige Habilitation hat Gruppenleiter Schmid darum eine Methode entwickelt, wie Ingenieure Schritt für Schritt vorgehen können, um Mensch-Maschine- Schnittstellen möglichst ästhetisch zu gestalten, ohne dass dies der Benutzerfreundlichkeit im Wege steht. Denn nicht zuletzt soll es den Nutzern Spaß machen, die Maschinen zu bedienen.
Helmine Braitmaier

Dr.-Ing. Markus Schmid, Institut für Konstruktionstechnik und Technisches Design (IKTD), Tel.: +49 711/685-66063, E-Mail                               

Prof. Dr.-Ing. Thomas Maier, Institut für Konstruktionstechnik und Technisches Design (IKTD), Tel.: +49 711/685-66060 und -66055, E-Mail

Dipl.-Ing. Matti Schwalk, Institut für Konstruktionstechnik und Technisches Design (IKTD), Tel.: +49 711/685-66673, E-Mail

Dipl.-Ing. Kristian Karlovic, Institut für Konstruktionstechnik und Technisches Design (IKTD), Tel.: +49 711/685-66601, E-Mail

Kontakt

 

Hochschulkommunikation

Keplerstraße 7, 70174 Stuttgart

Zum Seitenanfang