FORSCHUNG LEBEN – das Magazin der Universität Stuttgart

Selbstoptimierung in der Fabrikhalle

An der Realisierung einer „Lernende Fabrik“ arbeiten Wissenschaftlerinnen und Wissenschaftler der Universität Stuttgart sowie der Forschungsfabrik ARENA2036.

Maschinen, die sich quasi von selbst programmieren, sollen die Produktion künftig schneller, flexibler, vorausschauender und wirtschaftlicher machen. Noch ist eine solche „Lernende Fabrik“ eine Zukunftsvision und die Herausforderungen sind groß. Wissenschaftlerinnen und Wissenschaftler der Universität Stuttgart sowie der Forschungsfabrik ARENA2036 arbeiten an der Realisierung.

Aus einer Werkzeugbox eine Schraube herauszufischen und der Produktion zuzuführen, das scheint auf den ersten Blick ganz einfach zu sein. Doch hinter dem Vorgang verbirgt sich eine Vielzahl an Teilschritten: Die Schraube im Durcheinander der Teile zu erkennen, sie an der richtigen Stelle zu greifen, das Werkstück anzusteuern, die Schraube an der richtigen Stelle und in der richtigen Richtung einzudrehen – der Mensch erfasst solche Abläufe intuitiv. Ein klassischer Produktionsroboter dagegen muss für jeden einzelnen Teilschritt von einem Experten programmiert werden. „Bis der Roboter zuverlässig funktioniert, vergeht viel Zeit, und die personalintensive Programmierung ist teuer“, erklärt Prof. Marco Huber, der am Institut für Industrielle Fertigung und Fabrikbetrieb (IFF) der Universität Stuttgart die Abteilung Kognitive Produktionssysteme leitet.

In einem kognitiven Produktionssystem erfolgt eine solche Programmierung ohne menschliches Zutun. Der Roboter lernt autonom, zum Beispiel in einer simulativen Umgebung oder durch Nachahmung, welche Schritte er auszuführen hat. Daraus generiert er selbst sein Programm und führt dieses schließlich aus. Dass Maschinen sich tatsächlich selbst programmieren, sei zwar noch Zukunftsmusik, „aber in Teilbereichen, wie etwa der Objekterkennung, funktioniert das zumindest unter Laborbedingungen schon sehr gut“, erläutert Huber. „Das wollen wir jetzt in die Praxis bringen“, ergänzt der Wissenschaftler, der auch das Zentrum für Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA leitet, das insbesondere mittelständische Unternehmen beim maschinellen Lernen für die Produktion unterstützt.

Prof. Huber steht neben einem Montageband. Er blickt auf einen Roboterarm in Bewegung (c) Universität Stuttgart/U. Regenscheit
Maschinen, die eigenständig lernen und sich selbst programmieren – das funktioniert bereits in Teilbereichen und unter Laborbedingungen. Prof. Marco Huber und sein Team wollen sie praxistauglich machen.

Mehr Komplexität durch Deep Learning

Ein zentraler Faktor für diese Fortschritte ist das Deep Learning, ein Teilbereich des maschinellen Lernens, der auf neuronalen Netzen basiert. Das Konzept geht in seinen Anfängen bereits in die 1940-Jahre zurück und knüpft an der Funktionsweise der Nervenzellen (Neuronen) im menschlichen Gehirn an. Diese nehmen über Synapsen Informationen auf und „feuern“, wenn ein kritischer Wert erreicht ist. Der amerikanische Psychologe und Informatiker Frank Rosenblatt leitete daraus das sogenannte Perzeptron (von englisch perception, „Wahrnehmung“) ab.

Perzeptren wandeln einen Eingabevektor in einen Ausgabevektor um und stellen damit einen einfachen Speicher dar, auf dessen Inhalt assoziativ zugegriffen werden kann. Neuronale Netze ordnen eine Vielzahl an Perzeptren in Schichten an und ermöglichen es so, nicht-lineare mathematische Funktionen zu repräsentieren.

„Je mehr Schichten ein solches Netz hat, desto komplexere Probleme lassen sich lösen“, erklärt Huber. Zumindest in der Theorie. Denn das eigentlich Essenzielle, das Trainieren neuronaler Netze, war lange Zeit eine große Herausforderung. Für das Training gilt es, die Gewichte auf den Verbindungen zwischen den Neuronen einzustellen – bei mehreren 100.000 oder gar Millionen Gewichten ein enormer Aufwand. Erste Abhilfe brachte in den 1980er-Jahren ein Kernalgorithmus, der die automatisierte Gewichtung ermöglichte. Der Name „Backpropagation“ des Algorithmus suggeriert dabei das Grundprinzip: Abweichungen zwischen der Vorhersage des Systems und dem tatsächlichen Datensatz werden „von hinten nach vorne“ in das Netz zurückgespielt. Dadurch kann sich das System schrittweise anpassen, bis die Fehler minimiert sind. Mathematisch verbirgt sich dahinter das bekannte Prinzip des Gradientenabstiegs, ein Verfahren, das in der Numerik eingesetzt wird, um allgemeine Optimierungsprobleme zu lösen.

Treiber des Durchbruchs

Den eigentlichen Durchbruch für Deep Learning brachten dann drei Entwicklungen der vergangenen Jahre: „Durch die Verwendung von Grafikkarten haben wir erstens inzwischen eine Rechenleistung, die es erlaubt, den Trainingsaufwand zu beschleunigen. Zweitens steht uns gerade durch das Internet eine Masse an Daten zur Verfügung, und es gibt drittens Softwarepakete in hoher Qualität teilweise preisgünstig oder sogar open source“, beschreibt Huber die Treiber des Fortschritts.

Herausforderungen bleiben dennoch zu Genüge. Eine nennt sich Sim-to-Real-Transfer und beschreibt die Übertragung einer Rechnersimulation zum Beispiel auf einen realen Roboter. Das Problem dabei: Es gibt keine perfekte Simulation – daher kann es auch kein perfektes Training geben. Eine weitere Schwierigkeit: Maschinelles Lernen erfordert sehr viele Daten in hoher Qualität. Tatsächlich fallen in der Produktion auch massenhaft Daten an, doch deren Güte lässt oft zu wünschen übrig. Sensordaten sind verrauscht, manchmal fehlen komplette Datenfelder oder die Daten tragen unterschiedliche Zeitstempel, weil sie aus Maschinen stammen, deren Uhren minimal unterschiedlich ticken. „Daten sind der Schlüssel für maschinelles Lernen“, sagt Huber, „und da gilt das bekannte Prinzip ‚garbage in, garbage out‘.“

Portraitfoto Prof. Huber (c) Universität Stuttgart/U. Regenscheit
Prof. Marco Huber leitet die Abteilung Kognitive Produktionssysteme am Institut für Industrielle Fertigung und Fabrikbetrieb (IFF) an der Universität Stuttgart

Bis eine Maschine so komplexe Entscheidungen fällen kann wie ein Mensch, müssen auch die Lernmethoden noch weiter erforscht werden. Ein vielversprechender Weg für das Planen von Aktionen ist das sogenannte Reinforcement Learning. Ein Roboter beispielsweise erlernt dabei seine Tätigkeit wie ein Kind durch Versuch und Irrtum und erhält im Erfolgsfall eine Belohnung: Bringt er sein Werkstück an die richtige Stelle, erhält er einen Punktwert gutgeschrieben, lässt er es fallen, gibt es Minuspunkte – so lange, bis er seinen Job beherrscht.

Ein weiteres Forschungsthema ist das „Transfer Learning“, also die Übertragung des Gelernten auf eine andere Aufgabe. Denn während der Mensch bei ähnlich gelagerten Fragestellungen auf seinen Erfahrungsschatz zurückgreifen kann, muss man bei der Programmierung einer Maschine bisher jedes Mal wieder ganz von vorne beginnen. Eng damit verbunden ist das „Meta-Learning“, also das Lernen, wie man lernt. Momentan besteht Maschinelles Lernen noch viel aus „Rumprobieren“. Wie viele Schichten braucht ein neuronales Netz, was macht jede Schicht, wie viele Neuronen braucht eine Schicht? „Gut wäre ein Algorithmus, der die passende Architektur des neuronalen Netzes selbst bestimmen kann“, hofft Huber.

Licht in die Blackbox bringen

Last but not least gleichen neuronale Netze derzeit noch einer Art Blackbox. Was in ihr geschieht und warum ein neuronales Netz eine bestimmte Entscheidung trifft, bleibt im Dunkeln. Kritisch wird dies zum Beispiel bei der Klärung von Schuldfragen bei Unfällen im Bereich des autonomen Fahrens, im Finanzbereich, wenn ein Kunde wissen möchte, warum er einen Kredit nicht erhält, oder in der Medizin, wenn ein OP-Roboter über die Entfernung eines Tumors entscheidet. Laut Datenschutzgrundverordnung hat der Mensch einen Anspruch auf die Erklärung einer automatisierten Entscheidung. Im Grenzfall kann die Blackbox daher dazu führen, dass das technisch Mögliche nicht in die Anwendung kommt.

Deshalb versuchen Wissenschaftlerinnen und Wissenschaftler, Entscheidungsregeln für neuronale Netzwerke zu extrahieren und aus der Blackbox eine Whitebox zu machen. Fertig sei man damit leider nie, meint Huber. „Bei komplexen Systemen kommen mit der Zeit immer mehr Regeln dazu, die sich teilweise auch noch widersprechen. Dann wird das Regelsystem irgendwann selbst zur Blackbox.“ Dennoch: Der Siegeszug von Deep Learning ist nicht aufzuhalten. Die Bandbreite der Anwendungsmöglichkeiten reicht heute von allen Phasen der Produktion über das Autonome Fahren bis hin zu Chatbots wie Alexa und Siri oder dem Online-Übersetzer DeepL.

Ein Klassiker in der Produktion ist die Qualitätssicherung, wo Künstliche Intelligenz insbesondere bei der Endkontrolle bereits intensiv zum Einsatz kommt. Früher, bisweilen auch heute noch, untersuchte ein Mensch, ob ein Werkstück beispielsweise eine einwandfreie Oberfläche hat. Das Ergebnis ist subjektiv, die Aufgabe ermüdend. Inzwischen erfolgt die Kontrolle meist kamerabasiert, doch die Bildverarbeitung muss sehr aufwendig parametrisiert werden. Kombiniert man die Kamerabilder mit neuronalen Netzen, kann das System Fehler sehr viel zuverlässiger erkennen, und die Gefahr falscher Alarme verringert sich. Zudem werden die Systeme robuster, sodass sich beispielsweise Schwankungen in der Beleuchtung weniger stark auswirken.

Mit Künstlicher Intelligenz gut lösbar sind auch Fragestellungen der vorausschauenden Instandhaltung (predictive maintenance), eine Kernkomponente von Industrie 4.0. Hierbei werden Zustandsdaten aus Maschinen genutzt, um vorauszusagen, wann ein Teil ausfällt, und um den optimalen Wartungszeitpunkt zu planen. Hier können neuronale Netze beispielsweise die Prognosemodelle zur Bestimmung der Restlaufzeit einer Maschine verbessern.

Agile Produktionsanlagen

Was in einzelnen Produktionsbereichen schon möglich ist, soll bald auch für komplette Produktionsstraßen gelten. Daran arbeitet Dr. Matthias Reichenbach, Leiter des Teams FutureTec der Daimler AG in der in der Forschungsfabrik ARENA2036 an der Universität Stuttgart. Die Errichtung solcher Anlagen nimmt von der Planung über die Programmierung bis zur Inbetriebnahme derzeit noch mehrere Monate in Anspruch. Ob der Prozess am Ende funktioniert und welche Qualität die Erzeugnisse haben, weiß man erst, wenn die Anlage in Betrieb ist.

Damit es künftig schneller und agiler geht, setzt die Gruppe auf eine Vereinfachung der Systeme, auf Intuition – und auf die Mitarbeiterinnen und Mitarbeiter in der Produktion. „Die Menschen am Montageband kennen die Produktionsprozesse am besten und beherrschen die ‚Schraub-Skills‘. Für sie wollen wir die Arbeit erleichtern, sie emotional begeistern und ihre Kreativität entfesseln“, beschreibt Reichenbach die Zielgröße. „Der Mensch soll an der Technologie Spaß haben und sie für mehr nutzen als für deren Ursprungszweck.“

Ein ganz praktisches Beispiel sind kleine Roboterassistenten, die von jedermann ganz einfach und ohne IT-Kenntnisse programmiert werden können. Der Mitarbeiter oder die Mitarbeiterin zeigt dem Roboter einfach, was zu tun ist. Dieser imitiert dann den Bewegungsablauf – Mensch und Maschine können Hand in Hand arbeiten. Die Technik unterstützt den Menschen in seiner täglichen Arbeit auf die Art und Weise, wie es für ihn individuell am besten ist.

Möglich wird dies durch eine Drehmoment-Sensorik, die am Deutschen Zentrum für Luft-und Raumfahrt ursprünglich für die Internationale Raumstation ISS entwickelt wurde. „Der Roboter fühlt, was er tut“, erklärt Reichenbach. Schon nach knapp zehn Minuten sitzt der Ablauf, und der Roboter kann nun zum Beispiel Schrauben eindrehen oder einen Batteriesatz einbauen und auf die richtige Position hin überprüfen.

Dr. Matthias programmiert einem Roboter mit Drehmoment-Sensorik (c) Universität Stuttgart/S. Cichowicz
Das Foschungsgebiet von Dr. Matthias Reichenbach sind Roboterassistenten, die sich einfach und ohne IT-Kenntnisse programmieren lassen, um Routineaufgaben abzunehmen.

Im Rahmen des Projekts „FluPro“ (Fluide Produktion), an dem unter Federführung des Fraunhofer- Instituts für Produktionstechnik und Automatisierung IPA insgesamt 18 Partner beteiligt sind, sollen die leicht zu rekonfigurierenden und einfach programmierbaren Fertigungsmodule nun schrittweise zu einem kompletten Montageband für die Elektromobilität verkettet werden. Hierbei setzen die Forscherinnen und Forscher in der ARENA2036 auf das Prinzip der Schwarmintelligenz: Die Anlage wird nicht als Ganzes geplant, sondern jeder Experte optimiert seinen spezifischen Bereich, der dann in die Gesamtanlage integriert wird. Ende 2019 soll der Prototyp fertig sein. Bis sich auch im wahren Leben eine Produktionsanlage in zwei Tagen programmieren lässt, dürfte allerdings noch einige Zeit vergehen. „Für den Dauerbetrieb brauchen wir eine ganz andere Stabilität und Prozesssicherheit. Daran arbeiten wir in der ARENA gemeinsam mit unseren Partnern, oder dann schon in einer realen Fabrik“, ist Reichenbach zuversichtlich.

Weitere Potenziale für KI

Doch nicht nur in der Produktion sind selbsttrainierende Systeme interessant. Predictive Maintenance zum Beispiel ist auch im Bauwesen ein Thema, da gerade in Industriegebäuden viel Technik steckt und sich mit der vorausschauenden Instandhaltung viel Geld sparen lässt.

Auch in den Lebenswissenschaften steckt enormes Potenzial für Künstliche Intelligenz. Die Erforschung neuer Medikamente etwa dauert derzeit im Schnitt zwischen sieben und acht Jahren, da für die Suche nach einem Wirkstoff unzählige Datenbanken manuell durchforstet werden müssen. Hier könnte Künstliche Intelligenz die Suche automatisieren und treffsicherer machen, was die Entwicklungszeit wie auch die finanziellen Risiken enorm verringern könnte.

Biologische Transformation heißt das Schlagwort der Zukunft. Dahinter verbirgt sich das Zusammenwachsen von technischen und biologischen Prozessen, was mehr Nachhaltigkeit in verschiedensten Bereichen wie etwa der Produktion oder dem Wohnen bringen soll. Wie auch schon bei der digitalen Transformation spielen Informationstechnologien wie die KI eine wesentliche Rolle, um einen hohen Grad an Automatisierung oder gar Autonomie zu erlangen. Ein Kompetenzzentrum Biointelligenz, in dem die Stuttgarter Fraunhofer-Institute sowie die Universitäten Stuttgart und Hohenheim vertreten sind, befindet sich derzeit im Aufbau. Hier sollen die Entwicklung und der Einsatz von biointelligenten Systemen in unterschiedlichen Anwendungsfeldern untersucht werden.

Andrea Mayer-Grenu

Prof. Dr. Marco Huber
Institut für Industrielle Fertigung und Fabrikbetrieb IFF, Universität Stuttgart

Experten-Profil

Andrea Mayer-Grenu
 

Andrea Mayer-Grenu

Wissenschaftsreferentin, Forschungspublikationen

Zum Seitenanfang