FORSCHUNG LEBEN – das Magazin der Universität Stuttgart

Maschinen mit Moral

Philosophen entwickeln ethische Prinzipien für eine gelungene Kooperation zwischen Mensch und Maschine

Kriegsroboter, die eigenständig töten könnten, – sie sind ganz sicher das Horrorszenario angewandter künstlicher Intelligenz (KI). Doch auch für deren Einsatz in Smartphones, Autos, der Arbeitswelt und in der Haustechnik stellt sich die Frage: Wie sollen KI-Anwendungen beschaffen sein, damit sie dem Menschen nicht schaden, sondern nutzen und seine Selbstbestimmung respektieren? Wissenschaftler am Institut für Philosophie der Universität Stuttgart versuchen, darauf Antworten zu geben.

Erhält ein Patient die Diagnose Demenz, ist er in der Anfangsphase der Erkrankung durchaus in der Lage, sein Leben weiterhin selbstständig zu führen. Die Eigenständigkeit auch im weiteren Verlauf möglichst lange zu erhalten, ist das Ziel von Assistenzsystemen im Wohnumfeld. Prototypen einer solchen intelligenten Haustechnik haben Forscherinnen und Forscher der Universität Stuttgart gemeinsam mit externen Partnern im Projekt „Design Adaptiver Ambienter Notifikationsumgebungen“ (DAAN) entwickelt.

Neben Ingenieuren waren auch Philosophen im Team: Sie entwarfen für DAAN ein moralisches Gerüst, denn die Technik soll den Menschen nicht bevormunden, sondern dessen persönliche Vorlieben und selbstbestimmte Tagesgestaltung respektieren. Dazu muss das System lernen, auf den Nutzer einzugehen. „Techniken der Biografiearbeit und Erinnerungspflege wenden Fachkräfte in der Pflege auch bisher schon an“, erklärt Hauke Behrendt, wissenschaftlicher Mitarbeiter am Institut für Philosophie. „Das zu automatisieren und zu digitalisieren, ist jedoch neu: selbstlernende Systeme, die sich den Interessen und Bedürfnissen der Nutzer automatisch anpassen.“ Zentrale Aufgabe der Philosophen war es, eine Entscheidungsgrundlage zu finden, mit welcher Dringlichkeit DAAN den Bewohner an Tätigkeiten erinnert. „Vergisst er, die Blumen zu gießen, ist das weniger schlimm, als wenn er das Trinken vergisst“, gibt Behrendt ein Beispiel. Als Erinnerungshilfe könnte das Wasserglas auf dem Tisch vibrieren. Wird das ebenfalls ignoriert, lässt sich festlegen, was der nächste Schritt ist, ab wann DAAN beispielsweise Angehörige informiert. „Doch wie viel Autonomie wird hier aufgegeben? Wie viel Manipulation ist im Spiel? Philosophische Aspekte mit einzubeziehen, um Antworten auf Fragen wie diese zu finden, ist für die Entwicklungen sehr fruchtbar”, sagt Behrendt.

„Gleichzeitig müssen bestimmte Werte berücksichtigt werden, die uns am Herzen liegen.“ Hier stellen sich Fragen der Datenethik, etwa wem die Daten gehören, die die Assistenzsysteme erfassen, oder wer sie nutzen darf. Nicht zuletzt kommt auch der klassische Konflikt zwischen Autonomie und Wohlergehen ins Spiel: „Sollte das System Trinker daran erinnern, dass sie ihre Alkoholdosis noch nicht erreicht haben?“, verdeutlicht Behrendt. Ohnehin solle DAAN nur Möglichkeiten aufzeigen, die Entscheidung jedoch dem Nutzer überlassen. „Voraussetzung ist, dass diese Möglichkeiten stark selbstschädigendes Verhalten ausschließen.“

Frau am Montagearbeitsplatz des Fraunhofer IAO (c) Ludmilla Parsyak/Frauenhofer IAO
Fremdbestimmung oder Hilfe? Am personalisierten Montagearbeitsplatz Future Work Lab des Fraunhofer IAO projiziert das System Anleitungen direkt auf die Arbeitsfläche.

Ethische KI als Alleinstellungsmerkmal

KI stand auch im Mittelpunkt des interdisziplinären Projekts „motionEAP“: Unter den Augen einer Kamera mit Bewegungserkennung setzen Monteure Bauteile zusammen, zum Beispiel in Behindertenwerkstätten. Machen sie dabei einen Fehler oder wissen nicht weiter, projiziert das System entsprechende Hinweise direkt auf die Arbeitsfläche. Das stellte die Entwickler vor ganz verwandte Fragen: Wie stark darf das System den Arbeiter überwachen, wie sehr eingreifen? Wer hat Zugriff auf die Daten? Ähnlich wie bei DAAN arbeiteten die Philosophen hier mit dem Institut für Visualisierung und Interaktive Systeme (VIS) zusammen. „Die Bundesregierung nimmt das Thema Digitalisierung sehr ernst und vergibt viele Forschungsgelder in diesem Bereich. Die Maßgabe ist allerdings immer, dass Projektpartner für eine ethische Reflexion beteiligt werden“, sagt Behrendt. Er ist überzeugt, dass sich hier ein Alleinstellungsmerkmal herauskristallisieren könnte: „Die ethische Reflexion hat in Ländern wie China aktuell nicht denselben Stellenwert wie bei uns in Deutschland.”

Um zu ihren Urteilen zu gelangen, bedienen sich die Philosophen sogenannter reflexiver Zirkel. Dafür leiten sie aus moralischen Prinzipien konkrete Handlungsanweisungen ab, die sie gegen Intuition und andere Urteile abwägen, was wiederum zu Anpassungen der Prinzipien führen kann. Um zu prüfen, ob ihre Gedankengänge nachvollziehbar, widerspruchsfrei und schlüssig sind, tauschen sie sich mit fachfremden Kollegen, Nutzern und Betroffenen aus und stellen ihre Überlegungen in Kolloquien zur Diskussion. Neben der angewandten Ethik für konkrete Projekte betrachten sie Grundsatzfragen zur Digitalisierung. „Natürliche Ressourcen gehen zu Ende, der Klimawandel droht, der produzierte Mehrwert wird immer ungleicher verteilt: Wird die Digitalisierung diese Entwicklung verschärfen? Es ist notwendig, darüber nachzudenken, welche Form des Wirtschaftens, der gesellschaftlichen Teilhabe und des Zusammenlebens es braucht, um den digitalen Wandel nachhaltig zu gestalten."

Wie die früheren industriellen Revolutionen könnte die Digitalisierung für viele Menschen in einer Katastrophe münden. Behrendt hingegen betont die Chancen: „Wenn wir das reflektieren und den Willen zur Gestaltung haben, dann könnten wir mit einem großen Gewinn herausgehen – an Aufklärung, an Selbstermächtigung.“ Statt den Gegensatz Mensch oder Maschine hervorzuheben, plädiert der Philosoph dafür, das Beste beider Welten zu vereinen: „Schon heute können Algorithmen Krebserkrankungen deutlich besser erkennen als erfahrene Chefärzte. Ein Chefarzt mit dieser Technologie ist aber noch kompetenter in seinem Urteil. Meine Hoffnung wäre, dass wir auf bestimmte Effizienzgewinne verzichten und den Menschen mit der Technologie ausstatten.“ Dann müsste auch niemand Angst haben, dass ihm ein Roboter den Job wegnimmt. Oder ihn gar erschießt.

Daniel Völpel

Hauke Behrendt
Wissenschaftlicher Mitarbeiter am Institut für Philosophie, Universität Stuttgart
E-Mail

Dieses Bild zeigt Mayer-Grenu
 

Andrea Mayer-Grenu

Wissenschaftsreferentin, Forschungspublikationen

Zum Seitenanfang