Ob Kredit-Auskunft, Autoversicherung oder Medikamenten Tests: Künstliche Intelligenz (KI) wird heute bei Entscheidungen eingesetzt, die weitreichende Folgen für den Einzelnen und die Gesellschaft haben. Doch die dahinterliegenden Algorithmen können Daten falsch oder unfair interpretieren und dadurch zu diskriminierenden Entscheidungen kommen. Solche Verzerrungen aufzudecken und zu verhindern ist Ziel des europäischen Forschungsprojekts NoBIAS (Artificial Intelligence without Bias), an dem Prof. Steffen Staab, Inhaber der Professur „Analytic Computing“ und Cyber Valley-Professor an der Universität Stuttgart, beteiligt ist.
Bei einer Kredit-Auskunft beispielsweise wird künstliche Intelligenz eingesetzt, um abzuschätzen, ob ein Kredit erfolgreich zurückgezahlt werden kann oder nicht. Als Entscheidungskriterien dienen dabei Daten wie das Gehalt der betroffenen Person. Geschieht dies automatisiert, kann das scheinbar plausible Kriterium aber unfair sein: Da zum Beispiel Frauen im Schnitt weniger verdienen, würde ihnen bei einer automatisierten Entscheidung womöglich ein Kredit versagt – obwohl sie ihn wahrscheinlich zurückgezahlt hätten. In anderen Bereichen könnte Menschen aufgrund solcher Verzerrungen ein Job, eine medizinische Behandlung oder eine bestimmte Information verwehrt werden.
Solche Verzerrungen können in allen Phasen von KI-basierten Entscheidungsprozessen auftreten: wenn Daten gesammelt werden, wenn Algorithmen Daten in Entscheidungsfindungskapazität umwandeln oder wenn Ergebnisse der Entscheidungsfindung in Anwendungen verwendet werden. Vor diesem Hintergrund wollen die Wissenschaftler*innen in NoBias Methoden erforschen und entwickeln, die unvoreingenommene Entscheidungen auf der Grundlage von KI ermöglichen. Sie setzen dabei zum einen an den in großer Zahl anfallenden Daten selbst an und prüfen, ob diese als faire Grundlage herangezogen werden können. Zum zweiten konzentrieren sie sich auf leistungsstarke Algorithmen, die von Methoden des maschinellen Lernens getrieben werden. Last but not least versuchen die Forschenden, die Entscheidungen von KI zu erklären und transparent zu machen. Ziel ist es, voreingenommene und diskriminierende KI-Entscheidungsfindung zu erkennen und Lösungen anzubieten, die es einerseits erlauben, die Potentiale von KI auszuschöpfen und gleichzeitig die Einhaltung rechtlicher und sozialer Normen zu gewährleisten. Daher gehen die Forschenden über traditionelle KI-Algorithmen hinaus, die für die prädiktive Leistung optimiert sind, und betten ethische und rechtliche Prinzipien in KI-Algorithmen ein.
Das NoBIAS-Konsortium umfasst Forschende aus acht Organisationen in fünf europäischen Staaten. Es ist interdisziplinär ausgerichtet und bündelt Fachwissen in den Bereichen künstliche Intelligenz, Recht und Soziologie. Das Netzwerk wird durch zehn assoziierte nicht-akademische Partner aus verschiedenen Anwendungsbereichen ergänzt, darunter Banken, Versicherungen und Pharmaunternehmen.
Fachlicher Kontakt:
Prof. Steffen Staab, Universität Stuttgart, Institut für Parallele und Verteilte Systeme, Abteilung Analytic Computing, E-Mail