Projekt TrustMe!
P | 03-IBPJ-TRUST
Thema:
Ob in der Künstlichen Intelligenz, in klassischen Softwaresystemen oder in komplexen
Anwendungssteuerungen: Der Ruf nach Erklärbarkeit wird lauter. Denn häufig sind die Entscheidungen solcher Systeme für Nutzer:innen – und teils selbst für Entwickler:innen – nicht mehr nachvollziehbar. Dabei ist Erklärbarkeit ein
zentraler Baustein für Vertrauen, insbesondere in sicherheitskritischen Anwendungen
oder bei Systemen, die aufeinander aufbauen (sogenannte Systems-of-Systems).
Das Projekt TrustMe! untersucht, wie Systeme ihr eigenes Verhalten erklären können –
von einfachen Spielen wie Tetris oder 2048 bis hin zu industriellen Steuerungen in Bereichen
wie Lagerlogistik, Chip-Design oder Fertigung. Ziel ist es, verständliche,
weiterverarbeitbare und vertrauensfördernde Erklärungen zu entwickeln, die sowohl
Menschen als auch anderen Systemen zugutekommen.
Im Zentrum stehen dabei folgende Forschungsfragen:
Welche Formen der Erklärung sind hilfreich für End-Nutzer:innen? Und welche für andere Systeme? (Interpretability of explanation)
Wie kann ein System sich selbst erklären? Und welche Aspekte seines Verhaltens kann es überhaupt erklären? (self-explainability of systems)
Wie können Erklärungen von anderen Systemen verarbeitet und genutzt werden? (usability of explanations)
Wie müssen Algorithmen gestaltet sein, damit sie sich möglichst einfach selbst erklären können? (design for explainability)
Mit TrustMe! wollen wir nicht nur das Verständnis technischer Systeme verbessern, sondern auch
eine neue Grundlage für Vertrauen und Zusammenarbeit zwischen Menschen und Maschinen schaffen.
Das Projekt ist für Studierende aus den Bachelorstudiengängen Informatik, Systems
Engineering, Digitale Medien und Wirtschaftsinformatik geeignet, aber auch für andere
Studierende offen. Eine Weiterführung als Masterprojekt ist geplant. Das Projekt bereitet
auf die Masterprofile SQ und AI vor, in Teilen auch DMI und VMC.
Das Projekt wird primär
auf Deutsch durchgeführt.