Drittmittelprojekt | laufend | 30.06.2021
- 29.06.2025
SFB/Transregio 318: Konstruktion von Erklärbarkeit (SFB/TRR 318)
Projektleitung
Koordinierende Einrichtung
Sprechereinrichtung
Zweck
Forschung
Fachgebiete
Forschungsschwerpunkte
Förderung
Mittelgeber:
Deutsche Forschungsgemeinschaft
Förderprogramm:
Drittmittel DFG
In unserer digitalen Gesellschaft nehmen die algorithmischen Ansätze (wie das maschinelle Lernen) rasant an Komplexität zu. Diese erschwert es den Bürger:innen, die Assistenz nachzuvollziehen und die von Algorithmen vorgeschlagenen Entscheidungen zu akzeptieren. Als Antwort auf diese gesellschaftliche Herausforderung hat die Forschung begonnen, selbsterklärende Algorithmen zu entwickeln, die darauf abzielen, Erklärungen auf intelligente Weise bereitzustellen (XAI). Obwohl solche KI-Systeme, Menschen Erklärungen vermitteln können, ist ihre Interaktion stark eingeschränkt, da sie auf der (impliziten) Vorstellung aufbauen, Erklärungen würden ‚geliefert‘, d.h. Informationen nur bereitgestellt. Das Risiko eines solchen Paradigmas besteht darin, Erklärungen zu erzeugen, die nicht auf das Verständnis der Empfänger zugeschnitten sind—geschweige denn auf ihre Informationsbedürfnisse oder den gegebenen Kontext.Mit dem interdisziplinären Sonderforschungsbereich (TRR) stellen wir diese reduktionistische Sichtweise infrage und schlagen ein neues Paradigma der Ko-Konstruktion einer Erklärung vor, das zu neuartigen Formen der Interaktion mit Maschinen beitragen wird: Darin nimmt der Mensch aktiv an Erklärpraktiken teil, indem er das Ziel und den Prozess mitgestaltet. Unser Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen und erhöht so ihre Informationssouveränität. Da ein solcher innovativer Paradigmenwechsel einen interdisziplinären Ansatz erfordert, bringt unser vorgeschlagener TRR Linguist:innen, Psycholog:innen, Medienforscher:innen, Soziolog:innen, Ökonomen und Informatiker:innen zusammen, die davon überzeugt sind, dass die Erforschung der Mechanismen von Erklärbarkeit und Erklärungen das menschliche Verständnis in den Mittelpunkt stellen und dieses als Produkt einer kontextualisierten multimodalen Ko-Konstruktion betrachten muss.In unserem Ansatz werden wir den Erklärungsprozess als eine Interaktion modellieren, die sich im Verlauf der Zeit entfaltet und die Konstruktion des Erklärungsansatzes vorantreibt. Daher werden wir das Explanandum als dynamisches Produkt der Interaktion untersuchen. Dieser Ansatz wird die aktuelle Forschung (in der Informatik) erweitern und neue Antworten auf die oben genannte gesellschaftliche Herausforderung geben, indem er einen Beitrag leistet zur Entwicklung von: (i) einem multidisziplinären Verständnis vom Erklärungsprozess in enger Kopplung mit dem Prozess des Verstehens und den ihn modulierenden Kontextfaktoren, (ii) Computermodellen und komplexen KI-Systemen, die ihre Erklärung effizient für den Partner in einem aktuellen Kontext generieren, und (iii) einer Theorie der Erklärungen als soziale Praktiken, die die Erwartungen der Partner und ihre Rollen im kommunikativen Handeln berücksichtigt. Unsere Forschung wird die Grundlagen für erklärbare und verstehbaren KI-Systeme legen, die es den Bürger:innen eine aktive und kritische Teilnahme an einer digitalen Gesellschaft ermöglichen.
Untergeordnete Projekte
- TRR 318 Teilprojekt A01: Adaptive Erklärungsgenerierung
- TRR 318 Teilprojekt A02: Das Verständnis von Erklärungen überprüfen und beobachten
- TRR 318 Teilprojekt A03: Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärer und menschlichem Adressaten
- TRR 318 Teilprojekt A04: Integration des technischen Modells in das Partnermodell bei der Erklärung von digitalen Artefakten
- TRR 318 Teilprojekt A05: Kontextualisierte und online Parametrisierung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog
- TRR 318 Teilprojekt A06: Ko-Konstruktion sozialer Signale des Verstehens für Inklusives Monitoring
- TRR 318 Teilprojekt B01: Ein dialogbasierter Ansatz zur Erklärung von Modellen des maschinellen Lernen
- TRR 318 Teilprojekt B05: Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter
- TRR 318 Teilprojekt C01: Gesundes Misstrauen in Erklärungen
- TRR 318 Teilprojekt C03: Interpretierbares maschinelles Lernen: Veränderung erklären
- TRR 318 Teilprojekt C05: Erstellen von Erklärungen in der kollaborativen Mensch-Maschine-Wissensexploration
- TRR 318 Teilprojekt C06: Technisch ermöglichtes Erklären von Sprecher-Eigenschaften
- TRR 318 Teilprojekt INF: Bewertung der Erklärungsqualität
- TRR 318 Teilprojekt Z: Verwaltungsprojekt
- TRR 318 Teilprojekt Öffentlichkeitsarbeit: Fragen zu erklärbaren Technologien
In unserer digitalen Gesellschaft nehmen die algorithmischen Ansätze (wie das maschinelle Lernen) rasant an Komplexität zu. Diese erschwert es den Bürger:innen, die Assistenz nachzuvollziehen und die von Algorithmen vorgeschlagenen Entscheidungen zu akzeptieren. Als Antwort auf diese gesellschaftliche Herausforderung hat die Forschung begonnen, selbsterklärende Algorithmen zu entwickeln, die darauf abzielen, Erklärungen auf intelligente Weise bereitzustellen (XAI). Obwohl solche KI-Systeme, Menschen Erklärungen vermitteln können, ist ihre Interaktion stark eingeschränkt, da sie auf der (impliziten) Vorstellung aufbauen, Erklärungen würden ‚geliefert‘, d.h. Informationen nur bereitgestellt. Das Risiko eines solchen Paradigmas besteht darin, Erklärungen zu erzeugen, die nicht auf das Verständnis der Empfänger zugeschnitten sind—geschweige denn auf ihre Informationsbedürfnisse oder den gegebenen Kontext.Mit dem interdisziplinären Sonderforschungsbereich (TRR) stellen wir diese reduktionistische Sichtweise infrage und schlagen ein neues Paradigma der Ko-Konstruktion einer Erklärung vor, das zu neuartigen Formen der Interaktion mit Maschinen beitragen wird: Darin nimmt der Mensch aktiv an Erklärpraktiken teil, indem er das Ziel und den Prozess mitgestaltet. Unser Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen und erhöht so ihre Informationssouveränität. Da ein solcher innovativer Paradigmenwechsel einen interdisziplinären Ansatz erfordert, bringt unser vorgeschlagener TRR Linguist:innen, Psycholog:innen, Medienforscher:innen, Soziolog:innen, Ökonomen und Informatiker:innen zusammen, die davon überzeugt sind, dass die Erforschung der Mechanismen von Erklärbarkeit und Erklärungen das menschliche Verständnis in den Mittelpunkt stellen und dieses als Produkt einer kontextualisierten multimodalen Ko-Konstruktion betrachten muss.In unserem Ansatz werden wir den Erklärungsprozess als eine Interaktion modellieren, die sich im Verlauf der Zeit entfaltet und die Konstruktion des Erklärungsansatzes vorantreibt. Daher werden wir das Explanandum als dynamisches Produkt der Interaktion untersuchen. Dieser Ansatz wird die aktuelle Forschung (in der Informatik) erweitern und neue Antworten auf die oben genannte gesellschaftliche Herausforderung geben, indem er einen Beitrag leistet zur Entwicklung von: (i) einem multidisziplinären Verständnis vom Erklärungsprozess in enger Kopplung mit dem Prozess des Verstehens und den ihn modulierenden Kontextfaktoren, (ii) Computermodellen und komplexen KI-Systemen, die ihre Erklärung effizient für den Partner in einem aktuellen Kontext generieren, und (iii) einer Theorie der Erklärungen als soziale Praktiken, die die Erwartungen der Partner und ihre Rollen im kommunikativen Handeln berücksichtigt. Unsere Forschung wird die Grundlagen für erklärbare und verstehbaren KI-Systeme legen, die es den Bürger:innen eine aktive und kritische Teilnahme an einer digitalen Gesellschaft ermöglichen.
Untergeordnete Projekte
- TRR 318 Teilprojekt A01: Adaptive Erklärungsgenerierung
- TRR 318 Teilprojekt A02: Das Verständnis von Erklärungen überprüfen und beobachten
- TRR 318 Teilprojekt A03: Ko-Konstruktion von Erklärungen mit emotionaler Ausrichtung zwischen KI-Erklärer und menschlichem Adressaten
- TRR 318 Teilprojekt A04: Integration des technischen Modells in das Partnermodell bei der Erklärung von digitalen Artefakten
- TRR 318 Teilprojekt A05: Kontextualisierte und online Parametrisierung der Aufmerksamkeit im Mensch-Roboter-Erklärdialog
- TRR 318 Teilprojekt A06: Ko-Konstruktion sozialer Signale des Verstehens für Inklusives Monitoring
- TRR 318 Teilprojekt B01: Ein dialogbasierter Ansatz zur Erklärung von Modellen des maschinellen Lernen
- TRR 318 Teilprojekt B05: Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter
- TRR 318 Teilprojekt C01: Gesundes Misstrauen in Erklärungen
- TRR 318 Teilprojekt C03: Interpretierbares maschinelles Lernen: Veränderung erklären
- TRR 318 Teilprojekt C05: Erstellen von Erklärungen in der kollaborativen Mensch-Maschine-Wissensexploration
- TRR 318 Teilprojekt C06: Technisch ermöglichtes Erklären von Sprecher-Eigenschaften
- TRR 318 Teilprojekt INF: Bewertung der Erklärungsqualität
- TRR 318 Teilprojekt Z: Verwaltungsprojekt
- TRR 318 Teilprojekt Öffentlichkeitsarbeit: Fragen zu erklärbaren Technologien