- Erklärbarkeit von KI
- Qualitätskontrolle durch KI
Ansatz
Durch die enormen Fortschritte im Bereich KI in den letzten Jahren kommen zunehmend mehr dieser Technologien zum Einsatz- vor allem im Bereich des maschinellen Lernens dienen sie den Anwendern als Entscheidungsunterstützung. Zur Analyse der Daten ist hierbei eine nachgelagerte Überprüfung, Validierung und Interpretation der Ergebnisse seitens des Anwenders notwendig- aufgrund des Black-Box-Charakters fehlt es aktuell an Transparenz und Erklärbarkeit. Ein robustes System zur Erklärbarkeit sollte den Entscheidungsträger darin unterstützen, die getroffenen Entscheidungen zu verstehen und auf Änderungen aufmerksam machen, um in Zukunft auf Grundlage des eingesetzten ML-Models ein gewünschtes Ergebnis zu erzielen. Um diese Funktionen zu gewährleisten, soll im Projektvorhaben ein lokales post-hoc Erklärungssystem entwickelt werden, das sich durch eine semantische Integration zweier komplementärer Erklärungsansätze, lokal regelbasiert und simulationsbasiert kausal, auszeichnet. Im Rahmen des KOSMOX Vorhabens wird unter Einbezug der Erkenntnisse aus den Kognitions-, IS-, Organisationswissenschaften, HCI und der Verhaltensökonomie eine Erklärungsschnittstelle entwickelt, die eine interaktive Kommunikation zwischen dem End-User und den eingesetzten KI-Techniken bzw. deren Erklärungen ermöglicht. Dadurch sollen Experten bei der Suche nach relevanten Erklärungen bzw. dem Verständnis der MLErgebnisse für den Entscheidungsfindungsprozess unterstützt werden.
Technologische Zielsetzung
- KOSMOX zielt auf die Entwicklung eines lokalen kontrafaktischen post-hoc Erklärungskonzepts ab. Dies soll durch die Integration zweier komplementärer Erklärungsansätze, lokal regelbasiert und simulationsbasiert kausal, und den relevanten Techniken aus den Komplexen-Systemen erfolgen. Dabei werden insbesondere neue Ansätze zur Identifikation der Erklärungslokalität und zur Eliminierung der impliziten, methodenspezifischen kognitiven Verzerrungen entwickelt.
- Im Rahmen des KOSMOX Vorhabens wird anhand der Erkenntnisse aus den Kognitions-, Organisationswissenschaften, HCI und der Verhaltensökonomie eine Erklärungsschnittstelle entwickelt, die eine interaktive Kommunikation zwischen dem End-User und den eingesetzten KI-Techniken bzw. deren Erklärungen ermöglicht. Dadurch sollen Experten bei der Suche nach relevanten Erklärungen bzw. dem Verständnis der ML-Ergebnisse für den Entscheidungsfindungsprozess unterstützt werden.