Dokument: Interpretable Machine Learning in Financial Statement Fraud Detection: An Analysis of the Need for Explanations, their Potential, and their Limitations
Titel: | Interpretable Machine Learning in Financial Statement Fraud Detection: An Analysis of the Need for Explanations, their Potential, and their Limitations | |||||||
URL für Lesezeichen: | https://docserv.uni-duesseldorf.de/servlets/DocumentServlet?id=70527 | |||||||
URN (NBN): | urn:nbn:de:hbz:061-20250818-110155-5 | |||||||
Kollektion: | Dissertationen | |||||||
Sprache: | Englisch | |||||||
Dokumententyp: | Wissenschaftliche Abschlussarbeiten » Dissertation | |||||||
Medientyp: | Text | |||||||
Autor: | Lösse, Leonhard Joseph [Autor] | |||||||
Dateien: |
| |||||||
Beitragende: | Prof. Dr. Weißenberger, Barbara E. [Gutachter] Prof. Dr. Förster, Guido [Gutachter] | |||||||
Dewey Dezimal-Klassifikation: | 300 Sozialwissenschaften, Soziologie » 330 Wirtschaft | |||||||
Beschreibungen: | Financial statement fraud regularly causes severe damages and pose a major challenge for auditors, regulators, and investors. The application of machine learning approaches to detect such manipulations has gained increased importance since the early 2000s but continues to fall short of practical accuracy requirements. High misclassification costs still prevent widespread implementation. Against this backdrop, model interpretability has become increasingly relevant, as it can support both technical evaluation of model mechanisms and more targeted further investigations. This dissertation first examines the needs of potential main user groups regarding interpretable approaches. Building on this, models are trained using RUSBoost, while LIME and Shapley Values are applied to generate local explanations of classifications. The results reveal differences between methods and highlight weaknesses in terms of consistency and reliability. These findings point to potential biases and the limitations of current interpretability techniques. The main contribution lies in the comprehensive evaluation of local explanations across a large number of observations. For both research and practice, the study underscores the need for more robust interpretability methods and caution in relying on seemingly promising individual explanations.Bilanzmanipulationen verursachen regelmäßig hohe Schäden und stellen eine bedeutende Herausforderung für Abschlussprüfer, Aufsichtsbehörden und Investoren dar. Der Einsatz von Machine Learning zur Identifikation solcher Manipulationen hat seit der Jahrtausendwende an Bedeutung gewonnen, bleibt in der praktischen Genauigkeit jedoch hinter den Anforderungen zurück. Insbesondere hohe Kosten für Fehlklassifikationen verhindern bislang eine breite Implementierung. Vor diesem Hintergrund rückt die Interpretierbarkeit der Modelle zunehmend in den Fokus, da sie sowohl zur Evaluierung der Modellmechanismen als auch zur Unterstützung gezielter Prüfungen beitragen kann. Die Dissertation untersucht zunächst die Bedarfe der relevanten Nutzergruppen im Hinblick auf interpretierbare Ansätze. Darauf aufbauend werden mit RUSBoost trainierte Modelle und die Erklärungsverfahren LIME und Shapley Values eingesetzt, um lokale Erklärungen von Klassifikationen zu analysieren. Die Ergebnisse zeigen Unterschiede zwischen den Verfahren sowie Schwächen hinsichtlich der Konsistenz und Verlässlichkeit. Damit werden potenzielle Biases und die Grenzen aktueller Interpretierbarkeitsmethoden aufgezeigt. Der wesentliche Beitrag der Arbeit liegt in der umfassenden Analyse der Leistungsfähigkeit solcher lokalen Erklärungen über eine Vielzahl von Beobachtungen hinweg. Für Forschung und Praxis ergeben sich daraus sowohl ein Bedarf nach robusteren Interpretierbarkeitsansätzen als auch nach einer vorsichtigen Handhabung vielversprechend erscheinender Einzelfallergebnisse. | |||||||
Lizenz: | ![]() Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz | |||||||
Fachbereich / Einrichtung: | Wirtschaftswissenschaftliche Fakultät | |||||||
Dokument erstellt am: | 18.08.2025 | |||||||
Dateien geändert am: | 18.08.2025 | |||||||
Promotionsantrag am: | 01.04.2025 | |||||||
Datum der Promotion: | 09.07.2025 |