Dokument: Interpretable Machine Learning in Financial Statement Fraud Detection: An Analysis of the Need for Explanations, their Potential, and their Limitations

Titel:Interpretable Machine Learning in Financial Statement Fraud Detection: An Analysis of the Need for Explanations, their Potential, and their Limitations
URL für Lesezeichen:https://docserv.uni-duesseldorf.de/servlets/DocumentServlet?id=70527
URN (NBN):urn:nbn:de:hbz:061-20250818-110155-5
Kollektion:Dissertationen
Sprache:Englisch
Dokumententyp:Wissenschaftliche Abschlussarbeiten » Dissertation
Medientyp:Text
Autor: Lösse, Leonhard Joseph [Autor]
Dateien:
[Dateien anzeigen]Adobe PDF
[Details]3,48 MB in einer Datei
[ZIP-Datei erzeugen]
Dateien vom 16.08.2025 / geändert 16.08.2025
Beitragende:Prof. Dr. Weißenberger, Barbara E. [Gutachter]
Prof. Dr. Förster, Guido [Gutachter]
Dewey Dezimal-Klassifikation:300 Sozialwissenschaften, Soziologie » 330 Wirtschaft
Beschreibungen:Financial statement fraud regularly causes severe damages and pose a major challenge for auditors, regulators, and investors. The application of machine learning approaches to detect such manipulations has gained increased importance since the early 2000s but continues to fall short of practical accuracy requirements. High misclassification costs still prevent widespread implementation. Against this backdrop, model interpretability has become increasingly relevant, as it can support both technical evaluation of model mechanisms and more targeted further investigations. This dissertation first examines the needs of potential main user groups regarding interpretable approaches. Building on this, models are trained using RUSBoost, while LIME and Shapley Values are applied to generate local explanations of classifications. The results reveal differences between methods and highlight weaknesses in terms of consistency and reliability. These findings point to potential biases and the limitations of current interpretability techniques. The main contribution lies in the comprehensive evaluation of local explanations across a large number of observations. For both research and practice, the study underscores the need for more robust interpretability methods and caution in relying on seemingly promising individual explanations.

Bilanzmanipulationen verursachen regelmäßig hohe Schäden und stellen eine bedeutende Herausforderung für Abschlussprüfer, Aufsichtsbehörden und Investoren dar. Der Einsatz von Machine Learning zur Identifikation solcher Manipulationen hat seit der Jahrtausendwende an Bedeutung gewonnen, bleibt in der praktischen Genauigkeit jedoch hinter den Anforderungen zurück. Insbesondere hohe Kosten für Fehlklassifikationen verhindern bislang eine breite Implementierung. Vor diesem Hintergrund rückt die Interpretierbarkeit der Modelle zunehmend in den Fokus, da sie sowohl zur Evaluierung der Modellmechanismen als auch zur Unterstützung gezielter Prüfungen beitragen kann. Die Dissertation untersucht zunächst die Bedarfe der relevanten Nutzergruppen im Hinblick auf interpretierbare Ansätze. Darauf aufbauend werden mit RUSBoost trainierte Modelle und die Erklärungsverfahren LIME und Shapley Values eingesetzt, um lokale Erklärungen von Klassifikationen zu analysieren. Die Ergebnisse zeigen Unterschiede zwischen den Verfahren sowie Schwächen hinsichtlich der Konsistenz und Verlässlichkeit. Damit werden potenzielle Biases und die Grenzen aktueller Interpretierbarkeitsmethoden aufgezeigt. Der wesentliche Beitrag der Arbeit liegt in der umfassenden Analyse der Leistungsfähigkeit solcher lokalen Erklärungen über eine Vielzahl von Beobachtungen hinweg. Für Forschung und Praxis ergeben sich daraus sowohl ein Bedarf nach robusteren Interpretierbarkeitsansätzen als auch nach einer vorsichtigen Handhabung vielversprechend erscheinender Einzelfallergebnisse.
Lizenz:Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz
Fachbereich / Einrichtung:Wirtschaftswissenschaftliche Fakultät
Dokument erstellt am:18.08.2025
Dateien geändert am:18.08.2025
Promotionsantrag am:01.04.2025
Datum der Promotion:09.07.2025
english
Benutzer
Status: Gast
Aktionen