Insolvenzprognoseverfahren

Als Insolvenzprognoseverfahren werden in der Finanzanalyse und im Bankwesen Verfahren bezeichnet, welche das Insolvenzrisiko und damit die Wahrscheinlichkeiten bestimmen, mit denen Wirtschaftssubjekte innerhalb eines bestimmten Zeitraums (typischerweise ein Jahr) insolvent werden.

Allgemeines

Die folgenden Ausführungen beziehen sich auf Verfahren für die Prognose von Unternehmensinsolvenzen.[1] Als Wirtschaftssubjekte kommen Unternehmen, Privatpersonen, Staaten oder sonstige Institutionen in Frage.

Entwicklung der Unternehmensinsolvenzen in Deutschland

Während zu Beginn der 1990er Jahre in Deutschland noch rund 10.000 Unternehmensinsolvenzen pro Jahr zu verzeichnen waren, stieg deren Zahl bis 2003/2004 auf fast 40.000 an. Bei einem Unternehmensbestand von rund drei Millionen entsprach dies einer durchschnittlichen Insolvenzquote von 1,3 % pro Jahr. Je nach Unternehmenssegment waren deutlich höhere Werte zu verzeichnen. In den Folgejahren verringerte sich die Anzahl der Insolvenzen wieder etwas und betrug im Zeitraum 2007 bis 2011 jeweils rund 30.000. Die Höhe der neu entstandenen offenen Insolvenzforderungen betrug Anfang der 1990er Jahre noch rund 6 Milliarden EUR pro Jahr, in den 2000er Jahren hingegen meist zwischen 30 und 40 Milliarden EUR, in einzelnen Jahren (2002 und 2009) wurden sogar Werte von 62 bzw. 85 Milliarden EUR erreicht. Insolvenzforderungen sind erfahrungsgemäß zu 90 bis 95 % uneinbringbar.[2]

Motivation für die Entwicklung

Der Fähigkeit zur Erstellung trennscharfer Prognosen von Unternehmensinsolvenzen, aber auch der Fähigkeit zur Ermittlung von Handlungsempfehlungen zur Vermeidung von Insolvenzen kommt sowohl aus individueller als auch aus volkswirtschaftlicher Sicht eine große Bedeutung zu. Auf individueller Ebene sind neben Eigentümern, Mitarbeitern, Kunden, Lieferanten, Wirtschaftsprüfern und sonstigen Geschäftspartnern eines Unternehmens vor allem Banken an präzisen Insolvenzprognosen interessiert, da sie bei Unternehmensinsolvenzen regelmäßig erhebliche Schäden zu verzeichnen haben.[3][4] Allein die administrativen Aufwendungen (Konkursverwalter) und Kosten, die mit der Liquidation der Aktiva des insolventen Unternehmens verbunden sind, verzehren im Durchschnitt zwischen 15 % und 20 % der Bruttoliquidationserlöse.[5]

Aus Bankensicht sind Insolvenzprognosen eine wesentliche Voraussetzung dafür, um eine risikogerechte Preissetzung und Ausgestaltung nichtfinanzieller Kreditkonditionen (Limite, geforderte Sicherheiten) umsetzen zu können. Es sind Kreditprozesse kostengünstig zu gestalten (durch die Identifikation kritischer Fälle, die einer aufwendigeren Betreuung durch Kreditexperten bedürfen), die eigene Liquidität durch die Schaffung von Verbriefungsmöglichkeiten zu erhöhen und der ökonomische bzw. aufsichtsrechtliche Eigenkapitalbedarf zu ermitteln und zu steuern.[6] Aus volkswirtschaftlicher Sicht werden Insolvenzprognoseverfahren als eine wichtige Voraussetzung für die Stabilität des Bankensystems gesehen. Überhöhte Kreditrisiken waren die häufigste Ursache der über 100 Bankinsolvenzen seit den 1960er Jahren in (West-)Deutschland.[7] Auch entfallen über 90 % der aufsichtsrechtlichen Eigenkapitalanforderungen bei Banken auf die Absicherung von Kreditrisiken.[8] Ferner ist die Verfügbarkeit leistungsfähiger Insolvenzprognoseverfahren eine notwendige Voraussetzung, um Kreditnehmer zu einem anreizkompatiblen, risikobewussten Verhalten zu motivieren.[9] Ebenso kann durch leistungsfähigere Insolvenzprognosen Marktversagen, im Sinne eines vollständigen Rückzugs von Banken oder anderen Fremdkapitalgebern aus der Finanzierung von Unternehmen in überdurchschnittlich riskanten Segmenten vermieden werden.[10]

Klassifikation

Der aktuelle Stand der Wissenschaft in der Insolvenzprognoseforschung ist durch Methodenvielfalt geprägt. Ein Grund für diese Vielfalt dürfte im Fehlen eines derzeit allgemein akzeptierten, umfassenden theoretischen Fundaments zur Erklärung von Unternehmensinsolvenzen liegen.[11] Ursächlich für die Vielfalt an Insolvenzprognosetechniken dürfte auch sein, dass zahlreiche Verfahren, die sich häufig bereits in anderen Kontexten als der Insolvenzprognose bewährt haben, als ungeeignet oder unterlegen verworfen werden kann. Ferner können – je nach prinzipieller Verfügbarkeit bzw. den jeweils akzeptierten Kosten der Informationserhebung – eine Vielzahl unterschiedlicher Datenquellen und Datenarten für die Zwecke der Insolvenzprognose herangezogen werden, deren Aggregation zum Teil unterschiedliche Verfahren bedingen bzw. aus statistisch-technischen Gründen als zweckmäßig erscheinen lassen.[12] Einen Überblick über die Vielzahl der in Wissenschaft und Praxis verwendeten Insolvenzprognoseverfahren zeigt die folgende Abbildung.[13]

Übersicht Insolvenzprognoseverfahren

Insolvenzprognoseverfahren lassen sich in formelle und informelle Insolvenzprognoseverfahren untergliedern. Bei den informellen Verfahren treffen menschliche Kreditentscheider Insolvenzprognosen auf der Basis ihrer Intuition und persönlichen Erfahrung. Formelle Verfahren basieren hingegen auf explizit festgeschriebenen Verfahrensregeln. Bei den formellen Verfahren werden induktive, (parametrische und nichtparametrische) empirisch-statistische sowie strukturelle Verfahren unterschieden. Zu den induktiven Verfahren gehören beispielsweise Scoringmodelle und Expertensysteme. Bei den parametrischen empirisch-statistischen Verfahren sind die Multivariate Lineare Diskriminanzanalyse und die Logistische Regressionsanalyse von Bedeutung. Bei den nichtparametrischen empirisch-statistischen Insolvenzprognoseverfahren sind die Entscheidungsbaumverfahren und Künstliche neuronale Netze zu nennen. Zu den strukturellen Insolvenzprognosemodellen gehören anleihespreadbasierte und Optionspreismodelle sowie deterministische und stochastische Simulationsverfahren.

Das erste formelle, multivariate Insolvenzprognoseverfahren für Unternehmen war das Z-Faktormodell (Altman’s Z-Score) von Altman (1968), ein Diskriminanzanalysemodell.

Datenquellen

Übersicht

Zahlreiche Datenquellen können für die Prognose von Unternehmensinsolvenzen herangezogen werden. Je nach der Objektivität ihrer Erhebung („harte“ vs. „weiche“ Daten) und je nachdem, ob die entsprechenden Daten originär metrisch skaliert sind oder nicht („quantitative“ vs. „qualitative“ Daten), lassen sich insgesamt vier Gruppen von Inputvariablen für Insolvenzprognoseverfahren unterscheiden, siehe die folgende Abbildung.[14]

Datenquellen Insolvenzprognoseverfahren

Harte quantitative Daten

Harte quantitative Daten sind Daten, die originär metrisch skaliert sind und methoden- und personenunabhängig erhoben werden können. Von besonderer Relevanz im Kontext der Unternehmensinsolvenzprognose sind dabei Jahresabschlussdaten, Informationen zum Kontoführungsverhalten[15] sowie Finanzmarktdaten (Niveau und Volatilität der Marktkapitalisierung des Unternehmens, Höhe der Risikoprämie auf börsennotierte Fremdverbindlichkeiten des Unternehmens). Vorteile von Kontoführungs- und Marktdaten gegenüber Buchhaltungsdaten bestehen in der wesentlich größeren Aktualität. Sie können täglich aktualisiert werden und ihre Erhebung verursacht praktisch keine (zusätzlichen) Kosten. Auch können sie von den Unternehmen kaum manipuliert werden. Ein wichtiger Vorteil von Marktdaten gegenüber Kontoführungs- und Buchhaltungsdaten wird in deren „Vorwärtsgerichtetheit“ gesehen. Dabei wird unterstellt, dass Marktdaten – via den rationalen Erwartungen der Marktteilnehmer – von der künftigen Entwicklungen der Unternehmen beeinflusst werden und nicht von deren Vergangenheit – wie im Fall von Kontoführungs- und Buchhaltungsdaten.[16] Allerdings verfügen nur die wenigsten Unternehmen über börsennotierte Eigen- oder Fremdmittel. Angaben zum Kontoführungsverhalten stehen den jeweiligen kreditgebenden Banken exklusiv zur Verfügung – und auch diesen erst nachdem sie Kredite an die entsprechenden Unternehmen vergeben haben. Am besten ist die Datenlage bei Jahresabschlussdaten, welche Angaben zu den Bilanzen, den Gewinn- und Verlustrechnungen und den Anlagespiegeln umfassen. Jahresabschlussdaten zeichnen sich durch einen relativ geringen Erfassungsaufwand aus. Ihre Erhebung erfordert keine besonderen Kenntnisse. Ihre Erhebung unterliegt keinen subjektiven Einflüssen und bietet keine Möglichkeiten zur gezielten Manipulation, die sich nicht leicht durch nachträgliche Kontrollen zweifelsfrei feststellen ließen.[17] Eingabefehler lassen sich aufgrund der Redundanten Datenstruktur leicht erkennen und beheben. Auch lassen sich durch systematische Auswertungen der Jahresabschlussunterlagen, „wobei neben Bilanz und GuV insbesondere die zusätzlichen Erläuterungen im Anhang und Lagebericht heranzuziehen sind“[18], viele der Möglichkeiten aufdecken – und ggf. später neutralisieren, mit denen die Ertrags- und Vermögenslage des Unternehmens gezielt verzerrt werden soll.

Harte qualitative Daten

Harte qualitative Daten sind nominal oder ordinal skalierte Daten, die personen- und methodenunabhängig messbar sind und damit objektiv erhoben werden können. Im Rahmen empirisch-statistischer Verfahren werden dabei Faktoren aufgedeckt, die einen empirischen Zusammenhang mit der Ausfallwahrscheinlichkeit der Unternehmen aufweisen („statistische Sippenhaft“[19]). Von besonderer Bedeutung sind in diesem Kontext die Rechtsform und die Branchenzugehörigkeit – denn die verschiedenen Branchen-Rechtsform-Gruppen sind durch erhebliche und langanhaltende Unterschiede bezüglich ihrer Insolvenzquoten gekennzeichnet. So zeigt sich beispielsweise, dass Kapitalgesellschaften des Baugewerbes in Deutschland über lange Zeiträume hinweg etwa fünfzehnmal so große Insolvenzquoten zu verzeichnen hatten wie Einzelunternehmen des Dienstleistungsgewerbes.[20]

Weiche quantitative Daten

Weiche quantitative Daten sind metrisch skalierte Daten, deren Erhebung persönlichen, subjektiven Beurteilungen (seitens der Befragten oder der Befrager) unterliegt. Typische weiche quantitative Informationen im Kontext der Insolvenzprognose sind Branchenwachstumsprognosen, quantitative Angaben zu betrieblichen Risiken oder individuelle Angaben der Unternehmen, welche die für künftige Perioden geplanten Umsätze, Kosten oder Gewinne betreffen. Eigene Untersuchungen mit mittelständischen Unternehmen zeigten jedoch, dass die Mehrzahl der Unternehmen keine (konsistenten) Mehrjahresfinanzpläne erstellt. Die von den Unternehmen gemachten Planangaben sind im Durchschnitt erheblich positiv verzerrt. Sie können vermutlich nur im Sinne von "angestrebten Zielgrößen" interpretiert werden, stellen aber keine Erwartungswerte im statistischen Sinne dar. Häufig werden runde Werte genannt. Die Eintrittswahrscheinlichkeiten von bestandsgefährdenden Verlusten werden völlig unterschätzt. Besonders problematisch ist, dass die Planangaben je nach Art der Befragung erhebliche Widersprüche aufweisen. Nachteilig ist ferner, dass die Erhebung detaillierter Planungsdaten zeitaufwendig und teuer ist, da hierbei eine Vielzahl an Daten in einer für die Unternehmen ungewohnten und erklärungsbedürftigen Form im Rahmen von Vor-Ort-Gesprächen erhoben werden müssen.

Auch ist nicht zu erwarten, dass die Unternehmen ihre Plan- und Risikoinformationen gegenüber Dritten, insbesondere gegenüber Banken oder Auskunfteien, wahrheitsgemäß und umfassend offenlegen, wenn sie damit rechnen müssen, dass dies negative wirtschaftliche Konsequenzen für sie haben kann. Einer nachträglichen Sanktionierung „falscher“ Plan- und Risikoannahmen sind enge Grenzen gesetzt. Für die Verfehlung geplanter Umsatz- oder Ertragsziele lassen sich im Nachhinein immer plausible Gründe vorbringen, die nicht im Einflussbereich des Unternehmens liegen. Stochastische Planannahmen lassen sich, außer in trivialen Fällen, ex-post nie mit Sicherheit als wahr oder falsch klassifizieren. Auch würde die Sanktionierung von Planverfehlungen (zusätzliche) Anreize zu ökonomisch nutzlosen bis schädlichen Verhaltensweisen setzen, beispielsweise durch die Verschiebung von Umsätzen und/oder Kosten und Erträgen in benachbarte Perioden.

Weiche qualitative Daten

Weiche qualitative Daten sind Daten, die nicht originär metrisch skaliert sind und deren Erhebung subjektiven, wertenden Einflüssen unterliegt. Hierunter fallen beispielsweise Fragen zu den betrieblichen Erfolgspotentialen, wie der „Qualität des Rechnungswesens“, der „fachlichen Eignung des Managements“ oder der „Lieferantenabhängigkeit“.[21] Der Nutzen weicher qualitativer Daten im Kontext der Unternehmensinsolvenzprognose wird vor allem darin gesehen, dass sie es erlauben sollen, negative Unternehmensentwicklungen frühzeitig zu identifizieren, also noch bevor sie sich in „schlechten“ Jahresabschlüssen manifestieren.[22]

Weiche qualitative Faktoren können jedoch nur mit einer sehr geringen Reliabilität erhoben werden, was nur einen geringen (zusätzlichen) Prognosenutzen dieser Daten vermuten lässt.

Fazit zu Datenquellen

Die Ratingverfahren von Banken basieren typischerweise zu erheblichen Teilen auf der Auswertung harter quantitativer Informationen und dabei insbesondere auf der statistischen Analyse von aus Jahresabschlüssen abgeleiteten Kennzahlen.[23] Viele in wissenschaftlichen Studien vorgestellte Insolvenzprognosemodelle sowie die Prognosemodelle kommerzieller Anbieter, die zur kostengünstigen Bonitätsbeurteilung von mittelständischen Unternehmen entwickelt wurden, beschränken sich von vornherein ausschließlich auf die Analyse derartiger Finanzkennzahlen.[24] In einigen Ratingmodellen werden zusätzlich auch harte qualitative Variablen wie Branche, Rechtsform oder regionale Herkunft, berücksichtigt.

Auch wenn sie theoretisch viele Vorteile bieten, ist der praktische Nutzen ("zukunftsbezogener") weicher quantitativer und weicher qualitativer Daten für die Prognose von Insolvenzen gering. Ihre Erhebung verursacht vergleichsweise hohe Kosten und unterliegt Anreizproblemen seitens der Befragten.

Auch wenn die Ratingagenturen in Abrede stellen, dass die von ihnen vergebenen Urteile im Wesentlichen auf Kennzahlenanalysen beruhen[25], wurde in empirischen Studien zumindest gezeigt, dass sich die Ratingurteile renommierter Agenturen anhand von (wenigen) Finanzkennzahlen relativ gut reproduzieren bzw. prognostizieren lassen.[26] Interessant ist dabei auch, dass der erhebliche personelle Aufwand, den die kommerziellen Ratingagenturen bei der Erstellung ihrer Ratingurteile leisten[27] (und die erheblichen Gebühren, die sie hierfür in Rechnung stellen[28]) sich nicht adäquat in der Schätzgüte ihrer Prognosen niederschlägt. So lassen sich mit einfachen Kennzahlenmodellen – bei Anwendung auf identische Datensätze von Unternehmen – Insolvenzprognosen mit einer Qualität erstellen, die der Prognosequalität der Ratingurteile renommierter Agenturen entspricht oder diese sogar übertrifft.[29]

Klassifikation von Schätzgütemaßen

Unter der Schätzgüte eines Insolvenzprognoseverfahrens soll im Folgenden der Grad der Übereinstimmung der Insolvenzprognosen mit den tatsächlich eingetretenen Insolvenzereignissen verstanden werden. Mathematisch fassbare Präzisierungen des Begriffs müssen dabei berücksichtigen, ob die zu beurteilenden Insolvenzprognosen kategorialer (=nominaler), ordinaler oder kardinaler (=metrischer bzw. quantitativer) Art sind.

  • Als kategoriale Insolvenzprognosen werden Insolvenzprognosen bezeichnet, die lediglich zwei mögliche Ausprägungen zur Beurteilung der gerateten Unternehmen kennen: „Unternehmen A wird voraussichtlich (innerhalb eines zu spezifizierenden Zeitraums) ausfallen“ vs. „Unternehmen B wird voraussichtlich (innerhalb eines zu spezifizierenden Zeitraums) nicht ausfallen“.
  • Im Fall ordinaler Insolvenzprognosen werden Urteile über die relativen Ausfallwahrscheinlichkeiten der bewerteten Unternehmen abgegeben: „Unternehmen B fällt mit größerer Wahrscheinlichkeit (innerhalb eines zu spezifizierenden Zeitraums) aus als Unternehmen A, allerdings mit geringerer Wahrscheinlichkeit als Unternehmen C“. Zwar könnten ordinale Insolvenzprognosen theoretisch beliebig differenziert sein, in der Praxis haben sich aber ordinale Ratingsysteme durchgesetzt, die ihre Ergebnisse auf diskreten, 7- oder 17-stufigen Skalen in einer von Standard & Poor’s übernommenen Notation kommunizieren.[30]
  • Kardinale Insolvenzprognosen ordnen jedem Unternehmen eine Wahrscheinlichkeit zu, mit der das Unternehmen (innerhalb eines zu spezifizierenden Zeitraums) ausfällt.

Die einzelnen Verfahren sind abwärtskompatibel. Durch beliebige, schwach monotone Transformationen können aus Ausfallwahrscheinlichkeiten ordinal interpretierbare Scorewerte generiert werden, die sich bei Bedarf auch zu einer endlichen Anzahl von Klassen zusammenfassen lassen. Ebenso lassen sich durch Zusammenfassen von Scoreintervallen oder benachbarter Ratingklassen, solange bis nur noch zwei Klassen verbleiben, ordinale Insolvenzprognosen in kategoriale Insolvenzprognosen überführen. Die Art, in der Insolvenzprognosen vorliegen, ist unter anderem verfahrensbedingt. So generieren beispielsweise Diskriminanzanalysen oder Neuronale Netze standardmäßig nur kategoriale Insolvenzprognosen. Ihr Output wird in der Praxis jedoch auch ordinal interpretiert[31] und kann durch Kalibrierung auf Ausfalldaten auch einen kardinalen Informationsgehalt erhalten.[32]

Ordinale Insolvenzprognosen ergeben sich beispielsweise aus der Anwendung subjektiv parametrisierter Scoring- oder Kennzahlenmodelle, während mit Logit-Modellen kardinale Insolvenzprognosen erstellt werden. Die Art, in der Insolvenzprognosen vorliegen müssen, ergibt sich aus der beabsichtigten Nutzung der Prognosen: hat der Anwender lediglich zwei Handlungsoptionen – z. B. Annahme oder Ablehnung eines Kunden, positive oder negative Feststellung der „Notenbankfähigkeit“ von Forderungen[33] – so genügen im Prinzip kategoriale Insolvenzprognosen. Der optimalen Ausgestaltung kategorialer Prognosen liegt ein Zielkonflikt zwischen (Prognose-)Fehlern I. und Fehlern II. Art zugrunde (siehe Schätzgütemaße für kategoriale Insolvenzprognosen). Dieser wiederum ist abhängig von subjektiv beeinflussbaren Nebenbedingungen, beispielsweise der konkreten Ausgestaltung von Kreditkonditionen (Zinssätze, Sicherheiten, Bürgschaften, …) und von subjektiv nicht beeinflussbaren, aber im Zeitverlauf veränderlichen Größen, beispielsweise von der durchschnittlichen Ausfallquote der betrachteten Grundgesamtheit.[34]

An dieser Stelle setzen ordinale Gütemaße zur Beurteilung von Insolvenzprognosen an. Sie bewerten die Klassifikationsleistung von Insolvenzprognoseverfahren anhand der Gesamtheit aller möglichen mit dem Prognoseverfahren erzeugbaren Fehler-I-II-Kombinationen. Sie ermöglichen damit eine differenziertere Beurteilung von Kunden, beispielsweise als Grundlage für die Entscheidung über die Art und Höhe von jeweils einzufordernden Sicherheiten oder den festzulegenden Überwachungsaufwand. Beispiele für ordinale Schätzgütemaße sind die Accuracy Ratio (auch Gini-Index, Lorenz-Münzer-Konzentrationsmaß oder Power-Statistic).

Als Grundlage für quantitative Entscheidungen, beispielsweise für die Preisfindung von Krediten[35], Anleihen oder Derivaten oder für die Ermittlung des ökonomischen oder aufsichtsrechtlichen Risikokapitals werden hingegen kardinale Insolvenzprognosen, d. h. Ausfallwahrscheinlichkeiten, benötigt. So müssen gemäß den ab Anfang 2008 geltenden Neuen Eigenkapitalanforderungen des Basler Ausschusses für Bankenaufsicht bankinterne Ratingsysteme auf kardinalen Insolvenzprognosen (Ausfallwahrscheinlichkeiten) basieren.[36] Schätzgütemaße für kardinale Insolvenzprognosen sind beispielsweise der Brier-Score, die bedingte Informationsentropie, der Rommelfanger-Index oder der Gruppierte Brier-Score.[37]

Ein wesentlicher Nachteil kardinaler Schätzgütemaße ist deren Abhängigkeit von den erwarteten bzw. realisierten Portfolioausfallraten.[38] Sie eignen sich damit nicht für portfolioübergreifende Vergleiche – und schon bei moderat korrelierten Ausfallwahrscheinlichkeiten ist eine aussagekräftige Validierung kardinaler Insolvenzprognosen, selbst bei beliebig großen Portfolios, nicht mehr möglich.[39][40]

Insgesamt ist eine gute Trennfähigkeit von Insolvenzprognosen, wie sie durch ordinale Gütemaße gemessen werden, auch für die Qualität kardinaler Insolvenzprognosen wichtig – und sogar wichtiger als eine korrekte Kalibrierung.[41] Bei der Beurteilung der Qualität von Insolvenzprognosen wird deshalb im Folgenden schwerpunktmäßig Bezug auf ordinale Schätzgütemaße für Prognosen genommen.[42]

Literatur

Einzelnachweise

  1. Dieser Artikel basiert wesentlich auf: Martin Bemmann, Verbesserung der Vergleichbarkeit von Schätzgüteergebnissen von Insolvenzprognosestudien, in: Dresden Discussion Paper Series in Economics. 08/2005; Martin Bemmann, Entwicklung und Validierung eines stochastischen Simulationsmodells für die Prognose von Unternehmensinsolvenzen, Dissertation, Technische Universität Dresden, TUDpress Verlag der Wissenschaften, Dresden, 2007
  2. Zur Entwicklung der Insolvenzanzahl und -quoten sowie zum Bestand und zur Einbringbarkeit von Insolvenzforderungen siehe Statistisches Bundesamt (2004, S. 31 und S. 44), zu aktuellen Daten zum Insolvenzgeschehen siehe https://www.destatis.de/DE/ZahlenFakten/Indikatoren/LangeReihen/Insolvenzen/lrins01.html und https://www.destatis.de/DE/ZahlenFakten/Indikatoren/Konjunkturindikatoren/Insolvenzen/ins110.html (20. September 2012)
  3. Siehe Dimitras, Zanakis, Zoponidis (1996, S. 488) und Balcaen, Ooghe (2004, S. 4) oder Hartmann-Wendels et al. (2005, S. 4f.) für eine Analyse der Interessenten an Insolvenzprognoseverfahren für Unternehmen.
  4. siehe Franks, Servigny, Davydenko (2004, S. 4), Basler Ausschuss (2000b, S. 27f.), Basler Ausschuss (2000b, S. 7f.), Moody’s (2004, S. 13) und Gupton, Stein (2005).
  5. siehe Franks, Servigny, Davydenko, 2004, S. 13
  6. siehe English, Nelson (1998, S. 11f.), Treacy, Carey (2000, S. 897), Basler Ausschuss (2000a, S. 33), Escott, Glormann, Kocagil (2001a, S. 3) und Scheule (2003, S. 96ff.)
  7. siehe Fischer (2004, S. 13 und die dort zitierte Literatur)
  8. siehe Deutsche Bundesbank (2005, S. 44)
  9. siehe Basler Ausschuss (2004, §4), OeNB (2004b, S. 33)
  10. Siehe KfW (2005, S. 6): „Dies deutet auf die mittlerweile flächendeckende Verbreitung bankinterner Ratingtools hin, die nun auch bei kleinen Unternehmen Anwendung finden. […] Früher führten die für alle Kunden eines Kreditinstitutes weitgehend einheitlichen Zinssätze dazu, dass vor allem kleinere Unternehmen Schwierigkeiten hatten, überhaupt Kredite zu erhalten. Heute nutzen Banken und Sparkassen Ratingtools dazu, Kreditkonditionen zunehmend risikoorientiert zu gestalten. Damit wird insbesondere für kleine Unternehmen der Zugang zu Bankkrediten erleichtert.“
  11. siehe Basler Ausschuss (2000b, S. 109ff.), Altman, Saunders (1998, S. 1724), Keasey, Watson (1991, S. 90) oder Günther, Hübl, Niepel (2000, S. 347).
  12. siehe Frydman, Altman, Kao (1985, S. 270)
  13. siehe Bemmann (2007, S. 6)
  14. Die im Folgenden verwendete Terminologie wurde von Fischer (2004, S. 83) übernommen, der harte vs. weiche und quantitative vs. qualitative Daten abgrenzt. In der Insolvenzprognoseliteratur werden diese Begriffe meist synonym und deshalb häufig inkonsistent verwendet. Beispielsweise führt OeNB (2004a, S. 65) aus: „Qualitative Fragen unterliegen stets einem subjektiven Beurteilungsspielraum“, bezeichnet aber auch das zweifellos objektiv feststellbare „Heimatland des Schuldners“ als „qualitatives Ratingkriterium“, siehe OeNB (2004a, S. 66).
  15. Für Kennzahlen zur Quantifizierung des Kontoführungsverhaltens siehe Fritz, Hosemann (2000, S. 13ff.).
  16. Siehe bspw. McQuown (1993, S. 1f.). Gerade der Vorteil der „Vorwärtsgerichtetheit“ von Marktpreisen im Vergleich zu (historischen) Buchhaltungsdaten wird aber in einer Studie von Chan, Karceski, Lakonishok (2003, S. 671) in Frage gestellt. So lassen sich die teils erheblichen Unterschiede bezüglich der beobachtbaren Kurs-Gewinn-Quoten (KGV) von Aktiengesellschaften gut durch die historische Gewinnentwicklung der Unternehmen erklären – ein Prognosenutzen sei hingegen kaum nachweisbar.
  17. siehe Fischer (2004, S. 91)
  18. Siehe Deutsche Bundesbank (1999, S. 54), Eigermann (2001, S. 523) und Küting, Weber (2004, S. 423ff). Die Zielsetzung der vorgenannten Autoren besteht jedoch nicht in einer Korrektur der Jahresabschlussdaten, sondern in der Bewertung des „Bilanzierungsverhaltens“ des Unternehmens, das dann als eigenständiger Input im Rahmen des verwendeten Insolvenzprognoseverfahrens herangezogen wird.
  19. siehe ULD (2006, S. 50)
  20. Siehe Bemmann (2005, S. 57). Die durchschnittlichen jährlichen Insolvenzquoten der beiden genannten Unternehmensgruppen betragen im Zeitraum 1999–2003 3,6 % und 0,23 %.
  21. Siehe Blum, Gleißner, Leibbrand (2005b). Siehe Fischer (2004, S. 97) für eine Auswahl von 150 Beispielen aus 18 Gruppen von weichen qualitativen Faktoren.
  22. siehe Fischer (2004, S. 89)
  23. siehe Basler Ausschuss (2000a, S. 17ff.) und Romeike, Wehrspohn (2004, S. 9)
  24. siehe Bemmann (2005, S. 51ff.)
  25. S&P (2003, S. 53). “Ratios are helpful in broadly defining a company’s position relative to rating categories. They are not intended to be hurdles or prerequisites that should be achieved to attain a specific debt rating. […].” und S&P (2003, S. 17) “There are no formulae for combining scores to arrive at a rating conclusion. Bear in mind that ratings represent an art as much as a science.”
  26. siehe Blume, Lim, Mackinlay (1998) und Amato, Furfine (2004)
  27. Siehe die über 100 Seiten umfassende Beschreibung der Elemente von Ratingprozessen bei Standard and Poors’s in S&P (2003).
  28. Nach White (2001, S. 14) betragen die vom zu bewertenden Unternehmen zu tragenden „Listenpreise“ für die Erstellung eines Ratings durch Moody’s oder S&P 3,25 Basispunkte bei Anleihebeträgen von bis zu 500 Millionen US$ - bei einer Mindestgebühr von 25.000 US$ und einem Höchstbetrag von 125.000 US$ (S&P) bzw. 130.000 US$ (Moody’s). Für über 500 Mio. US$ hinausgehende Anleihebeträge berechnen beide Agenturen 2 Basispunkte. S&P kappt den Gesamtbetrag bei 200.000 US$, verlangt aber eine zusätzliche Gebühr von 25.000 US$ bei der erstmaligen Erstellung eines Ratings.
  29. siehe Carey, Hrycay (2001), Altman, Rijken (2004) und Fons, Viswanathan (2004)
  30. siehe Bemmann (2005, S. 6f.)
  31. siehe Altman, Saunders (1998, S. 1737)
  32. Die Kalibrierung eines Ratingsystems auf Basis empirischer Ausfalldaten wird beispielsweise in Sobehart et al. (2000, S. 23f.) und Stein (2002, S. 8ff.) beschrieben.
  33. siehe Deutsche Bundesbank (1999)
  34. siehe Bemmann (2005, S. 9ff. und die dort zitierte Literatur)
  35. “There are no bad loans, only bad prices.”, siehe Falkenstein, Boral, Kocagil (2000, S. 5).
  36. siehe Basler Ausschuss (2004, insb. Tz. 461f.)
  37. siehe hierzu ausführlich Bemmann (2005, S. 32ff.)
  38. siehe Bemmann (2005, S. 32ff.)
  39. siehe Huschens, Höse (2003, S. 152f.) und Basler Ausschuss (2005, S. 31f.)
  40. Die tatsächliche Relevanz dieses theoretischen Einwands ist noch umstritten. Es existieren empirische Hinweise darauf, dass die entsprechenden im Rahmen von Basel II unterstellten segmentspezifischen Korrelationsparameter um den Faktor 15 bis 120 (im Durchschnitt rund 50) zu hoch angesetzt werden, siehe hierzu Scheule (2003).
  41. Blochwitz, Liebig, Nyberg (2000, S. 3): “It is usually much easier to recalibrate a more powerful model than to add statistical power to a calibrated model. For this reason, tests of power are more important in evaluating credit models than tests of calibration. This does not imply that calibration is not important, only that it is easier to carry out.”, analog Stein (2002, S. 9)
  42. Für weitere Erläuterungen und Argumente für die Verwendung ordinaler Kenngrößen für die Gütebestimmung von Insolvenzprognosen siehe Bemmann (2005, S. 12ff.).