Änderung des "Mittelwertansatzes" möglich?

  • Änderung des "Mittelwertansatzes" möglich?

    Hallo zusammen,

    erst einmal möchte ich mich für die Veröffentlichung des Bewertungssystems und der Unterhaltung dieses Forums bedanken!

    Ich habe vor einigen Tagen damit begonnen das Hamsterrad-System bzw. die zugrunde liegenden Berechnungen zu analysieren und nachzubauen (ich bin der Meinung nur so versteht man wirklich was die Ergebnisse aussagen und ob man sich der Interpretation von Hamsterrad anschließen möchte oder ob mir selbst noch ergänzende Informationen "fehlen") und dabei sind mir einige Fragen gekommen. Konkret geht es hierbei um alle Kennzahlen, die als "Abweichung vom Mittelwert" berechnet werden (z.B. Ergebnisabweichung vom Mittel).

    Wenn ich das richtig interpretiere, soll damit Wachstum gemessen werden (je stärker das Wachstum, desto höher die Abweichung vom Mittelwert).
    Die Kennzahlen "Ergebnis/Buchwert+360d nach Einbruch vom Mittel" ist ähnlich (belohnt teilweise aber auch noch Robustheit) ausgerichtet und soll Unternehmen belohnen, deren Kennzahlen stark gewachsen sind und bei denen kleinere Rücksetzer daher tendenziell oberhalb des deutlich darunter liegenden Mittelwerts enden.

    Ich bin mir jetzt nur nicht sicher was ich von dieser Systematik halten soll, da der Mittelwert, bedingt durch seine Berechnung, durch (stärkere) Schwankungen nach oben oder unten verzerrt wird (Zykliker lassen grüßen).
    So wird Unternehmen A, das von 2006-heute z.B. um jährlich 5% (geometrische Rendite) konstant ohne Einbrüche gewachsen ist, gegenüber Unternehmen B, das im gleichen Zeitraum ein gleich hohes, allerdings durch zwei starke Einbrüche (z.B. je -50%) unterbrochenes, Wachstum aufweist, benachteiligt, da der Mittelwert bei Unternehmen A höher liegen wird als bei Unternehmen B. Dieser Effekt wird umso stärker, je häufiger und stärker die Ausreißer sind.

    Grundsätzlich wird Unternehmen B dann zwar wieder durch die Kennzahl "Größter Einbruch" bestraft, allerdings gefällt mir die obige Problematik des Mittelwertansatzes nicht sonderlich (wenngleich trotzdem fraglich ist ob es hierdurch überhaupt signifikante Bewertungsunterschiede geben würde und ob man nicht stattdessen einfach den "Robustheitsfaktor" als Ausgleich höher gewichten könnte).

    Mein Versuch war die "Mittelwert-Systematik" durch die Verwendung des geometrischen Wachstums, die ja - wenn mich nicht alles täuscht - auch von Bereinigung verwendet wird, zu ersetzen. Persönlich finde ich diese Daten auch eingängiger (wenn ich +7% Wachstum lese, weiß ich was gemeint ist - wenn ich eine Abweichung von z.B. +45% vom Mittelwert angezeigt bekomme, sagt mir das erst einmal gar nichts, außer dass die untersuchte Kennzahl wohl relativ stark gestiegen ist).

    Hierbei stößt man allerdings leider an Grenzen, wenn die untersuchte Größe (EPS, Buchwert etc.) negativ ist oder wird (z.B. Buchwerte bei Colgate-Palmolive), da die geometrische Rendite keine negativen Werte akzeptiert (und Excel dann #Zahl! ausweist). Auch eine Verwendung von Wachstumsfaktoren (1,15 anstatt 0,15%) scheint nicht zufriedenstellend zu funktionieren, wenn der Buchwert oder das EPS negativ ist oder wird. Letztlich stellte sich für mich dann die Frage, welche Aussagekraft prozentuale Veränderungen bei negativen Werten überhaupt haben (Ein Wachstum von 0 auf 1 ist unendlich, ein Wachstum von -1 auf 1 ist daher mehr als unendlich - hier ist eine sinnvolle Interpretation fraglich..).

    Ggf. war ja genau dieses Problem der ausschlaggebende Grund weswegen Hamsterrad den Mittelwert-Ansatz gewählt hat?

    Nachdem ich mittlerweile bestimmt 5 Stunden vor meinem Excel-Sheet verbracht habe um genau dieses Problem auf eine halbwegs sinnvolle Weise zu beheben (Verwendung von =abs() etc.), wollte ich mich erkundigen,
    a) was ihr zum einen von meiner Vorgehensweise haltet und
    b) ob euch ein praktikabler Lösungsvorschlag hierfür einfällt

    Schonmal vielen Dank für eure Anmerkungen und Ideen dazu!
  • Oliver schrieb:

    Ich bin mir jetzt nur nicht sicher was ich von dieser Systematik halten soll, da der Mittelwert, bedingt durch seine Berechnung, durch (stärkere) Schwankungen nach oben oder unten verzerrt wird (Zykliker lassen grüßen).
    1. Zykliker lassen sich generell nicht über ihr KGV bewerten (weil der Gewinn pro Aktie auch negativ werden könnte und insbesondere viel stärker streut als der Kurs der Aktie).
    2. Gerade weil starke Ausreißer sowohl ein arithmetisches als auch ein geometrisches Mittel verzerren würden, verwendet Hamsterrad an einigen Stellen den (gegenüber Ausreißern "robusten") MEDIAN. (Man könnte dies sicherlich konsequenter tun.)
    3. Man kann den Grad der Verzerrung zumindest beobachten, indem man für dieselben Daten sowohl den MEDIAN als auch das geometrische Mittel berechnet und die Differenz zwischen beiden Ergebnissen betrachtet: Ist diese Differenz groß, dann liegen entweder Ausreißer vor, die das geometrische Mittel verzerren, oder die Verteilung der Eingabewerte ist "schief" (z. B. 10, 10, 10, 10, 10, 15, 20 - was ist hiervon ein "glaubhafter" Mittelwert?).
    4. Das arithmetische Mittel (welches u. a. bei den Buchwerten verwendet wird) halte ich im vorliegenden Anwendungsfall für die schlechteste Lösung.
      Dies liegt daran, dass wir Werte betrachten, die in einem Szenario mit Zinseszinseffekt entstanden sind, sich also nicht um konstante Summanden, sondern (näherungsweise) um konstante Faktoren voneinander unterscheiden (sollten). Dies würde bei der Verwendung des geometrischen Mittels korrekt berücksichtigt: Das geometrische Mittel von "1, 2, 4, 8, 16" (= Wachstum von 100% p. a.) ist 4, während das arithmetische Mittel dieser Zahlenfolge den "Mittelwert" 6,2 liefert.
  • Oliver schrieb:

    So wird Unternehmen A, das von 2006-heute z.B. um jährlich 5% (geometrische Rendite) konstant ohne Einbrüche gewachsen ist, gegenüber Unternehmen B, das im gleichen Zeitraum ein gleich hohes, allerdings durch zwei starke Einbrüche (z.B. je -50%) unterbrochenes, Wachstum aufweist, benachteiligt, da der Mittelwert bei Unternehmen A höher liegen wird als bei Unternehmen B. Dieser Effekt wird umso stärker, je häufiger und stärker die Ausreißer sind.
    Grundsätzlich wird Unternehmen B dann zwar wieder durch die Kennzahl "Größter Einbruch" bestraft, allerdings gefällt mir die obige Problematik des Mittelwertansatzes nicht sonderlich (wenngleich trotzdem fraglich ist ob es hierdurch überhaupt signifikante Bewertungsunterschiede geben würde und ob man nicht stattdessen einfach den "Robustheitsfaktor" als Ausgleich höher gewichten könnte).
    Die Kennzahl "größter Einbruch" hat eigentlich die Funktion, zu bewerten, inwiefern der Einnahmestrom aus Dividenden für Hamsterrad im Falle einer Wirtschaftskrise wie 2002/03 oder 2008/09 gefährdet wäre, denn die Grundlage des Hamsterrad-Konzepts war es, dem (selbständigen) Depotbesitzer ein passives Einkommen in auftragslosen Zeiten zu bescheren.

    Die konkrete Implementierung der Wachstumsberechnung ist einer der Punkte, die mir am Hamsterrad-Sheet auch nicht gefällt. Das liegt aber weniger an der Anfälligkeit gegenüber Zyklikern (die an hinreichend vielen anderen Stellen "abgestraft" werden), sondern am Fehlen eines Mechanismus, der ein Abflachen des Wachstums erkennen würde.
    Denn wenn bei einem Unternehmen ein solches Abflachen tatsächlich stattfindet (aktuelle Beispiele: IBM und Wal-Mart, möglicherweise demnächst auch Novo-Nordisk), dann "preist der Markt das bisherige Wachstum aus" und bezahlt deshalb nur noch ein niedrigeres KGV. Solche Aktien sehen also "historisch günstig" aus, obwohl sie in der Realität nicht nur an Preis, sondern auch an Wert verloren haben.

    Deshalb berechne ich das (EPS-) Wachstum für einen "langen" und einen "kurzen" Zeitraum (2005-2018e, 2012-2018e - in beiden Fällen mit einem "zeitlichen Sicherheitsabstand" zum vorherigen zyklischen Tiefstpunkt 2002/03 bzw. 2008/09) und verwende das Minimum dieser beiden Werte:
    • Ein stark zunehmendes kurzfristiges Wachstum ist üblicherweise ein Aufholeffekt nach vorheriger Schwäche (ganz typisch etwa bei Zyklikern, wenn man z. B. mechanisch nur die letzten 5 Jahre betrachtet, ohne zu berücksichtigen, wie damals die Konjunktur war) und darf nicht unkritisch in die Zukunft fortgeschrieben werden.
    • Ein kurzfristiger Rückgang des Wachstums kann hingegen ein fundamentales Problem signalisieren (Sättigung des Marktes, Auslaufen von Patenten / geniale Erfindung der Konkurrenz, politischer Eingriff in das Geschäftsmodell, Ende der geographischen Expansionsmöglichkeiten etc.), das die Zukunft des Unternehmens dauerhaft beeinträchtigen wird.
  • Oliver schrieb:

    Mein Versuch war die "Mittelwert-Systematik" durch die Verwendung des geometrischen Wachstums, die ja - wenn mich nicht alles täuscht - auch von Bereinigung verwendet wird, zu ersetzen. Persönlich finde ich diese Daten auch eingängiger (wenn ich +7% Wachstum lese, weiß ich was gemeint ist - wenn ich eine Abweichung von z.B. +45% vom Mittelwert angezeigt bekomme, sagt mir das erst einmal gar nichts, außer dass die untersuchte Kennzahl wohl relativ stark gestiegen ist).
    Ja, ich berechne für das EPS das geometrische Wachstum, weil ich daraus eine Renditerwartung für die betreffende Depotposition ableiten will.

    Sowohl das EPS als auch die Dividendenausschüttung werden durch den Zinseszinseffekt eines wachsenden Unternehmens in gleichem Maße gesteigert, und die Summe dieser beider Ertragskomponenten ist das, was (bei unterstellter fairer Bewertung der Aktie) auf lange Sicht im Depot ankommen wird (sofern das Wachstum des Unternehmens nicht abflacht).
    Leider wird diese Summe nirgendwo innerhalb des Hamsterrad-Sheets berechnet.

    Was die Übersetzung von "Abstand zum Mittelwert" nach "Wachstum pro Jahr" betrifft, da findest Du hier entsprechende Umrechnungstabellen.
  • Oliver schrieb:

    Hierbei stößt man allerdings leider an Grenzen, wenn die untersuchte Größe (EPS, Buchwert etc.) negativ ist oder wird (z.B. Buchwerte bei Colgate-Palmolive), da die geometrische Rendite keine negativen Werte akzeptiert (und Excel dann #Zahl! ausweist). Auch eine Verwendung von Wachstumsfaktoren (1,15 anstatt 0,15%) scheint nicht zufriedenstellend zu funktionieren, wenn der Buchwert oder das EPS negativ ist oder wird. Letztlich stellte sich für mich dann die Frage, welche Aussagekraft prozentuale Veränderungen bei negativen Werten überhaupt haben (Ein Wachstum von 0 auf 1 ist unendlich, ein Wachstum von -1 auf 1 ist daher mehr als unendlich - hier ist eine sinnvolle Interpretation fraglich..).
    Es gibt keine "one size fits all"-Kennzahl für die Bewertung von Unternehmen. Jede Kennzahl hat für bestimmte Unternehmen eine höhere Aussagekraft und für andere Unternehmen eine geringere. Wäre es nicht so, dann hätte Hamsterrad ja nicht die Wahlmöglichkeit zwischen KGV und KBV implementiert, sondern sich für die aussagekräftigere der beiden Kennzahlen entschieden (oder beide Methoden jeweils gewichtet in ein gemeinsames Gesamtergebnis einfließen lassen).

    Beim KGV ist es m. E. offensichtlich, dass die Aussagekraft in direktem Zusammenhang mit der Schwankungsbreite der Unternehmensgewinne steht: Je genauer man zukünftige (um Sondereffekte bereinigte) Gewinne schätzen kann, desto vernünftiger ist es, ein bestimmtes Vielfaches dieser künftigen Gewinne für eine Aktie zu bezahlen.
    Das KGV von Procter&Gamble macht also mehr "Sinn" als das KGV etwa der Deutschen Bank.

    Kann man dies jedoch nicht (insbesondere bei Zyklikern) und muss damit rechnen, dass ein Unternehmen in der nächsten Krise auch mal rote Zahlen schreibt, dann ist der Buchwert (bzw. ein für das betreffende Unternehmen passendes Vielfaches davon) in der Regel eine gute Kenngröße für die Untergrenze des Aktienkurses: Solange beispielsweise Daimler keine Milliardenverluste berichtet (und dadurch die Aussagekraft seines eigenen Buchwertes infrage stellen würde, denn diese Verluste würden ja einen Teil der Substanz des Unternehmens verbrennen!), wird man die Daimler-Aktie wohl kaum für deutlich weniger als ihren Buchwert bekommen können.

    Nun gibt es allerdings Unternehmen, deren Geschäftsleitung davon überzeugt ist, niemals in eine solche Situation geraten zu können, und die deshalb ihr komplettes Eigenkapital in Form von Aktienrückkäufen an die Aktionäre ausgeschüttet haben. Colgate-Palmolive ist ein solches Beispiel, ebenso McDonald's, Philip Morris und Moody's.
    Hier macht offensichtlich der Bewertungsansatz über das (nun undefinierte) KBV keinen Sinn - und dies lässt sich auch nicht durch eine andere Mittelwert-Berechnungsmethode "reparieren".

    Beim KGV ist die Erkennung einer Untauglichkeit der Kennzahl relativ einfach: Je stärker der maximale EPS-Einbruch, desto wahrscheinlicher müsste der Aktienkurs bei unterstelltem konstanten KGV in der nächsten Krise auf Null fallen. Ich kann also einfach sämtliche Aktien, die in Sachen "Robustheit" eine bestimmte Mindestanforderung (z. B. maximaler Rückgang bereinigter EPS normalisiert nach Euro kleiner als 30%) nicht erfüllen, von der Datenerfassung komplett ausschließen.

    Beim KBV ist die Sache schwieriger: Man kann zwar bei einigen Unternehmen erkennen, dass der Buchwert offensichtlich keine Bedeutung hat (Colgate-Palmolive), nicht aber bei allen Unternehmen derselben Branche (Procter&Gamble geht mit seinem Eigenkapital viel schonender um - trotzdem dürfte das KBV dieser Aktie keine praktische Bedeutung haben, weil kein Anleger ernsthaft damit rechnen wird, dass dieses Unternehmen jemals rote Zahlen schreiben könnte).
    Andererseits ist der Buchwert von Procter&Gamble auch nicht bedeutungslos, denn er stellt ein Potenzial für zukünftige Aktienrückkäufe dar, welches Colgate-Palmolive nicht besitzt. Im Prinzip ist Procter&Gamble "unterschuldet" im Vergleich zu seiner Peer Group und könnte deshalb ein gewisses zusätzliches EPS-Wachstum über verstärkte Aktienrückkäufe erzwingen, wenn die Geschäftsleitung dies wollte.

    Mir fällt deshalb kein einfach zu implementierendes Verfahren ein, um die Aussagekraft des KBV automatisch zu bestimmen. Die beste mir bekannte Näherung dürfte sein: Verwende das KBV, wenn das KGV aufgrund zu schlechter Robustheit ausgeschieden ist.

    Im Falle des Hamsterrad-Universums ist die Titelauswahl nun allerdings deutlich älter als das Bewertungsverfahren selbst (Vodafone, General Electric und die Deutsche Telekom werden es in diesem Sheet nie auf einen grünen Zweig bringen). Und da auch Aktien enthalten sind, bei denen allgemein bekannt ist, dass eine KBV-basierte Bewertung sinnvoller ist (Versicherungen!), gibt es inzwischen eben beide Optionen in diesem Spreadsheet.

    Dieser Beitrag wurde bereits 9 mal editiert, zuletzt von Bereinigung ()

  • Hallo Bereinigung,

    vielen Dank für die sehr ausführlichen und (wie immer) begründeten Antwort(en)!
    Nicht nur hier, sondern auch an anderer Stelle. Ich muss gestehen, dass ich fast alle deiner Ausführungen hier und beim Dividendensammler mit großem Interesse gelesen habe (und diese wiederum zusammen mit anderen Informationen mit in die Entwicklung meines eigenen Bewertungssystems auf Excel-Basis einfließen).

    Erstmal muss ich mir überlegen wie ich nun auf die Menge an Informationen am besten strukturiert eingehe. :P

    Bereinigung schrieb:

    Oliver schrieb:

    Ich bin mir jetzt nur nicht sicher was ich von dieser Systematik halten soll, da der Mittelwert, bedingt durch seine Berechnung, durch (stärkere) Schwankungen nach oben oder unten verzerrt wird (Zykliker lassen grüßen).
    [*]Zykliker lassen sich generell nicht über ihr KGV bewerten (weil der Gewinn pro Aktie auch negativ werden könnte und insbesondere viel stärker streut als der Kurs der Aktie).
    [*]Gerade weil starke Ausreißer sowohl ein arithmetisches als auch ein geometrisches Mittel verzerren würden, verwendet Hamsterrad an einigen Stellen den (gegenüber Ausreißern "robusten") MEDIAN. (Man könnte dies sicherlich konsequenter tun.)
    [*]Man kann den Grad der Verzerrung zumindest beobachten, indem man für dieselben Daten sowohl den MEDIAN als auch das geometrische Mittel berechnet und die Differenz zwischen beiden Ergebnissen betrachtet: Ist diese Differenz groß, dann liegen entweder Ausreißer vor, die das geometrische Mittel verzerren, oder die Verteilung der Eingabewerte ist "schief" (z. B. 10, 10, 10, 10, 10, 15, 20 - was ist hiervon ein "glaubhafter" Mittelwert?).
    [*]Das arithmetische Mittel (welches u. a. bei den Buchwerten verwendet wird) halte ich im vorliegenden Anwendungsfall für die schlechteste Lösung. Dies liegt daran, dass wir Werte betrachten, die in einem Szenario mit Zinseszinseffekt entstanden sind, sich also nicht um konstante Summanden, sondern (näherungsweise) um konstante Faktoren voneinander unterscheiden (sollten). Dies würde bei der Verwendung des geometrischen Mittels korrekt berücksichtigt: Das geometrische Mittel von "1, 2, 4, 8, 16" (= Wachstum von 100% p. a.) ist 4, während das arithmetische Mittel dieser Zahlenfolge den "Mittelwert" 6,2 liefert.
    [/list]

    Dass man Zykliker nicht durch das KGV bewerten sollte, ist mir klar (allerdings auch Dank deiner Ausführungen hier und anderswo). Bisher habe ich mich nicht sonderlich stark mit Fundamentalanalyse befasst, da mir die Informationsbeschaffung der einzelnen Kennzahlen zu aufwändig war. Meine Untersuchungen am Aktienmarkt waren daher meist technischer Natur (sprich: Entwicklung eines Handelssystems, Entwicklung eines semipassiven Investmentansatzes mit dem Black-Litterman-Modell etc.).

    Ich denke egal welchen Mittelwertansatz man verwendet - alle haben irgendwo Schwächen, der arithmetische Durchschnitt ohnehin aus den von dir genannten Gründen. Bei Dingen wie der Bewertung des KGV/KBV finde ich das noch sinnvoll (denn hier geht es ja gerade um die Abweichung vom langfristigen Mittel), aber sobald es um die Messung von Wachstum (EPS, Buchwert, Dividende etc.) geht, stößt die Methodik für meine Begriffe schnell an Grenzen.

    Nochmal zur Verdeutlichung meines Problems (das ich im Eingangspost vermutlich nicht ausreichend beschrieben hatte). Hier habe ich ein Unternehmen mit konstantem Wachstum von 4% und zwei Einbrüchen (40% und 30%) dargestellt, die sich nach jedem Einbruch sofort wieder komplett erholen. (Hinweis: Der neueste Wert des EMA wurde mit je 20% gewichtet).


    Hier ist das gleiche Unternehmen mit konstantem Wachstum von 4% ohne jegliche Einbrüche:

    Edit: es muss in den Grafiken heißen "Median 06-16" - so ist es auch dargestellt.

    Wie man sieht macht das keinen so großen Unterschied welchen der Durchschnitte ich zur Modellierung des Wachstums verwende (Wachstum in dem Falle: Abstand des künftigen Werts im Vergleich zum Mittelwert, so wie Hamsterrad das macht), da alle ähnliche Schwächen aufweisen und die Einbrüche "systematisch belohnen" und die Ausreißer nach oben hin sogar "systematisch bestrafen". Das ist für mich ein unerwünschtes Verhalten, da ich grundsätzlich genau das Gegenteil möchte.

    Natürlich gibt es merkliche Unterschiede vor allem dann, wenn die zugrundeliegenden Daten stark veränderlicher Natur sind, also z.B. Daten, die einige Zeit z.B. mit 3% langsam und dann z.B. mit 10% schnell (oder umgekehrt) wachsen. Das geschilderte Grundproblem besteht aber weiterhin.

    Das Hamsterradsystem "modelliert" das Wachstum daher in einer Weise, die mir persönlich weniger gefällt und auch wesentliche Informationen "verschluckt" (s. auch unten). Wenn es nur die gerade beschriebene Eigenschaft der "Bevorzugung von Ausreißern" wäre, könnte ich damit leben, da diese Unterschiede alleine auf das Endergebnis vermutlich keine signifikanten Auswirkungen haben (wobei das wiederrum von den in den "Bewertungstabellen" hinterlegten Daten abhängt, die ich ja beeinflussen kann).

    Bereinigung schrieb:

    Oliver schrieb:

    Mein Versuch war die "Mittelwert-Systematik" durch die Verwendung des geometrischen Wachstums, die ja - wenn mich nicht alles täuscht - auch von Bereinigung verwendet wird, zu ersetzen. Persönlich finde ich diese Daten auch eingängiger (wenn ich +7% Wachstum lese, weiß ich was gemeint ist - wenn ich eine Abweichung von z.B. +45% vom Mittelwert angezeigt bekomme, sagt mir das erst einmal gar nichts, außer dass die untersuchte Kennzahl wohl relativ stark gestiegen ist).
    Ja, ich berechne für das EPS das geometrische Wachstum, weil ich daraus eine Renditerwartung für die betreffende Depotposition ableiten will.
    Sowohl das EPS als auch die Dividendenausschüttung werden durch den Zinseszinseffekt eines wachsenden Unternehmens in gleichem Maße gesteigert, und die Summe dieser beider Ertragskomponenten ist das, was (bei unterstellter fairer Bewertung der Aktie) auf lange Sicht im Depot ankommen wird (sofern das Wachstum des Unternehmens nicht abflacht).
    Leider wird diese Summe nirgendwo innerhalb des Hamsterrad-Sheets berechnet.

    Was die Übersetzung von "Abstand zum Mittelwert" nach "Wachstum pro Jahr" betrifft, da findest Du hier entsprechende Umrechnungstabellen.

    Genau das ist ja auch mit einer der Gründe weshalb ich versucht habe die Wachstumsmodellierung von Hamsterrad durch das geometrisches Wachstum zu ersetzen. Das gilt natürlich für EPS und Dividende insbesondere, für den Buchwert aber auch (ich halte den Buchwert aufgrund der Bilanzierungsspielräume ohnehin für etwas weniger wichtig).

    Für das Gewinnwachstum habe ich versuchsweise auf deinen "-1%-+16%" Ansatz zurückgegriffen; allerdings unter Miteinbeziehung des von dir genannten "Minimalwerts" des Wachstums "kurzfristig-langfristig", da mir auch aufgefallen ist, dass die "Mittelwertsystematik" das nicht adäquat abbildet und ich keine Aktien noch gut bewerten möchte, deren Wachstum bereits eingeschlafen ist. Meine Bewertungstabelle sieht konsequenterweise dann so aus:


    So hatte ich mir das für alle Wachstumsberechnungen (EPS, Dividende, Buchwert) vorgestellt. Das Problem ist dann eben, dass das genau dann fehlschlägt, wenn negative Wurzeln ins Spiel kommen. Leider ist mir zur Lösung dieses Problems bisher kein pragmatischer Lösungsansatz eingefallen.

    Grundsätzlich KANN ich zwar Unternehmen, die negative Daten aufweisen von vorne herein aussortieren (ich möchte ja z.B. sowieso keine Unternehmen haben, die Verluste schreiben), allerdings wäre es eben schön, wenn mein Bewertungssystem mit diesen Daten trotzdem umgehen könnte, da auch gute Unternehmen hin und wieder negative Daten aufweisen können, ohne dass das die Qualität des Unternehmens maßgeblich verringert.

    Wie handhabt deine "Gier"-Funktion denn negative Werte? Grundsätzlich hast du ja genau dasselbe Problem damit - sobald entweder der Anfangswert oder der Endwert der betrachteten Datenreihe negativ ist, erhält man einen negativen Bruch und aus dem wiederrum lässt sich keine Wurzel ziehen.

    Dieser Beitrag wurde bereits 6 mal editiert, zuletzt von Oliver ()

  • Oliver schrieb:

    Wie man sieht macht das keinen so großen Unterschied welchen der Durchschnitte ich zur Modellierung des Wachstums verwende (Wachstum in dem Falle: Abstand des künftigen Werts im Vergleich zum Mittelwert, so wie Hamsterrad das macht), da alle ähnliche Schwächen aufweisen und die Einbrüche "systematisch belohnen" und die Ausreißer nach oben hin sogar "systematisch bestrafen". Das ist für mich ein unerwünschtes Verhalten, da ich grundsätzlich genau das Gegenteil möchte.
    ...
    Das Hamsterradsystem "modelliert" das Wachstum daher in einer Weise, die mir persönlich weniger gefällt und auch wesentliche Informationen "verschluckt" (s. auch unten). Wenn es nur die gerade beschriebene Eigenschaft der "Bevorzugung von Ausreißern" wäre, könnte ich damit leben, da diese Unterschiede alleine auf das Endergebnis vermutlich keine signifikanten Auswirkungen haben (wobei das wiederrum von den in den "Bewertungstabellen" hinterlegten Daten abhängt, die ich ja beeinflussen kann).
    Grundsätzlich verstehe ich Deine Einwände gegen die Art der Wachstumsberechnung durch das Hamsterrad-Sheet, und ich selbst verwende ja auch eine andere Methode dafür. Am Ende dieses Textes habe ich dennoch einen alternativen Blickwinkel darauf.

    Meine Methode basiert ausschließlich auf dem Verhältnis zwischen einem Startwert und einem Endwert mit <n> Jahren zeitlichem Abstand, aus dem ich die <n>te Wurzel ziehe.
    Dies hat den Vorteil, dass mir alle Werte zwischen diesen beiden Punkten egal sein können. Es hat aber auch einen Nachteil: Wenn einer der beiden entscheidenden Punkten irgendwie verzerrt ist, dann hat dies einen viel größeren Einfluss auf das Ergebnis, als wenn die Werte sämtlicher vorliegender Bilanzjahre in die Berechnung einfließen würden.

    Nun ist es so, dass ich "es mir leisten kann", nur zwei Punkte zu verwenden, weil ich ja ohnehin mit bereinigten EPS-Werten arbeiten will. Der Endpunkt (2018e) liegt zudem so weit in der Zukunft, dass hier noch keine bekannten Sondereffekte vorhanden sein können.
    Bleibt als mögliche Schwachstelle also der Anfangswert - was ich dadurch abzufedern versuche, dass ich statt eines Wertes das arithmetische Mittel aus drei benachbarten Werten verwende. "Eigentlich" müsste ich an dieser Stelle das geometrische Mittel verwenden, aber dann hätte ich an genau dieser Stelle das von Dir beschriebene Problem mit den negativen Werten (auch mein Verfahren hat ursprünglich mal mit unbereinigten EPS-Daten funktionieren müssen - an dieser Stelle erkennt man dies noch).
    Und wenn eine Aktie als Durchschnitt dreier benachbarter Jahresergebnisse einen negativen Wert abgeliefert hat, dann kann sie für meinen Anlagestil nicht geeignet sein und ich mir die Erfassung ihrer Daten sparen.

    Hamsterrad hingegen begann sein Spreadsheet mit unbereinigten Daten, deren Qualität viel schlechter war als die heutige. Und in diesem speziellen Szenario war eine Mittelwertberechnungsmethode, die sämtliche Bilanzjahreswerte berücksichtigt, zumindest weniger anfällig für eine Verzerrung an "der entscheidenden Stelle", weil es die Existenz einer solchen entscheidenden Stelle eben gerade vermeidet.
  • Die Bereinigung der einzelnen Daten ist meiner Meinung nach sowieso notwendig, da ich ja das fundamentale Geschäftsmodell des Unternehmens bewerten möchte und nicht die Auswirkungen von Währungsschwankungen in Venezuela oder irgendwelcher Sparprogramme. :) Das - bzw. die Arbeit die hinter der Bereinigung von Dutzenden von Unternehmen steckt - war bisher übrigens auch der ausschlaggebende Faktor für mich Abstand von der Fundamentalanalyse (und damit von der Einzeltitelinvestition) zu halten. Da mir Analyse und Entwicklung von Systemen aber Spaß macht (und ich momentan wenig Lust habe den Markt über ETFs zu 120-130% der fairen Bewertung zu kaufen), habe ich mich entschieden die Zeit dafür aufzuwenden.

    Mir ist die geschilderte Problematik eben konkret bei den Buchwerten von Colgate-Palmolive aufgefallen, die hier eben momentan "mager" ausgestattet sind (eigentlich ja schon "verhungert").
    Für diese Kennziffer müsste ich also entweder:
    • eine alternative Bewertungsmethode entwickeln (wenn mir etwas einfallen sollte, poste ich das hier nochmal)
    • den Parameter komplett entfernen (ich habe mich u.a. auch dafür entschieden die Aktienrückkäufe nicht separat zu bewerten, da die Auswirkungen hiervon bereits implizit durch andere Kennzahlen berücksichtigt werden)
    • in letzter Instanz wieder auf die bestehende Mittelwert-Systematik zurückgreifen, die hier trotz der inhärenten Nachteile problemlos funktioniert
    Mir ist in diesem Zusammenhang dann auch eingefallen, dass Gewinnentwicklung guter Unternehmen von dieser Problematik grundsätzlich sowieso nur höchstselten betroffen sein sollten (insb. unter Berücksichtigung eines gemittelten Startwerts). Sollte der Endwert der Gewinnreihe eines bisher als gut eingestuften Unternehmens trotz allem auf einmal negativ werden, wirft das sowieso eine Reihe ganz neuer Fragen auf, da dann offenbar ein gravierendes Ereignis eingetreten ist (Energiewende bei E.ON und RWE..).

    Auch bei Dividenden gibt es erstmal nur die Problematik, dass hier bei erstmaliger (oder erneuter) Dividendenzahlung ein Wachstum ausgehend von 0 dargestellt werden müsste - das kann aber dadurch umgangen werden, dass eben das Wachstum erst ab der zweiten Dividendenzahlung "richtig" gemessen wird und das Unternehmen bis dahin etwas schlechter dargestellt wird als es sein müsste. Allerdings muss - zwecks Vergleichbarkeit - festgelegt werden für welchen Zeitraum das Wachstum berechnet wird (wenn die Zahlungen vom "Standardzeitraum" abweichen sollten) und das könnte sich dann wieder als problematisch herausstellen. :S

    Wie man sieht hat auch die Mittelwert-Systematik ihren Charme, da mit ihr solche Probleme gar nicht erst auftreten...
    Dennoch werde ich zumindest bei den Gewinnen das Bewertungssystem umstellen und mir für den Buchwert (und ggf. die Dividenden) etwas anderes einfallen lassen. Ist komisch wie man sich manchmal an einem Problem "festbeisst" und dann die naheliegende Lösung (zu prüfen ob die Probleme denn IMMER bei ALLEN Kennziffern gleichermaßen auftreten) daher gar nicht zu sehen.

    Deine Art der Berechnung des Wachstums hatte ich auch für mein Verfahren vorgesehen, da diese vermutlich trotz allem die "stabilste" Variante darstellt, eben weil - wie Du ja sagst - ggf. auftretende Nullen, Ausreißer und negative Werte ignoriert werden (sofern sie nicht gerade im Startwert oder Endwert vorkommen). Zudem interessiert mich ja primär die Performance des Unternehmens über den von mir als relevant definierten Zeitraum und nicht irgendwo dazwischen.

    Gibt es eigentlich - außer der Sondereffektproblematik - einen konkreten Grund weshalb Du als "Endwert" 2018e anstatt eines gewichteten Mittelwerts +360d (wie Hamsterrad) verwendest?
    Der Wert ist für mich "gefühlt" noch relativ weit in der Zukunft und da frage ich mich dann immer wie genau solche Schätzungen denn überhaupt sein können. Daher favorisiere ich momentan die +360d Variante, wenngleich ich nicht sicher bin ob und wie ich hier Sondereffekte bereinigen kann ohne jeden Quartalsbericht hiernach durchforsten zu müssen.

    (Übrigens um Missverständnissen vorzubeugen: meine Posts sollte nicht dazu dienen das Bewertungssystem von Hamsterrad "schlecht zu machen", denn das ist es sicherlich nicht. Mir ging es nur darum die von mir als Schwäche empfundene Modellierung anzusprechen und ggf. zu beheben.) :)

    Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von Oliver ()

  • Oliver schrieb:

    Mir ist die geschilderte Problematik eben konkret bei den Buchwerten von Colgate-Palmolive aufgefallen, die hier eben momentan "mager" ausgestattet sind (eigentlich ja schon "verhungert").
    Für diese Kennziffer müsste ich also entweder:
    • eine alternative Bewertungsmethode entwickeln (wenn mir etwas einfallen sollte, poste ich das hier nochmal)
    • den Parameter komplett entfernen (ich habe mich u.a. auch dafür entschieden die Aktienrückkäufe nicht separat zu bewerten, da die Auswirkungen hiervon bereits implizit durch andere Kennzahlen berücksichtigt werden)
    • in letzter Instanz wieder auf die bestehende Mittelwert-Systematik zurückgreifen, die hier trotz der inhärenten Nachteile problemlos funktioniert

    Genau für solche Nachjustierungen des Bewertungsverfahrens sind die Stammdatentabellen des Hamsterrad-Sheets gedacht.
    Es ist viel einfacher, dort die Punktzahlen für eine der 20 Bewertungskomponenten auf Null zu setzen (und die dabei "frei werdenden" Punkte ggf. einer bzw. mehreren anderen Komponenten zuzuteilen, um bei einer Skala von [0..300] zu bleiben), als an den Formeln selbst etwas zu ändern.

    Die Aktienkäufe nicht mehr zu berücksichtigen ist auch in meinem Hamster-Klon konfiguriert, da ihr Effekt einen Teil des EPS-Wachstums darstellt.
    Zudem ist die Berechnung der Aktienkäufe mit den bisher erfassten Daten nur schwer korrekt zu bestimmen, weil jede größere Übernahme, die zum Teil durch die Ausgabe neuer eigener Aktien finanziert wurde, diesen Wert verzerren würde (es sei denn, man baut an jeder solchen Stelle einen Korrektur-Splitfaktor ein, dessen Wert man aber jeweils recherchieren müsste und dessen Notwendigkeit bei auch kleineren Übernahmen man leicht übersehen würde).

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Bereinigung ()

  • Oliver schrieb:


    Mir ist in diesem Zusammenhang dann auch eingefallen, dass Gewinnentwicklung guter Unternehmen von dieser Problematik grundsätzlich sowieso nur höchstselten betroffen sein sollten (insb. unter Berücksichtigung eines gemittelten Startwerts). Sollte der Endwert der Gewinnreihe eines bisher als gut eingestuften Unternehmens trotz allem auf einmal negativ werden, wirft das sowieso eine Reihe ganz neuer Fragen auf, da dann offenbar ein gravierendes Ereignis eingetreten ist (Energiewende bei E.ON und RWE..).
    Für ein solches Unternehmen wäre das KGV in der Zukunft (und damit in einem Jahr, für das noch keine zu bereinigenden Sondereffekte bekannt sein können) undefiniert, was die Bewertung dieser Aktie über ein KGV-basiertes Verfahren grundsätzlich verhindern würde.
  • Oliver schrieb:

    Gibt es eigentlich - außer der Sondereffektproblematik - einen konkreten Grund weshalb Du als "Endwert" 2018e anstatt eines gewichteten Mittelwerts +360d (wie Hamsterrad) verwendest?
    Wenn ich als Endpunkt das EPS+360d verwenden würde, dann müsste ich entweder als Startpunkt ebenfalls ein EPS berechnen, das um denselben Abstand zum Bilanzjahresbeginn verschoben ist (und dann eine ganzzahlige Wurzel daraus ziehen) oder aber aus der Berechnung des EPS+360 diesen Jahres-Offset ableiten (6 Monate = "+0,5") und eine "krumme" Wurzel ziehen.
    Letzteres wäre vermutlich die Vorgehensweise, mit der Du den Endpunkt für alle Unternehmen gleich weit in der Zukunft platzieren könntest.

    Ich vermute allerdings, dass dies gegenüber der bisherigen Methode nur eine Differenz im Rundungsfehlerbereich ergeben würde.
  • Richtig... ich versuche Daten, deren Beschaffung und Bereinigung aufwändig ist tendenziell durch andere zu ersetzen (bzw. zu entfernen, wenn deren Informationen bereits anderweitig implizit berücksichtigt sind) die mir ein ähnliches Ergebnis bringen. Ansonsten leidet im Zweifel die Qualität oder man verbringt vergleichsweise viel Zeit mit etwas, was dann wiederum nur wenig Erkenntnisgewinn bringt oder die Aussagekraft gar reduziert.

    Stimmt - wenn der künftige Gewinn negativ sein sollte, fällt ohnehin das ganze Bewertungssystem in sich zusammen, was aber in dem Fall nicht schlimm ist, da ich ein solches Unternehmen sowieso genauer unter die Lupe nehmen muss.

    Bereinigung schrieb:

    Wenn ich als Endpunkt das EPS+360d verwenden würde, dann müsste ich entweder als Startpunkt ebenfalls ein EPS berechnen, das um denselben Abstand zum Bilanzjahresbeginn verschoben ist (und dann eine ganzzahlige Wurzel daraus ziehen) oder aber aus der Berechnung des EPS+360 diesen Jahres-Offset ableiten (6 Monate = "+0,5") und eine "krumme" Wurzel ziehen.
    Letzteres wäre vermutlich die Vorgehensweise, mit der Du den Endpunkt für alle Unternehmen gleich weit in der Zukunft platzieren könntest.

    Ich vermute allerdings, dass dies gegenüber der bisherigen Methode nur eine Differenz im Rundungsfehlerbereich ergeben würde.

    Wenn ich das richtig verstehe möchtest Du für alle Unternehmen den "gleichen" bzw. "gleich langen" Zukunftszeitraum betrachten?

    Ich bin jetzt nicht 100% sicher auf welchen Zeitraum sich die Gewinnschätzungen beziehen, aber sind das nicht ohnehin die Bilanzjahre? Das Hamsterrad-System würde insofern nach dem gleichen System wie die Schätzungen funktionieren, da es - ausgehend vom Bilanzstichtag - 1 Jahr in die Zukunft schaut. In jedem Fall vergleicht man dann doch auch bei Verwendung des 2018e-Wertes unterschiedliche Zeiträume, sobald ein Unternehmen beispielsweise zum 31.12. und das andere zum 30.06 bilanziert?

    Ich weiß nicht, ob dieser Unterschied grundsätzlich signifikante Auswirkungen auf das Bewertungsergebnis hat (Kosten/Nutzen-Effekt wie eingangs beschrieben). Im Endeffekt schaue ich mir mit dem Hamsterrad-System die Entwicklung des jeweiligen Unternehmens (ausgehend vom Bilanzstichtag) +1 Jahr an und bewerte welches davon besser zu sein scheint. Problematisch wird der unterschiedliche Endpunkt ja nur dann, wenn hierdurch eine künftige Krise o.ä. beim einen Unternehmen nur teilweise, beim anderen Unternehmen bereits voll einkalkuliert werden würde.

    Allerdings käme das wiederum auch nur dann zum Tragen wenn ein derartiges Krisenszenario auch zuverlässig in diesem Detailierungsgrad in den Schätzungen berücksichtigt wird. Grundsätzlich scheinen sich Analysten tendenziell eher auf die Vergangenheitswerte zu beziehen und diese höher zu gewichten als ggf. künftige Änderungen - egal ob das nun beim Übergang von Boom zu Rezession oder umgekehrt ist (die Zukunft ist nun einmal unsicher). Wenn dem tatsächlich so wäre, dann müsste der unterschiedliche Endpunkt nur marginal in die Gesamtbewertung mit einfließen.

    Hattest Du nicht sogar schon einmal ähnliche Überlegungen angestellt?
  • Oliver schrieb:

    Ich bin jetzt nicht 100% sicher auf welchen Zeitraum sich die Gewinnschätzungen beziehen, aber sind das nicht ohnehin die Bilanzjahre? Das Hamsterrad-System würde insofern nach dem gleichen System wie die Schätzungen funktionieren, da es - ausgehend vom Bilanzstichtag - 1 Jahr in die Zukunft schaut. In jedem Fall vergleicht man dann doch auch bei Verwendung des 2018e-Wertes unterschiedliche Zeiträume, sobald ein Unternehmen beispielsweise zum 31.12. und das andere zum 30.06 bilanziert?


    Hattest Du nicht sogar schon einmal ähnliche Überlegungen angestellt?
    Bei der Berechnung des Forward-KGV für ein Unternehmen mit 10% EPS-Wachstum p.a. bewirkt eine Verschiebung des Bilanzjahres um 9 Monate eine Fehlbewertung der Aktie um ca. 7,5% (= etwa 1,5 KGV-Punkte bei einem normalen KGV von knapp 20); das kann den Ausschlag über einen Kauf bzw. Nichtkauf der betreffenden Aktie geben (und tatsächlich ist dieser Fall in unserem Depot vorgekommen: Meine KGV-Berechnung wurde erst nach dem verpassten Kauf einer Aktie mit Bilanzjahresende im April auf die Berechnungsmethode des Hamsterrad-Sheets umgestellt).

    Beim Gewinnwachstum, das sich über 6 bzw. 12 Jahre hinzieht, ist die Auswirkung dieser 7,5% viel geringer: Die 6. Wurzel aus 1,075 ist 1,01213, das Gewinnwachstum von ca. 10% würde also in diesem Fall mit ca. 9,88% ausgewiesen, was je nach konkretem Bewertungssystems einen vernachlässigbaren Einfluss auf die Gesamtbewertung der Aktie haben sollte.
  • Bereinigung schrieb:

    Meine KGV-Berechnung wurde erst nach dem verpassten Kauf einer Aktie mit Bilanzjahresende im April auf die Berechnungsmethode des Hamsterrad-Sheets umgestellt
    Ich habe mich hier glaube ich missverständlich ausgedrückt. Wenn ich von EPS+360d sprach, dann meinte ich damit immer +360d ausgehend vom Bilanzstichtag. Diese Methodik von Hamsterrad finde ich nämlich auch einleuchtend und die Differenz zu der "tatsächlichen +360d"-Bewertung schätze ich als eher vernachlässigbar ein. Im Zweifel verzichte ich lieber auf weitere z.B. 5% Genauigkeit, wenn das dafür unverhältnismäßig viel Arbeitsaufwand und/oder Komplexität mit sich bringt.

    Oliver schrieb:

    (...) eine alternative Bewertungsmethode entwickeln (wenn mir etwas einfallen sollte, poste ich das hier nochmal)
    Wie versprochen, nochmal die Rückmeldung bzgl. des von mir geschilderten "Problems".

    Eine Möglichkeit, wie sich beim Buchwert Daten mit negativen und 0-Werten vermeiden ließe, wäre wenn anstatt des Buchwerts je Aktie die Fremdkapitalquote bzw. das Fremdkapital je Aktie bewertet wird. Diese Werte können nicht negativ werden und sind höchstselten (bei größeren Unternehmen würde ich fast behaupten: nie) 0.

    Ich habe mich aber dennoch gegen diese Methode entschieden, weil ich für diese Auswertung eine Vielzahl an prognostizierten Daten erfassen und die benötigten Zukunftswerte daraus errechnen müsste. Das war mir dann zu aufwendig und hätte das ohnehin tiefergreifende Problem nicht vollständig gelöst.

    Mein Bewertungssystem ist nun zur Messung des Wachstums (Gewinn, Buchwert, Dividende) mit zwei unterschiedlichen Bewertungssystemen ausgestattet, nämlich einem "Primärbewertungssystem" (geometrisches Wachstum) und einem "Sekundärbewertungssystem" (modifizierter Mittelwertansatz ähnlich des Hamsterrad-Systems), welches keine so hohen Anforderungen an die Datenqualität stellt.

    Wenn - und das sollte in der Mehrzahl der Fälle so sein - die Daten von Excel mit dem Primärsystem verarbeitet werden können (d.h. es liegt eine vollständige Datenreihe mit entsprechender Datenqualität vor), dann erfolgt die Bewertung nach diesem System. Falls es hier allerdings doch in Einzelfällen Probleme geben sollte (unvollständige, "zu kurze" Datenreihe, negative Daten oder 0-Werte o.ä.), dann spuckt Excel beim "Primärbewertungssystem" eine Fehlermeldung aus, die dann automatisch das "Sekundärbewertungssystem" "aktiviert" welches dann die Bewertung ersatzweise vornimmt.

    Das "Sekundärbewertungssystem" habe ich wie folgt modifiziert
    • Verwendung des Medians anstatt des Mittelwerts
    • Keine Einbeziehung der Schätzwerte 2016e-2018e in den Median
    • Vergrößerung der Skala auf 20 Stufen (-2% bis +16% in 1%-Schritten) - das entspricht im Übrigen auch der Skala des "Primärbewertungssystems"
    Ich habe bzgl. des Medians/Mittelwerts einige Tests durchgeführt und bin zum Entschluss gekommen, dass der Median in Bereichen mit niedrigerem exponentiellen Wachstums robuster zu funktionieren scheint (d.h. einzelne Einbrüche haben keine so große Auswirkung). Erst ab zweistelligen exponentiellen Wachstumsraten (>12%) scheint der Mittelwert besser geeignet zu sein, da er sich schneller an die immer stärker steigenden Werte anpassen kann als der Median.

    Da "kleinere" Wachstumsraten allerdings in der Realität vermutlich häufiger vorkommen werden, habe ich mich für den Median entschieden. Zu prüfen wäre allerdings noch, ob dies auch für Dividendensteigerungsraten gilt, die öfter mal auch im zweistelligen Wachstumsbereich liegen können. Die Modifizierung der Daten und Berechnungsmethodik ist aber im Zweifel sehr einfach durchführbar.

    Die Einbeziehung der zukünftigen Werte (es handelt sich hierbei ja um Schätzwerte) in den Median halte ich ebenfalls für problematisch, da diese "variablen Werte" im Hamsterrad-Sheet ein recht hohes Gewicht haben und damit die Werte "verzerren". Ich möchte außerdem ja die Vergangenheit mit der Zukunft vergleichen und bewerten.

    Da das "Sekundärbewertungssystem" allerdings seine Schwächen hat, wird die hierdurch maximal erreichbare Punktzahl um einen Malus reduziert (z.B. 5% oder 10% der mit dem "Primärbewertungssystem" maximal erreichbaren Punkte). Dadurch möchte ich erreichen, dass Unternehmen, die meine Kriterien für eine "hochwertigere" Bewertung nicht erfüllen (können) trotz ggf. vorliegender "Verzerrung" des Medians grundsätzlich schlechter abschneiden müssen, als die, die das tun.

    Ein Problem besteht aber nach wie vor (analog zum Hamsterrad-Sheet): auch wenn ein Unternehmen bspw. keine Dividenden bezahlt, werden die Aspekte "Dividende" und "Dividendenrendite" trotzdem wie bei jedem anderen Unternehmen bewertet. Das hat u.a. zur Folge, dass es bspw. immer eine Abweichung vom Mittelwert von 0 errechnet und das Sheet das dann an den entsprechenden Stellen mit den definierten Punkten "honoriert".

    Meiner Meinung nach dürfte hier aber (da es keine Dividenden gibt) entweder gar keine Bewertung vorgenommen werden (Idee: die Punkte der Dividendenkennzahlengruppe würden dann sinnvollerweise auf die Kennzahlengruppe "Ergebnis" umgelegt). Oder es wird immer nur die minimalst mögliche Punktzahl vergeben (wenn ich denn Dividenden zwingend haben möchte).

    Tatsächlich erhält ein Unternehmen momentan aber Punkte für etwas, das so gar nicht bewertbar ist. Das führt zu Verzerrungen dahingehend, als dass das Unternehmen ggf. zu gut (es bekommt "Gratispunkte") oder zu schlecht ("Das EPS wird mit der gleichen Maximalpunktzahl bewertet wie das eines Dividendenzahlers, der aber zusätzlich ja noch Punkte für den Dividendenaspekt erhält") bewertet wird.

    Ausnehmen möchte ich von der geschilderten Problematik die Kennzahl "Ausschüttungsquote", da ich hier positiv bewerte, dass dem Unternehmen kein Kapital abfließt und es damit entsprechend arbeiten kann. Das ist auch unabhängig von Dividendenzahlungen möglich.

    Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Oliver ()

  • Oliver schrieb:

    Möglichkeit, wie sich beim Buchwert Daten mit negativen und 0-Werten vermeiden ließe, wäre wenn anstatt des Buchwerts je Aktie die Fremdkapitalquote bzw. das Fremdkapital je Aktie bewertet wird. Diese Werte können nicht negativ werden und sind höchstselten (bei größeren Unternehmen würde ich fast behaupten: nie) 0.
    Und welche Werte beim Fremdkapital sollen "gut" bzw. "schlecht" sein?

    Ein Unternehmen kann genauso "überschuldet" wie "unterschuldet" sein. Fremdkapital kann etwas Gutes oder etwas Schlechtes sein - das kommt darauf an, wie man es einsetzt und welche Einsatzvoraussetzungen bestehen.

    Wenn ich mich mit Fremdkapital beschäftigen will, dann betrachte ich vor allem zwei Kenngrößen:
    1. Wie gut sind überhaupt die Voraussetzungen für den Einsatz von Fremdkapital? Sinn der Sache ist, dass ein Unternehmen für Fremdkapital einen deutlich niedrigeren Zinssatz bezahlen muss, als sein Geschäftsmodell an Gesamtkapitalrentabilität erwirtschaftet, denn dadurch kann man die Kreditgeber (die ein geringeres Risiko tragen) mit einem unterproportionalen Anteil am erwirtschafteten Gewinn "abspeisen", wodurch für die Eigenkapitalgeber überproportional viel übrig bleibt.
    2. Wie ist das Verhältnis zwischen dem EBITDA (als Näherung für den Cashflow) und der Höhe der Schulden? In wie vielen Jahren könnte ein Unternehmen seine Verschuldung vollständig tilgen, wenn es seine Cashflows für nichts Anderes einsetzen würde (was allerdings unrealistisch ist, da ja Zinsen und Steuern nicht zu vermeiden sind)? Stichwort: Dynamischer Verschuldungsgrad.
    Ich muss also prüfen, in welchem Verhältnis die Fremdkapitaleffektivität (ausgedrückt durch die Differenz zwischen Gesamtkapitalrendite und durchschnittlichem Zinssatz) zum dynamischen Verschuldungsgrad, aber auch zum maximalen Gewinnrückgang steht: Je höher ersteres, desto höher darf und sollte letzteres sei. Denn Fremdkapital erzeugt durch die (vom operativen Erfolg des Unternehmens in der Regel unabhängige) Zinsbelastung einen Hebel für Gewinnschwankungen, und diesen Hebel soll das Unternehmen umso stärker einsetzen, je preiswerter er zu haben und je geringer die Wahrscheinlichkeit ist, dass er auch mal in die falsche Richtung ausschlägt.

    Eine geringe Differenz zwischen Zinsen und Gesamtkapitalrendite weist darauf hin, dass entweder das Geschäftsmodell so instabil ist, dass "der Markt" entsprechend hohe Zinsen verlangt (und damit dem Unternehmen die Fremdkapitalhebelung de facto verbietet - die hohe Eigenkapitalquote etwa von Infineon ist keineswegs ein Qualitätsaspekt dieser Aktie bzw. Branche) oder das Unternehmen den Fremdkapitalhebel zu hoch angesetzt hat (was die Ratingagenturen auf den Plan gerufen und damit die Zinssätze in die Höhe getrieben hat).
    Eine sehr hohe Differenz zwischen Zinsen und Gesamtkapitalrendite kann etwas Gutes sein, sie kann aber auch darauf hinweisen, dass das Unternehmen nur deshalb extrem niedrige Zinsen bezahlen muss, weil es von Fremdkapital viel zu wenig Gebrauch macht (und damit die Rendite seines Geschäftsmodells für die Eigenkapitalgeber nicht voll ausreizt).

    Die Erfahrung bei der Betrachtung entsprechend vieler Unternehmensbilanzen lehrt jedoch, dass die CFOs im Großen und Ganzen ihr Handwerk verstehen und Fremdkapital in der Regel sinnvoll einsetzen (Ausnahmen von der Regel findet man am ehesten bei Familienbetrieben). Deshalb würde eine Bewertungskomponente, die den Umgang mit Fremdkapital erfassen soll, bei den meisten Unternehmen ähnliche Ergebnisse liefern, also im Wesentlichen die negativen Ausnahmen aussortieren.

    Oliver schrieb:

    Ich habe bzgl. des Medians/Mittelwerts einige Tests durchgeführt und bin zum Entschluss gekommen, dass der Median in Bereichen mit niedrigerem exponentiellen Wachstums robuster zu funktionieren scheint (d.h. einzelne Einbrüche haben keine so große Auswirkung). Erst ab zweistelligen exponentiellen Wachstumsraten (>12%) scheint der Mittelwert besser geeignet zu sein, da er sich schneller an die immer stärker steigenden Werte anpassen kann als der Median.
    Ja, das würde ich so bestätigen wollen. Wobei für hohe Wachstumsraten das geometrische Mittel besser geeignet ist als das arithmetische Mittel.

    Oliver schrieb:

    Ein Problem besteht aber nach wie vor (analog zum Hamsterrad-Sheet): auch wenn ein Unternehmen bspw. keine Dividenden bezahlt, wird dieser Aspekt trotzdem wie jeder andere bewertet. Das hat u.a. zur Folge, dass es immer eine Abweichung vom Mittelwert von 0 errechnet und das Sheet das dann an den entsprechenden Stellen "honoriert". Meiner Meinung nach dürfte hier aber (da es keine Dividenden gibt) entweder gar keine Bewertung vorgenommen (die Maximalpunktzahl des Dividendenaspekts würden dann auf den Aspekt "Ergebnis/Gewinn" umgelegt werden) oder aber nur die minimalste Punktzahl vergeben werden (wenn ich denn Dividenden zwingend haben möchte). Tatsächlich erhält ein Unternehmen momentan aber (recht viele, teilweise sogar mehr als Unternehmen, die tatsächlich auch Dividende zahlen) Punkte für etwas, das durch die momentane Methodik gar nicht bewertbar ist.
    Das Hamsterrad-Sheet wurde nach meinem Verständnis für die Aufgabenstellung entwickelt, ein Ewigkeitsdepot zu betreuen, das ein automatisches Einkommen für auftragsfreie Zeiten seines Entwicklers liefern soll. Entsprechend "dividendenlastig" sah die Titelmenge zu Beginn des Projekts auch aus; so ziemlich alle Unternehmen mit hohem EPS-Wachstum und niedriger Dividendenrendite sind erst nachträglich hinzu gekommen, insbesondere die einzige Aktie des Depots völlig ohne Dividendenausschüttung. Der Depotinhaber hat also seine ursprüngliche Zielsetzung punktuell aufgeweicht, ohne aber deshalb sein Bewertungssystem für diesen einen Titel umzustellen.

    In der Tat kommt es darauf an, was man erreichen will. Wenn die Dividendenausschüttung einen hohen Wert für den Depotinhaber darstellt (weil er einen kalkulierbaren Cashflow erzeugen will und aus Bequemlichkeit keine inkrementellen Gewinnmitnahmen dafür durchführen möchte), dann ist eine separate Bewertung dieses Aspekts die logische Konsequenz.
    Für einen dividendenlosen Titel aber die Minimalbewertung zu verwenden, würde solche Aktien innerhalb des Bewertungsmodells chancenlos werden lassen - dafür ist das Gewicht der Dividenden-Komponente innerhalb des Hamsterrad-Systems viel zu hoch. Insofern ist die aktuelle Implementierung (welche Alphabet und die Deutsche Telekom in diesem Aspekt fast gleich gut bewertet!) eine akzeptable Hilfslösung, die einen Wachstumsriesen etwa 20 Bewertungspunkte gegenüber einem Dividendenaristokrat kostet, was über ein höheres EPS-Wachstum und vor allem eine bessere KGV-Quote leicht kompensierbar ist.

    In meinem "Hamster-Klon" schütten 14 der eingetragenen 200 Aktien keinerlei Dividende aus. Ihre kompatiblen Hamsterrad-Punktzahlen lauten aktuell: 219,0 - 212,0 - 204,5 - 198,5 - 198,0 - 194,0 - 193,5 - 189,0 - 173,5 - 161,5 - 158,5 - 153,5 - 131,5 - 126,0. Da ist also "für jeden etwas dabei"; der entscheidende Faktor ist die KGV-Quote, die in diesen Fällen zwischen 70% und 165% streut.

    Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von Bereinigung ()

  • Bereinigung schrieb:

    Und welche Werte beim Fremdkapital sollen "gut" bzw. "schlecht" sein?
    Diese Frage habe ich mir auch schon gestellt. Ich bin nicht unbedingt glücklich über die Art der Bewertung des Buchwerts im Sheet (hier: Substanzaufbau und keine großen Einbrüche = gut), möchte es eigentlich aber auch nicht völlig ausblenden, da mir ein Unternehmen mit Substanz grundsätzlich lieber ist als eines, das eben keine Substanz aufweist. Diese Präferenz ist vielleicht berufsbedingt.

    Wegen meines Vorschlags das FK anstatt das EK zu bewerten: Das kam allein daher, als dass ich hiermit die Daten (Buchwert) so umformen kann, dass ich problemlos mit Geomittel usw. arbeiten kann (da eben keine negativen Werte und kein/kaum 0-Werte vorkommen dürften, wohingegen das beim EK durchaus vorkommt).

    Dein Ansatz bzgl. der "FK-Effektivität" ist aber sehr interessant, wobei ich jedoch nicht sicher bin ob es sinnvoll ist eine derartige Bewertungsmethode in das Sheet einzubauen. Die notwendigen Daten müsste man (mit Ausnahme der Schätzungen) zwar relativ leicht aus den Jahresabschlüssen auslesen können (EK, FK oder Bilanzsumme, Zinsen bzw. für den dynamischen Verschuldungsgrad auch noch das EBITDA), aber die Kennzahl muss dann so eindeutig interpretierbar sein, dass es in irgendeine Formel oder Skala passt und das wird vermutlich schwierig.

    Bereinigung schrieb:

    Ja, das würde ich so bestätigen wollen. Wobei für hohe Wachstumsraten das geometrische Mittel besser geeignet ist als das arithmetische Mittel.

    Das stimmt, allerdings fällt das Geomittel leider aus den bereits genannten Gründen (0 oder <0 = kaputt) aus. Ich habe kurz mit dem Gedanken gespielt das Geomittel einzusetzen und nur wenn das nicht funktioniert auf den Median zurückzufallen, allerdings müsste ich dann, um sauber zu arbeiten, für jede Variante die Bewertungstabellen neu parametrisieren (denn gerade im Bereich der hohen Wachstumsraten macht das einen merklichen Unterschied welchen Mittelwert ich benutze - daher sind meine "Skalenschritte" für das "Sekundärbewertungssystem" auch nicht linear wie bei Hamsterrad) und das ist mir dann zu viel Aufwand für den minimalen Effekt, der dadurch erzielbar wäre, insb. da ich davon ausgehe, dass diese hohen Wachstumsraten selten sind.

    Bereinigung schrieb:

    Insofern ist die aktuelle Implementierung (welche Alphabet und die Deutsche Telekom in diesem Aspekt fast gleich gut bewertet!) eine akzeptable Hilfslösung, die einen Wachstumsriesen etwa 20 Bewertungspunkte gegenüber einem Dividenenaristokrat kostet, was über ein höheres EPS-Wachstum und vor allem eine bessere KGV-Quote leicht kompensierbar ist.

    Hmm damit hast Du nicht unrecht, allerdings wäre es mir grundsätzlich lieber die Bewertung "methodisch richtig" zu machen (ja, der Effekt wird vermutlich minimal sein). Daher meine Idee einfach die Punkte der Dividendenkennzahlen (Dividende und Dividendenrendite) zu nehmen und dadurch die Punkte beim Ergebnis (konkret: Wachstum und Robustheit) zu erhöhen. Als Resultat bekommt der Wachstumswert ohne Dividende für diesen Aspekt einfach mehr maximale Punkte als ein Dividendenaristokrat, bei dem ich die Punkte auf mehr Kennzahlen verteilen muss. Das wäre durch eine Formel vermutlich sogar relativ einfach umsetzbar (analog zum KGV/KBV-Schalter).

    Bei einem ersten Versuch im Hamsterrad-Sheet würde sich dadurch die Bewertung für Alphabet von 175,5 auf 221 erhöhen, was vermutlich allerdings etwas zu viel ist.
  • Hamsterrad-Daten August 2016 sortiert nach den Punkte-Anteilen für Dividenden und Sonstiges:

    Die drei Kategorien "Dividende", "Dividendenrendite" und "Ausschüttungsquote" machen zwar zusammen 35% der zu vergebenden Punkte aus, aber die tatsächlich vergebenen Punkte streuen relativ wenig (was auch plausibel ist: Eine Aktie mit einer hohen Dividendenrendite erhält viele Punkte bei "Dividende", aber entsprechend wenige Punkte bei "Ausschüttungsquote"), sodass der Einfluss der Dividendenpunkte auf die Gesamtbewertung relativ gering bleibt.

    Alphabet holt 126 von maximal möglichen 195 Punkten außerhalb der Dividenden-Kategorien.
    Würde man dieses Ergebnis gleichmäßig auf alle Nicht-Dividenden-Kategorien verteilen, also die Punktzahl auf eine Basis von 300 hochskalieren, dann käme die Aktie auf 126 * 300/195 = 193,85 Hamsterrad-Punkte - und dies entspräche ziemlich genau der Position von Alphabet in der "Sonstiges"-Wertung.


    Um eine solche Logik in das Hamsterrad-Sheet einzubauen, müsste man
    1. auf dem Blatt "Bewertung" die Punkte für die drei Dividenden-Kategorien nur bedingt auf das Vorhandensein einer Dividende größer als Null berechnen und sonst auf "0" setzen,
    2. die Gesamtpunktzahl mit 300/195 multiplizieren, falls keine Dividende größer als Null vorliegt (wobei sowohl "195" aus auch die "300" nicht fest verdrahtet werden darf, sondern ihr Wert aus den Zellen "Bewertung_Stammdaten.A48", "Bewertung_Stammdaten.A61" und "Bewertung_Stammdaten.A87" aufaddiert und von "Bewertung_Stammdaten.C7" subtrahiert werden muss, um die Konfigurierbarkeit der Stammdatentabellen zu erhalten).

    Dieser Beitrag wurde bereits 9 mal editiert, zuletzt von Bereinigung ()

  • Bereinigung schrieb:

    Um eine solche Logik in das Hamsterrad-Sheet einzubauen, müsste man

    auf dem Blatt "Bewertung" die Punkte für die drei Dividenden-Kategorien nur bedingt auf das Vorhandensein einer Dividende größer als Null berechnen und sonst auf "0" setzen,

    die Gesamtpunktzahl mit 300/195 multiplizieren, falls keine Dividende größer als Null vorliegt (wobei sowohl "195" aus auch die "300" nicht fest verdrahtet werden darf, sondern ihr Wert aus den Zellen "Bewertung_Stammdaten.A48", "Bewertung_Stammdaten.A61" und "Bewertung_Stammdaten.A87" aufaddiert und von "Bewertung_Stammdaten.C7" subtrahiert werden muss, um die Konfigurierbarkeit der Stammdatentabellen zu erhalten).
    Hallo Bereinigung,

    vielen Dank für den Input. Eigentlich ja ganz einfach, nur habe ich gar nicht an die Skalierbarkeit gedacht.
    Das werde ich vermutlich bei mir so einbauen. :)



    Wegen den hier angekündigten weiteren Untersuchungen bzgl. des Mittelwertansatzes:

    Ich bin mittlerweile stark der Meinung, dass die Messung von Wachstum anhand des im Hamsterrad-Sheet praktizierten Mittelwertverfahrens noch weitaus größere Probleme mit sich bringt als zuerst vermutet. Dazu habe ich gestern meine Daten (geometrisches Wachstum vs. "Abweichung vom Mittelwert-Wachstum" des gleichen Unternehmens) verglichen und dabei sind mir z.T. extremste Unterschiede aufgefallen.

    Kurzes Beispiel:


    Hier dargestellt sind die EPS-Werte der Deutschen Post sowie Danone. Ich habe die beiden Werte gewählt, weil beide von 2006-2018e ein sehr ähnliches geometrisches Wachstum von 2,92% (Deutsche Post) und 3,13% (Danone) haben. Rein logisch betrachtet müssten beide Werte also für die Kennzahl "EPS-Wachstum" die gleiche (oder sehr ähnliche) Punktzahl erhalten. Zwar misst das Hamsterrad-Sheet das Wachstum mit dem EPS+360d als Endwert, aber das spielt nur eine untergeordnete Rolle, da die EPS-Wachstumswerte bezogen auf das EPS+360d 2,56% bzw. 2,53% betragen und damit ebenfalls sehr ähnlich sind.

    De facto ist es im Hamsterrad Sheet nun so, dass die Deutsche Post 18/20 Punkte, Danone aber nur 10/20 Punkte erhält. Das ist leider mehr als nur ein "kleiner" Unterschied.

    Leider ist es somit auch nicht so, dass man die Wachstumsraten wie hier dargestellt pragmatisch "übersetzen" und verwenden kann. Diesen Ansatz habe ich in etwas modifizierter Art und Weise umgesetzt, allerdings sind "reale" Daten offenbar nicht ohne weiteres mit konstant wachsenden Datenreihen "kompatibel". Das hatte ich zwar erwartet, allerdings nicht in diesem Ausmaße..

    Denn wenn dem so wäre, dürften keine derartig eklatanten Unterschiede bei der Bewertung auftreten und beide müssten eine Abweichung vom Mittelwert zwischen ~9% und 13,5% aufweisen, welche dann mit jeweils 10 Punkten "vergütet" würde. Tatsächlich beläuft sich die Abweichung vom Mittelwert jedoch auf

    bezogen auf EPS 2018ebezogen auf EPS+360d
    Deutsche Post70,61%59,48%
    Danone27,15%15,73%


    was dann auch die oben dargestellten unterschiedlichen Punktzahlen zur Folge hat.

    Leider scheint das auch kein Einzelfall zu sein (Werte von 2006-EPS+360d):
    Abweichung MittelwertGeometrisches WachstumHamsterrad Punkte
    Accenture50,75%12,45%18
    CVS Health62,47%12,65%20
    Monsanto29,54%12,97%12
    Oracle36,24%12,39%14
    Blackrock49,81%13,42%16
    Sanofi7,65%4,29%8
    P&G13,90%4,36%10
    Linde9,09%4,00%8
    Kellogg10,24%3,79%10


    Bei einer derartigen Streuung der Bewertung - trotz der recht "großzügigen" Skalenschritten von 10% (welche dadurch Teile der Fehler "zudecken") - kann ich leider für mich nicht mehr von akzeptablen Ergebnissen sprechen. Letztlich kommt es teilweise fast einem Dartwurf gleich welche Punktzahl (und damit Rangstelle für den Kauf) mein Unternehmen nun erhält, da allein 55/300 Punkte (18,3%) durch diese Methodik vergeben werden.

    Eine Alternative wäre das besprochene Geomittel oder aber - das teste ich momentan - die Steigung der Geraden (ursprünglich wollte ich die lineare Regression verwenden, welche aber mit hohem exponentiellem Wachstum nicht klarkommt) zwischen "normiertem" Anfangs- und Endpunkt.

    Das Problem an beiden Verfahren ist allerdings, dass a) eine vollständige Datenreihe vorliegen muss, b) dass das geometrische Wachstum Probleme mit negativen Werten und c) beide Verfahren Probleme mit 0-Werten haben.

    a) ist meiner Meinung nach vernachlässigbar, weil ich eine Bewertung für bspw. KraftHeinz gar nicht nach dem "Normalverfahren" vornehmen kann, da dieses Unternehmen noch keine Krise durchlaufen hat. Die Bewertung für ein derartiges Unternehmen ist daher m.E. ohnehin nicht mit der eines Unternehmens, das schon eine Krise durchlaufen hat, vergleichbar.
    b) und c) werde ich so zu beheben versuchen, als dass mein Primärbewertungssystem weiterhin über das geometrische Wachstum läuft und das Sekundärsystem künftig die Steigung misst. Die Bewertungstabelle dazu kann analog zu hier parametrisiert werden.

    Die Steigung ist dahingehend interessant als dass höhere Wachstumsraten eine höhere Steigung zur Folge haben. Konkret berechne ich die Steigung wie folgt:
    Normierung der Werte durch prozentuale Darstellung (Endwert = 1, Anfangswert = Anfang/Endwert) und dann Ermittlung der Steigung durch das Zweipunktverfahren: m=(1-(Anfangswert/Endwert))/(Anzahl der Werte-1)

    Die Normierung ist erforderlich, so dass größere Zahlen (bei gleichem Wachstum) keine größere Steigung zur Folge haben.

    Ob das so funktionieren wird, muss ich noch detaillierter testen. Es scheint aber vielversprechend zu sein.
    Über Anmerkungen oder Verbesserungsvorschläge würde ich mich freuen. :)

    Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von Oliver ()

  • Oliver schrieb:

    Hier dargestellt sind die EPS-Werte der Deutschen Post sowie Danone. Ich habe die beiden Werte gewählt, weil beide von 2006-2018e ein sehr ähnliches geometrisches Wachstum von 2,92% (Deutsche Post) und 3,13% (Danone) haben. Rein logisch betrachtet müssten beide Werte also für die Kennzahl "EPS-Wachstum" die gleiche (oder sehr ähnliche) Punktzahl erhalten. Zwar misst das Hamsterrad-Sheet das Wachstum mit dem EPS+360d als Endwert, aber das spielt nur eine untergeordnete Rolle, da die EPS-Wachstumswerte bezogen auf das EPS+360d 2,56% bzw. 2,53% betragen und damit ebenfalls sehr ähnlich sind.

    De facto ist es im Hamsterrad Sheet nun so, dass die Deutsche Post 18/20 Punkte, Danone aber nur 10/20 Punkte erhält. Das ist leider mehr als nur ein "kleiner" Unterschied.
    Danone wächst zwar kaum noch, liefert aber zumindest stabile Gewinne ohne Ausreißer nach unten ab (wie man dies angesichts seiner nichtzyklischen Branche auch erwarten würde).

    Genau letzteres ist der Grund, wieso die Berechnungsmethode für das Wachstum bei der Deutschen Post nicht funktioniert: Durch den Gewinn-Einbruch in der Finanzkrise (welche an der damals noch im Konzern enthaltenen und später an die Deutsche Bank verkauften Postbank liegen dürfte) sinkt der EPS-Durchschnitt beträchtlich und der aktuelle Wert sieht dadurch "im historischen Vergleich" viel zu gut aus.

    Die Stammdaten-Tabelle "Größter Ergebniseinbruch" vergibt Punkte für EPS-Änderungen im Intervall zwischen +20% und -60%. Im Fall der Deutschen Post brach 2008 das EPS jedoch um mehr als -220% ein (der Verlust war höher als der Gewinn des vorherigen Jahres).
    Ich schließe daraus, dass die Deutsche Post mit dem Hamsterrad-Verfahren grundsätzlich nicht bewertet werden kann (sofern dieser Gewinn-Einbruch nicht durch einen Sondereffekt bedingt sein sollte, der eine Bereinigung erlauben würde). Zumindest nicht bei der Verwendung des KGV - der Buchwert pro Aktie ist in der Finanzkrise auf weniger als die Hälfte abgestürzt (aber immerhin nicht negativ geworden), und das Buchwertwachstum 2006-2018e liegt ebenfalls bei nahezu Null.

    Ich würde das Problem also pragmatisch angehen, d. h. die Deutsche Post aus dem Titel-Universum werfen und ggf. durch den US-Konkurrenten UPS ersetzen (FedEx ist in Sachen Robustheit ähnlich schwach wie Monsanto, das bei der Wachstumsberechnung ebenfalls Probleme verursacht, wie Du gut erkannt hast). Bei diesem wurden die EPS-Ausreißer nach unten in den Jahren 2007 und 2011 durch erkennbare Sondereffekte verursacht, welche über die non-GAAP-EPS-Werte der 8-k-Reports leicht zu bereinigen sind.
    Auch bei UPS liegt die Robustheit nur am unteren Rand des von den Konfigurationstabellen vorgesehenen Bereichs (was kein Wunder ist: Logistik ist nun mal abhängig von konjunkturellen Effekten), und UPS schafft deshalb trotz aktuell historisch normaler Bewertung nur 159 kompatible Hamsterrad-Punkte - das sind aber immerhin mehr als bei der Deutschen Post.

    Überhaupt ist es so, dass die Deutsche Post durch die Trennung von der Postbank ihr Geschäftsmodell innerhalb des betrachteten Zeitraums massiv verändert hat und deshalb Aussagen insbesondere bezüglich der Robustheit nicht ohne Weiteres für das heutige Unternehmen übernommen werden dürfen. Allein dies ist ein Grund, weshalb ich nicht versuchen würde, die Daten der Deutschen Post zu "reparieren". (Ein anderer ist, dass die Deutsche Post ein im Zeitalter der digitalen Kommunikation nicht mehr zeitgemäßes Briefgeschäft als "Altlast" mit sich herum schleppt, was für beide US-Konkurrenten nicht gilt.)

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Bereinigung ()