Wahrscheinlichkeitsrechnungen

image_pdfimage_print

Nach einer Wirtschaftskrise konnte man folgenden Kommentar lesen:

„Das war die schicksalhafte, regelmäßig wiederkehrende Seuche, deren Verwüstungen alle zehn bis fünfzehn Jahre an den so genannten schwarzen Freitagen, den Markt ausfegen und den Boden mit Trümmern übersäen. Es braucht Jahre, bis das Vertrauen zurückkehrt und die großen Bankhäuser wieder aufgebaut sind – bis eines Tages die Spekulationswut, allmählich neu belebt, wieder aufflammt, das Abenteuer von vorn beginnt, eine neue Krise herbeiführt und in einem Desaster alles zum Einsturz bringt.“

Dieser Kommentar wurde nicht nach der Dotcom-Krise in 2000 oder nach der Finanz- und Schuldenkrise in 2008 geschrieben, sondern 1890 in dem Buch von Emile Zola mit dem Titel „Das Geld“ und behandelt eine Krise um das Jahr 1867. Und genau auf diesem Prinzip, dass sich alles wiederholt, bauen die Wahrscheinlichkeitsrechnungen auf.

In der FAZ konnte man im Herbst 2009 lesen, dass Mathematiker, Physiker und Betriebswirtschaftler in der Zertifikate Branche = Investmentbank sehr gute Berufsaussichten haben. Warum wohl?

Insbesondere Mathematiker und Physiker sind sehr stark an der Entwicklung bestimmter und sehr geheimer und komplexer Algorithmen beteiligt, welche auf Basis der statistischen Erkenntnisse aus der Vergangenheit diese in die Zukunft extrapolieren nach dem Motto, dass sich alles wiederholt, nur muss man wissen wie und wann und das ist dann sehr nützlich für die Absicherung der eigenen und der unter Mandat stehenden Risiken zu Lasten anderer Marktteilnehmer.

Diese Analysen = mathematischen Rechnungen = Wahrscheinlichkeitsrechnungen haben sich in den letzten Jahren aufgrund der überaus rasant fortschreitenden, bzw. sich nahezu täglich ausweitenden Rechnerkapazitäten, welche je nach Ausstattung des Computers einige Milliarden Rechenschritte (Tendenz geht zu einigen Trillionen) pro Sekunde, ausführen können, Jahr für Jahr, bzw. Tag für Tag verfeinert und stark verbessert. Mittlerweile können unvorstellbar große Mengen an Daten gespeichert werden, die mit den bekannten Zahlengrößen nicht mehr zu fassen sind. Auch haben sich die Zugriffsmöglichkeiten auf diese Daten enorm verbessert und erfolgen bereits in Sekundenbruchteilen.

In diesem Bereich findet ein regelrechtes Wettrüsten statt. Pressemitteilungen berichten von einem Vierkampf zwischen China, den USA, Japan und Europa um den schnellsten Supercomputer der Welt. Mittlerweile haben sich die USA und Japan zusammengeschlossen, um den Erfolgen von China Paroli bieten zu können.

Weltweit versuchen die Forscher Rechner zu entwickeln, um die Schallmauer von einer Trillion Rechenschritte (tausend Billionen) pro Sekunde, auch Flops (Floating-point operations pro Sekunde) oder auch exaflops genannt, durchbrechen zu können. Das Rechentempo wäre dann 100-mal schneller als das des japanischen Supercomputer K, der in 2011 bereits bestehende hohe Rechnerkapazitäten durchbrochen hatte.

Die weitere Entwicklung ist hier nicht abzusehen, die Grenzen nach oben gibt es praktisch nicht. Mit der Entwicklung solcher hohen Rechnerkapazitäten sind handfeste wirtschaftliche Interessen verbunden und zielen auf Informationsvorsprünge in allen Bereichen der Wirtschaft und damit auf Benachteiligung anderer ab (siehe auch „Hochfrequenzhandel“)

Wenn man den Berichten der Zukunftsforscher Glauben schenken darf, sollen sich diese Kapazitäten schon bald in eine künstliche Intelligenz fortentwickeln und sogar das menschliche Gehirn in etwa 10 Jahren übertrumpfen können. Horrorvisionen wie in den Terminator-Filmen in Szene gebracht, dürften somit bald Wirklichkeit werden. Die hocheffizienten Kampfdrohnen, bzw. sich selbst produzierende Maschinen, allerdings in kleiner Größe, gibt es bereits schon.

Ein Beispiel für sich formierende künstliche Intelligenz gab es bereits schon 1997. In diesem Jahr gelang es erstmals einen Computer mit dem Namen Deep Blue von IBM, den damaligen amtierenden Schachweltmeister Kasparow unter Turnierbedingungen zu besiegen. Damit wurde den Menschen erstmals bewusst, zu welchen Leistungen ein Computer fähig ist. Während Kasparow pro Sekunde drei mögliche Schachzüge durchdenken konnte, waren es bei Deep Blue schon damals 200 Millionen.

Inzwischen sind bereits nahezu zwei Jahrzehnte vergangen, in denen sich auf dem Feld der Computertechnologie eine Menge verändert hat.

Nachrichtenagenturen bedienen sich beispielsweise schon einer gewissen Art von künstlicher Intelligenz. Um die vielen tausend Nachrichten, welche weltweit in kürzester Zeit bei diesen Agenturen hereinlaufen, besser und schneller verarbeiten zu können, werden die Nachrichten von den vielen tausend Journalisten weltweit bereits in Maschinen lesbarer Form verfasst, damit der Computer in einer Mikrosekunde die wichtigsten Nachrichten herausfiltern und an die wichtigsten Abonnenten, hier die zuerst belieferte Finanzindustrie, weitergeben kann.

Physiker versuchen beispielsweise das menschliche Gehirn an einem Supercomputer zu modellieren, also es nachzubauen, um zu verstehen, wie Signale ausgetauscht werden, wie einzelne Teile verknüpft sind und wechselwirken. Beispielsweise will man dadurch aus der Analyse kleiner Verkaufsbewegungen erkennen können, was in den nächsten Millisekunden auf den Märkten passiert, bzw. wie sich solche Finanzsysteme und Marktbewegungen entwickeln (entnommen aus einem Interview des Handelsblattes mit der Experimentalphysikerin Frau Professor Johanna Stachel von der Ruprecht-Karls-Universität in Heidelberg, /­ Frau Stachel forscht derzeit am Large Hadron Collider in Genf, dem derzeit energiereichsten Teilchenbeschleuniger – vor allem über das „Quark-Gluon-Plasma).

Letztlich zielen solche Forschungen im Finanzbereich nur auf einen extremen Informationsvorsprung gegenüber anderen Marktteilnehmern ab, im Endergebnis in Richtung Anleger, der sich auf die vertrauensvollen Aussagen seines ebenfalls nichts ahnenden Wertpapierberaters verlässt.

Manchmal kommt mir diese Forschungssituation und deren Zielrichtung so vor wie in den 40er-Jahren des vorigen Jahrhunderts, als man die Atombombe entwickelt und sich damit nicht bewusst war, dass damit ein Schlüssel zur Vernichtung der Welt geschaffen wurde. Mit den jetzt angestrebten Ergebnissen dieser Forschungen wäre nicht auszuschließen, dass dann ein weiterer diesbezüglicher Schlüssel erschaffen wird, der von keinem Schloss mehr zu halten ist. Stellen Sie sich vor, undemokratische Kräfte gelangen an die Hebel dieser höchst beunruhigenden Möglichkeiten, die bisher bekannten unmenschlichen Diktatoren wären dann reine Kindergärten gewesen.

Bestes Beispiel für den Fortschritt dieser Berechenbarkeit sind die täglichen Wettervorhersagen, die jetzt schon bis zu 5 Tage im Voraus eine hohe Trefferquote verzeichnen können. Hier wird das Ergebnis vieler Messstationen inklusive der Satellitenfotos, die es früher in dieser Qualität nicht gab, eingesetzt und der Saldo dieser Messergebnisse mit den ähnlichen oder gleichen aus der Vergangenheit verglichen, welche dann zu entsprechenden Wetter-Entwicklungen geführt haben.

Da die vielen Messstationen eine ungeheuer hohe Anzahl von Daten liefern, können nur große Rechnerkapazitäten die Entwicklung des Wetters simulieren und somit recht genau vorhersagen.

Ein anderes Beispiel ist das Kreditrating. Siehe hierzu die Ausführungen unter „Kreditrating“.

Mit den Wahrscheinlichkeitsrechnungen angefangen haben eigentlich damit viele Jahrzehnte davor die Lebensversicherungen zur Berechnung von Sterbetafeln, die Grundlage für deren geschäftlichen Erfolg. Die Sterbetafeln ergaben sich wiederum aus statistischen Größen über die Sterblichkeit bestimmter Personengruppen in gewissen Regionen und Lebenslagen, womit die Versicherungsbeiträge entweder gesenkt aber meistens nur angehoben wurden.

Diese Sterbetafeln spielen auch heute noch eine unverändert sehr wichtige Rolle bei der Findung nach profitablen Versicherungsprämien.

Aus meiner jetzigen Tätigkeit sind mir Fälle bekannt, wonach deutsche Initiatoren von geschlossenen Fonds laufende (man nennt sie auch gebrauchte) US-amerikanische Lebensversicherungen auf Basis von falschen Sterbetafeln mit hohen Fremdmitteln aufgekauft hatten in der Hoffnung, durch den früheren Tod dieser Versicherungsnehmer einen schnellen Gewinn erzielen zu können. Das Ergebnis dieser Fonds war allerdings katastrophal und hoch negativ. Die Versicherungsnehmer erfreuten sich stattdessen einer ausgezeichneten Gesundheit und Lebensfreude, womit Sterbefälle und damit einfließende fällige Lebensversicherungspolicen ausblieben, dagegen hohe Zinsen an die Fremdkapitalgeber (u. a.US-Banken) fällig wurden und das Defizit dieses Fonds neben den hohen weichen Kosten des Fondsmanagements somit rasant anwuchs. Am Ende musste der Fonds u. a. aufgrund meiner Intervention den von mir betreuten Investoren ihren Einsatz (allerdings ohne Agio) wieder zurückerstatten. Hinweis: Dieses Finanzprodukt wurde nicht von einer Investmentbank oder einer Finanzproduktvertriebsgesellschaft vertrieben, sondern von einer der großen Publikumsbanken.

Hier lag meines Erachtens die klare Absicht des Verkäufers der „gebrauchten“ Lebensversicherungen vor, die deutschen Investoren aufgrund falscher statistischer Sterbetafeln über den Tisch zu ziehen. Jetzt kann man einwenden, dass der Verkäufer falsche Sterbetafeln bewusst erstellt oder alte, nicht mehr aktuelle verwendet hatte. Dieser Verkäufer war allerdings eine US-Makler-Gesellschaft, welche nicht über solche großen und teuren Rechnerkapazitäten verfügen dürfte und sich angeblich auf offizielle Sterbetafel gestützt hatte. Diese müssen aber aus der „Wahrscheinlichkeitsküche“ einer Versicherungsgesellschaft mit entsprechenden Kapazitäten erstellt worden sein und jetzt kann man darüber philosophieren, ob das mit Absicht geschehen ist oder nicht.

Jetzt überlasse ich es der Phantasie der Leser, wie mit den Ergebnissen statistischer Erkenntnisse umgegangen werden kann, insbesondere dann, wenn diese Ergebnisse hauptsächlich aus den USA oder aus Großbritannien kommen, aus Ländern, welche die Banken der Welt dominieren und schließlich auch lenken, und wie jetzt bekannt, die Welt auch aushorchen. Jedenfalls unterliegt dieser Bereich in der Wirtschaft keinerlei Kontrolle und dieser Umstand wird meines Erachtens auch für den stillen und leisen, aber heftigen Wirtschaftskrieg USA versus den Rest der Welt genutzt.

Diese Technisierung der Finanzgeschäfte, welche in den letzten Jahren auch den Hochfrequenzhandel entstehen ließ (siehe hierzu die Ausführungen unter „Hochfrequenzhandel)  beinhaltet aber auch extreme Risiken für die Anleger selbst. Wo die Reise bei Dollar, DAX & Co. hingeht weiß nur ein kleiner Kreis innerhalb der Finanzinstitute (Research) und wird entsprechend nutzbringend ausgenutzt zur Strukturierung  von Finanzprodukten zwecks Absicherung der eigenen oder der unter Mandat stehenden Risiken. Die hohen Gewinne der Investmentbanken und das zwischenzeitlich hohe Provisionsergebnis aller Banken, inklusive der Volksbanken und Sparkassen, welches im Wesentlichen über von den Investmentbanken strukturierte und daher mit hohen Verkaufsprovisionen eingesammelt wird, ist der beste Beleg dafür.

Inzwischen liefern diese Wahrscheinlichkeitsrechnungen eine so erschreckend hohe Treffergenauigkeit, dass man schon von Insiderwissen sprechen kann und Insiderwissen ist bekanntlich illegal oder benachteiligt zumindest den anderen Marktteilnehmer massiv.

Dieses (Insider)Wissen wird nicht nur für eigene Zwecke = Eigenhandel sehr erfolgreich genutzt, sondern auch für die  Akquisition von Geschäfts- und Privatkunden.

So wurde bei einem meiner Mandanten von einem größeren Bankinstitut ein Stresstest über ein Depot eines Konkurrenzinstitutes durchgeführt und dieser wie folgt begründet:

„Die Kapitalmarktexperten der Finanzbranche führen regelmäßig finanzmathematische und statistische Simulationen durch, um die Auswirkungen von bestimmten Ereignissen auf Ihre Geldanlagen zu prüfen. In Form des für Ihr Depot durchgeführten Stresstests wird die Entwicklung der enthaltenen Wertpapiere in einem bestimmten angenommenen Szenario simuliert. Für die Simulation des Stressszenarios werden alle zur Analyse verwendeten Parameter durch Einschätzungen von Experten vorab festgelegt“.

Dies zu kommentieren erübrigt sich und unterstreichen die bisherigen Aussagen.

 

Juli 2013

Elmar Emde

Autor des Buches “Die strukturierte Ausbeutung”

Siehe auch http://www.emde-fiveko.de

Teilen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.