Administrator hat noch keine Informationen über sich

Neue Krise – was gelernt?

Nachfolgend kommen zwei Stimmen zu Wort. Sie beschäftigen sich mit der nächsten Finanzkrise, die beide anrollen sehen. Die eine Stimme erhebt William White, ehemaliger Chefökonom der BIZ. Die andere, ungleich radikalere, lässt L. Randall Wray ertönen, Wirtschafts-Professor an der Universität von Missouri-Kansas City.

White hatte während seiner aktiven Zeit bei der BIZ u.a. im August 2005 beim Notenbanker-Treffen in Jackson Hole vor den Risiken einer überbordenden Kreditexpansion gewarnt. Er sagte jetzt in einem Interview mit der schweizerischen „Finanz und Wirtschaft“, ein Kollaps wie der von Lehman Brothers mit allen Folgen könne sich jederzeit wiederholen. Das Grundproblem sei nämlich geblieben – eine massive Anhäufung von Schulden in den entwickelten Volkswirtschaften bei zu vielen schlechten Krediten mit immer schwächeren Anforderungen für die Kreditvergabe.

In den G-20-Ländern sind die privaten und öffentlichen Schulden aktuell 30% höher als zu Beginn der Finanzkrise. Hinzu kommt, dass sich der Geldfluss in die Emerging Markets seit 2007 beschleunigt hat. Die seit 20 Jahren lockere Geldpolitik in den entwickelten Ländern hätte zu einer Aufwertung der Schwellenländerwährungen führen müssen. Aber diese Länder drucken lieber ebenfalls Geld, um das zu vermeiden. Das hat zu einer Geldflut in diesen Ländern geführt, das Ende eines weiteren Boom-und-Bust-Zyklus kündigt sich an, sagt White.

Diese Zyklen werden politisch nicht verhindert, weil der Wille fehlt, die notwendigen Reformen gegen starke Interessengruppen durchzusetzen. Da ist es einfacher zu glauben, billiges Geld reiche, um das Problem zu lösen. Fed-Chef Bernanke z.B. glaubt, eine Kreditkrise könne durch freigiebige Liquiditätspolitik gelöst werden. Genau das aber ist die Ursache für die aktuelle Situation und führt zu einer neuen Krise in den Schwellenländern.

Die Botschaft des diesjährigen Treffens der Notenbanker in Jackson Hole lautete, die Länder mit einer lockeren Geldpolitik hätten keine Verantwortung für den Effekt auf andere Länder zu übernehmen; diese könnten sich ja durch Aufwertung schützen. Wie in der Eurozone auch, so wird alle Verantwortung den Schuldnern zugeschrieben. Das sei verrückt, sagt White. Denn die Kreditvergabe lag in der Verantwortung der Gläubiger.

Nach White sind die durch die monetären Stimuli von Fed & Co ausgelösten Ausgaben seien nicht stark und nachhaltig genug, um das Wirtschaftswachstum wieder auf die langfristige Trendrate zu bringen. Stattdessen würde eine andere Politik benötigt. Dazu müssten Länder mit Leistungsbilanz-Überschüssen eine expansive Fiskalpolitik betreiben. Außerdem müsste öffentlich und privat mehr investiert werden. Weiterhin ist eine klare Schuldenreduzierung nötig, zu viele Schulden würden niemals zurückgezahlt werden. Banken müssen nach Abschreibung von Schulden rekapitalisiert werden. Dann sind auch Strukturreformen erforderlich. Davon sehen viele überschuldete Länder aber ab, weil sie zum großen Teil den Gläubigern zugutekommen. Erst nach einem Schuldenschnitt wären solche Reformen wieder im Interesse des Schuldners.

Continue reading
  10119 Hits
10119 Hits

Kauft Bonds!





Die Rendite zehnjähriger US-Staasanleihen ist in der Zeit zwischen Mai und Anfang September um rund 85% angestiegen. Das ist einer der höchsten und schnellsten Anstiege in der US-Geschichte. Er führte in den Anleihemärkten rund um die Welt zu Verwerfungen und hat auch deutliche Spuren im US-Immobiliensektor hinterlassen.

Noch ein Rekord: Der Renditeanstieg seit dem Boden im Juli 2012 beträgt 115% und ist damit der größte zyklische Anstieg in den zurückliegenden 50 Jahren. Auf Rang zwei kommt der Anstieg um 94% zwischen Dezember 2008 und April 2010. Die aktuelle Bewegung vom Tief zum Hoch nähert sich der durchschnittlichen Dauer solcher Bond-Bär-Märkte, die bei 423 Tagen liegt.

 

Ist das Kurs-Tief bei Bonds erreicht, bzw. das Rendite-Hoch, dann ist gemäß dem Durchschnitt über die jüngsten 16 Zinszyklen ein Rendite-Fall um 35% zu erwarten, heißt es bei Guggenheim Investments. Wenn man 3% als Rendite-Topp unterstellt, wäre zu erwarten, dass sie auf unter zwei Prozent sinkt, bevor ein erneuter Bär-Markt bei Bonds einsetzt. Steigt die Rendite zunächst noch weiter, z.B. auf 3,5%, so wären 2,25% als Zielmarke zu erwarten.

 

Neben diesen technischen Argumenten aus der Geschichte gibt es auch fundamentale Aspekte, die für ein solches Szenario sprechen. Die Fed selbst hat aktuell ihre Wachstums-Projektionen zurückgenommen. Jetzt sollen es in 2013 nur noch 2% bis 2,3% werden (Projektion im Juni: 2,3-2,6%). Für 2014 wird plus 2,9-3,1% erwartet (Projektion im Juni: 3,0-3,5%).

Continue reading
  12661 Hits
12661 Hits

Herdentrieb vor rationalem Handeln

Eine aktuelle Untersuchung von Jennie Bai, Thomas Philippon und Alexi Savov mit dem Titel “Have Financial Markets Become More Informative?“ kommt zu dem Ergebnis, dass der Verlauf von Aktienkursen und Anleihe-Preisen die Profitabilität von Unternehmen heute keineswegs besser vorhersagt als vor 50 Jahren.

Das erstaunt, schließlich ist das zur Verfügung stehende Datenvolumen stark angewachsen, der Handel ist liquider geworden. Die Zahl der börsennotierten Unternehmen ist gestiegen, die Handelsvolumina haben zugenommen, die Transaktionskosten sind gesunken.

Börsen beziehen ihre Berechtigung für die Realwirtschaft daraus, dass sie für eine volkswirtschaftlich effiziente Allokation von Kapital sorgen. Gut positionierte Unternehmen sollten leicht an Geld kommen. Ein wesentlicher Maßstab ist dabei die Gewinnentwicklung. Die Kurs-Reaktion auf firmenpolitische Entscheidungen sollte über effektive Börsen einen Hinweis geben, ob diese von den (potenziellen) Anteilseignern positiv oder negativ bewertet werden.

Börsen sollten in diesem Sinne bewirken, dass die Marktteilnehmer, immer besser informiert, zu immer rationaleren Entscheidungen kommen. Sie sollten so in die Lage versetzt werden, die zukünftige Entwicklung besser vorhersagen zu können.

Die Autoren haben zwar eine engere Beziehung zwischen Aktienkursen und Ausgaben für Forschung und Entwicklung gefunden, aber auch das führt nicht dazu, dass der Verlauf der Kurse die Gewinne besser vorhersagbar macht. Sie kommen insgesamt zu dem Schluss, dass der Grad der Informiertheit heute nicht höher ist als vor 50 Jahren.

Gleichzeitig hat die Informationstechnologie auch in den Finanzmärkten Einzug gehalten, ist immer leistungsfähiger geworden. Als eine mögliche Erklärung dieses Widerspruchs geben die Autoren an, der Einsatz von Computern habe das Speichern und Übertragen von Informationen zwar effektiver gemacht, gleichzeitig werden aber auch immer mehr Informationen produziert. Demgegenüber blieb deren Verarbeitung zurück, die Computer im Finanzwesen sprechen nach den Worten von Herbert Simon (1996) mehr als dass sie zuhören und denken.

Continue reading
  9024 Hits
9024 Hits

Chimerica – naht das Ende?



Der Begriff Chimerica wurde 2006 von dem Historiker Niall Ferguson und dem Ökonomen Moritz Schularick geprägt und meint die Symbiose der Volkswirtschaften von China und Amerika.

Chimerica“ spielt bewusst auf „Chimäre“ an, in der griechischen Mythologie ein feuerspeiendes Mischwesen, ein Ungeheuer mit drei Köpfen. Chimerica hat nach Ansicht der Autoren massive und gefährliche Verwerfungen in der Weltwirtschaft hervorgerufen, deren Berichtigung ernste Konsequenzen nach sich zieht. Auch Fabelwesen leben nicht ewig.

 

China hat sich zum globalen Waren-Produzent entwickelt und verwendete die Exporterlöse, um den USA zinsgünstige Kredite zum Kauf dieser Waren zu gewähren. In den USA bewirkten diese Kredite eine starke Ausweitung des Konsums, China profitierte durch Vollbeschäftigung und starkes Wirtschaftswachstum. Der massive Kauf von US-Staatsanleihen durch China hielt den Kurs des Yuan niedrig und begünstigte so die chinesische Exportwirtschaft.

 

Der günstige Verfügbarkeit chinesischen Kapitals für amerikanische Unternehmen und Haushalte wird von den Autoren als wesentliche Ursache für den Boom in den 2000er-Jahren angesehen. Auch Hedgefonds und Private Equity-Gesellschaften nutzten die günstigen Kredite und bauten damit hohe Schuldenhebel auf. Die hierdurch begünstigte Kreditblase, zu einem wichtigen Teil im Haus-Sektor, platzte schließlich im Herbst 2008.

Continue reading
  10727 Hits
10727 Hits

Eurokrise – bald neues Aufflammen?


Seit dem Frühsommer 2012 wird die europäische Finanzkrise vertagt, die Symptome der zugrundeliegenden Ursachen werden seitdem unterdrückt. Das geschah durch eine Kombination von Sparprogrammen, Abschreibungen, das Vorhaben einer Bankenunion, die Einrichtung des ESM und nicht zuletzt durch die Aussage von EZB-Chef Draghi, alles zu tun, was erforderlich ist, um den Euro zu retten.

Die relative Finanzstabilität zeigte sich auch darin, dass die Zinsen in der südlichen Peripherie fielen und die Aktienmärkte anstiegen, ohne dass es eine Erholung der Realwirtschaft gab.

Die Austerität hat es nicht geschafft, öffentliche Finanzen und Schulden zu kontrollieren, Steuererhöhungen und Einschnitte bei den öffentlichen Ausgaben haben zu wirtschaftlicher Kontraktion beigetragen. Die Staatseinnahmen gingen zurück, die Ausgaben für die „sozialen Netze“ stiegen mit der zunehmenden Arbeitslosigkeit. Die Budget-Defizite bleiben erhalten, teilweise auf reduziertem Niveau, die Schuldenquoten steigen weiter.

Einige Länder der Eurozone machten außergewöhnliche Umstände geltend, folglich wurden Ausnahmen gemacht. Aber auch die aufgeweichten Ziele bei der Reduktion von Defizit und Schuldenstand dürften verfehlt werden.

Weitere Abschreibungen von Staatsschulden, um auf vernünftige Schuldenpegel zu kommen, sind problematisch. Öffentliche Hände besitzen große Anteile hieran, Abschreibungsverluste landen letztlich bei den Steuerzahlern. In Deutschland hat die Regierung (vor der anstehenden Bundestagswahl…) den Wählern wiederholt versichert, dass die Bailouts für sie ohne Risiko sind.

Das OMT-Programm der EZB erlaubt es, unbegrenzte Beträge von Schulden von Eurozonen-Ländern zu kaufen. Es gilt als Erfolg, wurde bisher aber nicht tätig und daher steht die Nagelprobe noch aus. Das OMT-Programm steht zudem auf rechtlich unsicheren Füssen, das deutsche BVG wird im Herbst hierüber urteilen. Für Länder wie Italien oder Spanien ist es mittlerweile problematisch, Hilfe hieraus in Anspruch zu nehmen, weil ihre Steuerzahler im Falle einer späteren Restrukturierung der Staatsschulden über ihre Bankguthaben zur Kasse gebeten werden können, wenn Banken dabei in Schieflage geraten.

Continue reading
  10691 Hits
10691 Hits

"Nicht sinnvoll, alles nutzbar zu machen"

Mehr und mehr Infokanäle in Unternehmen: Wie groß ist der tatsächliche Mehrwert? Denn wenn alle alles nutzen, funktioniert die Kommunikation nicht mehr.

Unlängst erzählte mir ein Bekannter von folgender Situation: Er saß in einem Meeting und erkannte, dass ihm im Gegensatz zu den anderen Meetingteilnehmern eine wesentliche Information fehlte. Anfänglich peinlich berührt, ärgerte er sich rasch, denn die Information war über einen neuen Kommunikationskanal verschickt worden. Mein Bekannter hatte sich bei dem Kanal erst eine Woche davor registriert und dem noch nicht viel Bedeutung geschenkt.

Kennen Sie solche oder ähnliche Vorfälle? »Wann denn?«, hieß es früher auf die Aussage: »Aber das habe ich Ihnen doch geschickt!«. Heutzutage fragt man auf so einen Satz besser: »Wohin denn?«

Wir sind in unserer Arbeit und auch in unserem Privatleben pausenlos von Kommunikation, Wissen und Information umgeben. Unsere Mitmenschen versuchen uns über unterschiedliche Kanäle zu erreichen. Es sind Kommunikationspfade, die leider die Angewohnheit haben, bestehende Wege nicht zu ersetzen, sondern parallel dazu zu existieren. »Aber Kommunikation und Information sind doch das A und O in unserer Wissensgesellschaft«, höre ich da Stimmen laut werden, und ich pflichte ihnen völlig bei. Die Schwierigkeiten kommen allerdings dort auf, wo es schlicht und ergreifend zu viel wird. Zu viel Information, zu viel Wissen und vor allem zu viele Kanäle, über die wir uns austauschen.
 
Kanalisierte Infofluten
Wir alle bekommen zahllose E-Mails am Tag, die alle gelesen werden wollen, oftmals mit großen Verteilerlisten (damit auch andere etwas davon haben). Vielleicht klingelt hin und wieder das Festnetz. Das Handy klingelt jedenfalls definitiv oft. Manchmal heben wir ab, manchmal geht der Anruf auf die Sprachbox, die dann natürlich abgehört werden will. Privat sind wir auf Facebook, das immer wieder in Ansätzen auch beruflich genutzt wird, wie mir auffällt. Wir sind auf Xing vernetzt und auf LinkedIn und wo auch immer noch. Wir nutzen Skype und im beruflichen Kontext vielleicht Lync. Und die ganz fortschrittlichen Unternehmen haben auch noch ihre eigenen Social-Collaboration-Tools im Einsatz, über die sich Mitarbeiter und wenn gewünscht auch Externe über Projekte und Themen austauschen können.

Bei all diesen vielen Kanälen, über die wir uns fleißig austauschen, stellt sich für mich schon die Frage nach der Sinnhaftigkeit. Wie groß ist der tatsächliche Mehrwert gegenüber dem Risiko, buchstäblich aneinander vorbei zu kommunizieren? Denn wenn alle alles nutzen, funktioniert die Kommunikation nicht mehr.

Weniger ist mehr
Eine Lösung könnte sein, nicht mehr jedem Mitarbeiter jeden Kommunikationskanal und jedes Tool zur Verfügung zu stellen, sondern im Gegenzug Gruppen zu definieren. Diese Mitarbeitergruppierungen könnten anhand der Mobilität der Mitarbeiter, ihres Kommunikationsverhaltens – welche Apps und Tools werden genutzt, wird in Excel oder SAP gearbeitet – und Sensibilität der Informationen erfolgen. Jemand, der mit hochsensiblen und strategischen Informationen arbeitet, sollte nicht im Webcafé darauf zugreifen können. Andersrum wäre es verkehrt, einem Kundenbetreuer den mobilen Zugriff auf Unternehmensdaten einzuschränken. Aber brauchen Mitarbeiter auch in der Buchhaltung tatsächlich Lync auf ihrem Laptop? Es finden sich noch viele weitere Beispiele. Wenn Sie solche Gruppen definieren, wird sich rasch herausstellen, dass diese sich wenig an hierarchische Überlegungen koppeln, sondern rein die Arbeitsweise der Mitarbeiter widerspiegeln. Die Gruppen können sich somit quer durchs Unternehmen ziehen.

Ein nächster Schritt wäre dann, gemäß den Bedürfnissen dieser Gruppen zu bestimmen, welche Tools und Kanäle genutzt werden, und ob Sie den Zugriff auf unternehmensintern beschränken oder auch extern zulassen. Auf diese Weise sparen Sie nicht nur an Kosten, die für Software, Hardware oder Lizenzen anfallen, sondern Sie reduzieren auch die genannten Leerzeiten, in denen man zig Kanäle nach den richtigen Informationen durchsuchen muss. All dies sollte nicht passieren, um jemanden einzuschränken. Kanäle und Kommunikation haben aber bereits ein derartiges Ausmaß angenommen, dass allen alles nutzbar zu machen nicht sinnvoll ist.

  16413 Hits
16413 Hits

Mobile Worker fordern IT heraus

Der mobile Arbeitsplatz wird zur Selbstverständlichkeit. Doch wie soll seine technische Infrastruktur gestaltet sein, damit Arbeitgeber und Nutzer zufrieden sind?

Bereits heute bieten laut der Cisco-Studie „Workplace of the Future“ etwas mehr als ein Viertel aller Unternehmen ihren Mitarbeitern mobile Arbeitsplätze an. Zwei Eigenschaften prägen diese Arbeitsplätze heute: der Mobilitätsgrad und die Art der Arbeit.

Klarer Trend
Der Mobilitätsgrad ist durch den Arbeitsradius bestimmt. Laut „Mobile Workforce Survey 2012“, einer globalen Unternehmensumfrage von Novacrea Research Consulting in Zusammenarbeit mit The Future of Work Unlimited, wird zwischen intern mobilen, lokal mobilen und remote mobilen Arbeitsplätzen unterschieden. Intern mobil bedeutet, dass innerhalb des Firmengeländes, jedoch nicht am Arbeitsplatz gearbeitet wird. Lokal mobile Arbeitsplätze erlauben es, regelmäßig einen oder mehrere Tage in der Woche von zu Hause oder einem anderen Ort aus zu arbeiten. Remote mobile Arbeitsplätze sind für Personen gedacht, die weit weg vom Firmengebäude arbeiten und nur selten auf dem Firmengelände anzutreffen sind.

Mehr als die Hälfte aller mobil arbeitenden Personen sind gemäß der Cisco-Untersuchung hauptsächlich mit Arbeiten beschäftigt, die eine Form von Interaktion mit anderen erfordert – also Sitzungen (23 Prozent der Arbeitszeit), Telefongespräche (25 Prozent) oder auch andere Arten der Online-Zusammenarbeit (sieben Prozent).

2020 möchten 90 Prozent der Unternehmen mobile Arbeitsplätze zur Verfügung stellen. Damit sie dieses Vorhaben umsetzen können, müssen sie die heute gängige Praxis der vorgeschriebenen Arbeitsgeräte, der nur eingeschränkt zur Verfügung stehenden IT-Systeme und der engen Zugangsbeschränkungen auf Anwendungen und Daten verändern. Selbst Telefonie und Mail – die heute zur Verfügung stehenden Hauptkommunikationsinstrumente – sind in naher Zukunft stark zu verbessern.

Darüber hinaus ist es notwendig, die beiden wichtigsten Faktoren, Anwendungen und Daten, den Nutzern so zur Verfügung zu stellen, dass die interne IT die verschiedenen mobilen Arbeitsformen unterstützt.Intern mobil Arbeitende verbringen jeden Tag in einem Bürogebäude des Unternehmens, sind jedoch die meiste Zeit nicht an ihrem Arbeitsplatz. Eine ideale Arbeitsumgebung muss innerhalb der Firmengrenzen mitwandern und darf nicht fest an irgendein Gerät gebunden sein. Nur dann können sich intern mobil Arbeitende innerhalb der Firmengrenzen frei bewegen. Lokal mobil arbeitende Personen, die regelmäßig einen oder mehrere Tage in der Woche von zu Hause oder einem anderen Ort aus arbeiten, brauchen den gleichen sicheren und umfassenden Zugriff auf Anwendungen und Daten, den sie innerhalb des Firmengeländes haben.

Remote mobile Mitarbeiter, die weit entfernt vom Firmengebäude arbeiten und nur selten oder gar nie dort anzutreffen sind, benötigen diesen Zugriff ebenfalls – mit einem Unterschied: Sie brauchen ihn rund um die Uhr. Darüber hinaus sind Kommunikationsinstrumente notwendig, die eine physische Sitzungspräsenz weitgehend ersetzen – beispielsweise Videokonferenzen.

All diese Instrumente sind in die Organisationsabläufe des Unternehmens zu integrieren. Das erfordert nicht nur die Bereitschaft zu größeren Investitionen, sondern auch ein Umdenken auf Ebene der Unternehmen, die mobile Arbeitsplätze nicht nur als betriebswirtschaftliches Instrument der Rationalisierung sehen, sondern in ihre Unternehmenskultur integrieren.

24x7 Zugriff auf Daten
Die neuen Instrumente, die eine IT bereitstellen muss, werden sich von den heutigen Anwendungen stark unterscheiden. Sie unterstützen verschiedenste Plattformen und Geräte. Mobile Workers verfügen dank neuer Infrastrukturen künftig rund um die Uhr über einen sicheren Zugriff auf Daten und Dokumente – ganz gleich, wo sie sich gerade aufhalten. Die Unternehmens-IT wird sich in Zukunft flexibel an solche neuen Arbeitsmodelle anpassen und exakt da sein, wo sich gerade der mobile Arbeitsplatz befindet.

  15043 Hits
15043 Hits

Neues vom “japanischen Experiment”


Im April hatte die japanische Regierung unter Ministerpräsident Abe das größte QE-Programm aller Zeiten angekündigt. Mit einem Umfang von 25% des BIP, bzw. 1,4 Bill. Dollar, und einer Laufzeit von zwei Jahren übertrifft es sogar alle QE-Aktivitäten der Fed. Die haben sich in den zurückliegenden vier Jahren auf vergleichsweise bescheidene 16% des US-amerikanischen BIP summiert. Würde die Fed dem japanischen Vorbild folgen, müsste sie QE-Programme im Volumen von 3,75 Bill. Dollar auflegen.


Die Abenomics genannte „neue“ japanische Wirtschaftspolitik sollte das Land aus der seit zwei Dekaden anhaltenden Deflationsspirale heraus katapultieren und der Wirtschaft einen nachhaltigen Wachstumsimpuls geben.

Neu an dieser Wirtschaftspolitik ist allerdings bestenfalls der Name und ihr Ausmaß – die Rezepte sind im Grunde nichts anderes als Keynessche Anreizpolitik. Diese mag unter bestimmten Bedingungen zeitweiliges Wachstum initieren, in einem deflationären Umfeld mit hoher Liquiditätspräferenz ist ein dauerhafter Impuls allerdings mehr als zweifelhaft.

Jetzt wurden die ersten BIP-Zahlen nach Beginn dieses „einmaligen Experiments“ gemeldet. Das japanische Bruttoinlandsprodukt ist demnach im zweiten Quartal gegenüber dem Vorquartal nur um 0,6% angewachsen. Die bereits zuvor gesenkten Erwartungen von plus 0,9% wurden damit deutlich verfehlt.

Abe hätte es eigentlich wissen müssen: Die verschiedenen Regierungen haben in den zurückliegenden 20 Jahren bereits schon QE-Programme im Wert von zusammengerechnet rund 25% des BIP aufgelegt.

Japans Industrieproduktion ist im Juni um 3,3% gegenüber Mai zurückgegangen. Gleichzeitig ist der japanische Verbraucherpreisindex zum ersten Mal in den zurückliegenden 14 Monaten angestiegen. Der Zuwachs war zugleich der größte seit 2008, als die Rohstoffpreise auf Rekordflug waren.

Continue reading
  11881 Hits
11881 Hits

Bernanke, was ist los?





Was ist los mit Fed-Chef Bernanke? Bis vorgestern hatte er eher den Eindruck erweckt, dass er die QE-Aktivitäten der Fed schon im Spätjahr reduzieren will. Nun hat er verlautbart, dass in der näheren Zukunft weiterhin ein hohes Maß davon gebraucht würde. Die Arbeitslosenquote von gegenwärtig 7,6% stelle den Zustand des Arbeitsmarktes zu positiv dar. Und selbst wenn die Ziel-Arbeitslosenquote von 6,5% erreicht ist, würden die Zinsen noch für einige Zeit nicht angehoben werden.

Finanzmarkt-Akteure hatten sich von der gestrigen Veröffentlichung des Protokolls der jüngsten FOMC-Sitzung mehr Klarheit über den künftigen geldpolitischen Kurs erhofft. Das Protokoll ergab aber, dass die Mitglieder sich über den richtigen Zeitpunkt für die Reduzierung der aktuellen Anleihekäufe nicht einig waren. Die Märkte hatten darauf mit lediglich geringen Ausschlägen reagiert. Als aber die nach Börsenschluss erfolgten „pro QE“-Äußerungen von Bernanke bekannt wurden, war die Reaktion umso heftiger. Die US-Aktien-Futures brachen nach oben aus, der Dollar-Index fiel scharf, der Goldpreis stieg kräftig an, Bonds waren auf einmal wieder stark gesucht, Edelmetalle befestigten sich.

 

In den zurückliegenden Tagen kannte der Dollar-Index nur eine Richtung, die nach oben, weil sich die Akteure an den Finanzmärkten auf ein baldiges Ende der extrem lockeren Geldpolitik einzustellen begannen. Der Dollar-Index war am Vortag auf den höchsten Stand seit drei Jahren geklettert. Nach der Wortmeldung von Bernanke fiel der Index per EoD um 1,8%, eine Tagesbewegung, die zuvor nur auf der Höhe der Finanzkrise beobachtet worden war.

 

Die langfristigen US-Zinsen hatten nach dem Allzeittief Mitte 2012 Anfang Mai ein wichtiges zyklisches Tief markiert. So kamen die 10-jährigen Zinsen für US-Treasurys auf unter 1,64%, aktuell liegen sie bei 2,65%, also gut 62% höher. Eine ähnliche Bewegung gab es auch bei den 30-jährigen Zinsen, die ihr Tief bei rund 2,83% hatten und nun bei gut 3,64% liegen. Hier beträgt der Aufschlag knapp 30%. Die 30-jährigen Hypothekenzinsen sind im gleichen Zeitraum von 3,4% auf 4,6% angestiegen, ein Anstieg um 35%, zugleich der größte drei-Monats-Zuwachs seit 2004.

Continue reading
  10480 Hits
10480 Hits

China: Bankenkrise voraus?


In China wächst die Angst vor einer Schuldenkrise. Hintergrund ist die sich abschwächende Wirtschaftsdynamik des Landes. Besonders kritisch wird das chinesische Schattenbankensystem beäugt.

Die Peoples Bank of China, die Zentralbank des Landes, signalisierte in den zurückliegenden Tagen, gegen das ungezügelte Kreditwachstum vorgehen zu wollen. Die chinesischen Aktienmärkte quittierten das am Montag mit dem größten Tagesverlust seit nahezu vier Jahren. Am Dienstag beruhigte der Vize-Direktor der PBoC, die “Liquiditätsrisiken im Interbankenmarkt seien weitgehend unter Kontrolle”, der “Anstieg der Zinsen auf dem Geldmarkt nur temporär”.

Tatsächlich hatten die chinesischen Geldmarktzinsen am zurückliegenden Donnerstag ein EoD-Allzeithoch bei 11,62% erreicht. Aktuell sind sie wieder deutlich gesunken, bleiben aber immer noch erhöht – ein Zeichen für Stress im Interbanken-Geldmarkt.

Bereits Anfang Juni hatte die PBoC bereits die Liquiditätsversorgung des Interbankenmarktes eingeschränkt. Sie habe den Liquiditätsengpass bewusst herbeigeführt, um die ungezügelten Aktivitäten der Schattenbanken einzudämmen, heißt es. Die chinesische Zentralbank hatte schließlich am Montag erklärt, die Finanzinstitute des Landes müssten „ihre Liquiditätssteuerung weiter stärken, um die Stabilität im monetären Umfeld zu fördern.”

Erinnerungen an den amerikanischen Subprime-Hypotheken-Boom werden wach, der schließlich 2008 zum Ausbruch der Finanzkrise führte. Schattenbanken sind bereit, riskante Projekte zu finanzieren, arbeiten weitgehend unreguliert und eröffnen traditionellen Banken die Möglichkeit, problematische Kredite abzuladen. Sie beziehen ihre Mittel über Kredit bei regulären Banken, aber auch bei wohlhabenden privaten Anlegern, die höhere Renditen als bei traditioneller Anlage suchen. Dabei verpacken Schattenfinanzierer die von ihnen ausgereichten Kredite, oft gebündelt, in ein hoch verzinstes Investmentprodukt, das sie an Anleger verkaufen. Von einer Liquiditätsverknappung sind die Schattenbanken besonders betroffen, weil die regulären Banken zuerst ihren eigenen Mittelbedarf decken und somit weniger für Schattenbanken zur Verfügung steht.

Ohne Frage sitzen chinesische Banken auf riesigen faulen Krediten. Über deren genaue Höhe kann man nur spekulieren. Anhaltspunkte sind: Chinas Banken haben über 1,5 Bill. Dollar über teils dubiose Finanzierungsvehikel an lokale Regierungen ausgeliehen – in der Hoffnung, der Staat werde einspringen, wenn die Kredite notleidend werden. In den zurückliegenden zwei Quartalen wurden rund 1,6 Bill. Dollar, mehr als 20% des BIP, an neuen Krediten in die Wirtschaft gepumpt – und das bei sinkenden Wachstumsraten. Die Ratingagentur Fitch rechnet damit, dass die alle ausstehenden Kredite zusammen mittlerweile das doppelte des realen BIPs ausmachen.

Continue reading
  9239 Hits
9239 Hits

Stolpersteine und Hürden aufgelöst

Unternehmen auf dem steinigen Weg in die neue Welt des Arbeitens: Die Zeiten sind vorbei, wo eine einzige Lösung Geltung für alle hatte.

In letzter Zeit hatte ich sehr häufig die Gelegenheit, bei Workshops, Konferenzen, Vorträgen und Podiumsdiskussionen zum Thema »Neue Welt des Arbeitens« teilzunehmen, manchmal als Zuhörer, manchmal als Vortragender. Egal auf welcher Seite des Mikrofons ich aber auch gesessen bin – ich war fasziniert von der spürbaren Präsenz und Wichtigkeit dieses Themas bei den unterschiedlichsten Teilnehmern. Manche hatten sich schon tief in die Materie hineingedacht, manche interessierte das Thema auf einen bestimmten Aspekt bezogen und andere waren bereits mitten in der Umsetzung. Etwas, dass allerdings alle interessierte, war das Thema »mobiles Arbeiten«. Es ist ein Sachverhalt, der auf den ersten Blick banal erscheint – nach dem Prinzip: Na gut, geben wir den Mitarbeitern Laptops und Datenkarten, und schon können sie arbeiten, wann und wo sie wollen. Bei einem näheren Blick eröffnen sich dann allerdings erst die Größe und Komplexität des Themas mit all seinen vielen Unterpunkten.

Mobilität bringt Produktivität
Aspekte wie Betriebsvereinbarungen zum Thema mobiles Arbeiten, die aufgesetzt werden wollen, Änderungen in der Mitarbeiterführung, die sich daraus ergeben, wenn – etwas überspitzt formuliert – plötzlich niemand mehr im Büro ist, oder die Sicherstellung, dass sensible Daten nicht in die falschen Hände geraten. Oder auch das banale, aber immer wieder durchsetzungsstarke Thema der Kosten. Das gesamte Unternehmen mit Laptops und Datenkarte auszustatten, kann durchaus kostenintensiv werden. Vor allem, wenn dann auch noch Rufe nach Tablet-PCs aus dem Unternehmen laut werden. Was also tun? Das Thema auf sich beruhen zu lassen, ist keine vernünftige  Option. Gänzlich ohne jede Mobilität zu arbeiten, kann sich recht rasch in saftige Produktivitätseinbußen übersetzen und in die Erfolgskassa des Mitbewerbs einzahlen. Abgesehen davon, dass ihr Unternehmen für einige ihrer Mitarbeiter massiv an Attraktivität verlieren würde und womöglich bald Rufe aus der Personalabteilung laut werden, wonach die Fluktuation anzusteigen beginnt. 39 % der jungen High-Potentials ist der mobile Arbeitsstil mittlerweile gleich wichtig wie eine Gehaltserhöhung. Dies nicht anzubieten, bedeutet, sich aus dem Relevant Set dieser Erfolgstypen auszuschließen. Dann also doch in den sauren Apfel der hohen Kosten beißen und es für alle Mitarbeiter ausrollen. Aber welches Gerät denn jetzt? Tablet-PCs für alle? Für wirklich alle? Nein, das geht jetzt wirklich zu weit. Im Vertrieb ist so ein Wunsch ja nachvollziehbar, aber in Positionen ohne jeglichen Kundenkontakt? Wie außerdem ist mit dem Bring-your-own-device-Aspekt umzugehen? Vielleicht merken Sie schon, je tiefer man in die Thematik des mobilen Arbeitens eindringt, desto komplizierter kann es werden. Aber kein Problem ohne die Möglichkeit einer Lösung. (Denn sonst gäbe es ja auch kein Problem.)

Klassifizierungen vornehmen
Die Zeiten sind vorbei, wo eine einzige Lösung, nur ein Weg oder nur ein Prozess für alle Geltung hatte. Früher konnten genau solche Fragestellungen nach dem Gießkannenprinzip gelöst werden. Nun gilt es, individuellere Lösungen zu wählen. Und ich meine damit nicht, dass jeder einzelne Mitarbeiter so tun kann, wie er möchte. Es gilt vielmehr, zu überlegen, welche Mobilitätsprofile in  Ihrem Unternehmen vorkommen – von »gar nicht mobil« bis hin zu »hochgradig mobil« – und die Mitarbeiter auf Basis ihres Jobs in diese Profile einzuordnen. Ich versuche, das Wort »kategorisieren« aufgrund seines negativen Beigeschmacks zu vermeiden, obwohl es dieser Begriff genau treffen würde. Wenn diese Klassifizierung vorgenommen wurde, gilt es im nächsten Schritt herauszuarbeiten, welche Ausstattung, welche Geräte und Tools die Mitarbeiter in den einzelnen Profilen bekommen sollen. So können Sie mobiles Arbeiten in Ihrem Unternehmen ohne Kostenexplosion für jene Mitarbeiter einführen, die aus ihrer täglichen Arbeit heraus auf die mobile Arbeitsweise angewiesen sind. Anderen wird diese Mobilität dann mit Einschränkungen angeboten.
So lösen sich sukzessive alle Stolpersteine und Hürden auf dem Weg auf, bis wir alle gut in der neuen Welt des Arbeitens angekommen sind.

  16639 Hits
16639 Hits

Handelsungleichgewichte der Eurozone nehmen ab




Die Handelsungleichgewichte in der Eurozone haben sich in den zurückliegenden Jahren dramatisch verringert, schreibt Gavyn Davis in der FT. Das sei jedoch hauptsächlich aus den falschen Gründen geschehen, nämlich per massiver Rezession im Süden statt per Verringerung der Wettbewerbsunterschiede innerhalb der Eurozone.

Als der Euro 1999 eingeführt wurde, schreibt Davis, glaubten seine Verfechter, dass die seit Jahrzehnten anhaltende Zahlungsbilanzkrise der schwächeren Mitgliedsstaaten der Eurozone zu Ende gehen würde. Der Glaube erwies sich als Traum. Die Leistungsbilanz-Ungleichgewichte erwiesen sich nach dem 2008er Crash als auf normalen Wegen unfinanzierbar. Die anwachsenden Target2-Salden im EZB-System zeigten, dass nur der Übergang zu öffentlicher Finanzierung das Euro-Gebiet zusammen halten konnte. Ohne Target2 wäre der Euro schon wieder Geschichte.

 

Die Bundesbank hat über Target2 einen Großteil dieser öffentlichen Finanzierung übernommen, was im Laufe der Jahre zu einem heißen politischen Eisen in Deutschland wurde. Die Fragestellung kochte hoch, was mit diesen Forderungen wird, wenn der Euro zerbricht. Die Lösung wird von vielen darin gesehen, dass die Leistungsbilanzdefizite im Süden verschwinden, wodurch keine weitere Finanzierung per Target2 mehr benötigt wird.

 

Dem scheint man nun nahe zu sein, denn die Zahlungsbilanzdefizite reduzieren sich schnell und die Target2-Salden schrumpfen. Das ist besonders bemerkenswert, weil zur gleichen Zeit der deutsche Leistungsbilanzüberschuss kaum zurückgeht.

Continue reading
  11559 Hits
11559 Hits

Die dritte Plattform

Der mobile Arbeitsplatz verändert die IT-Infrastruktur eines Unternehmens bezüglich Datenhaltung, Sicherheit und Verwaltung: Die Anforderungen der sogenannten dritten Plattform erfordern neue Konzepte und Strategien: weg vom Rechenzentrum hin zu adaptiven Infrastrukturen. Was bedeutet das?

Drei Themen prägen gemäss Analysten wie Gartner, Forrester und IDC dieses Jahr den Markt. Es ist der mobile Arbeitsplatz, Cloud Computing und Big Data. So werden gemäss IDC die weltweiten Ausgaben für die IT im Jahr 2013 um 5,7 Prozent auf über 2 Billiarden Dollar wachsen. Über 50 Prozent dieses Wachstums macht die Zunahme der Verkäufe von Tablets, Smartphones und anderen mobilen Geräten aus. Der zweite stark wachsende Bereich ist der Markt für Cloud Computing, da sind gemäss Gartner und Forrester zweistellige Wachstumsraten zu erwarten. Betrachtet man lediglich die Wachstumszahlen, explodiert zwar der Markt für Big Data – es ist von bis zu 58 Prozent Wachstum dieses Jahr die Rede. In absoluten Zahlen jedoch bestimmt dieses Thema die Marktentwicklung nicht im selben Ausmass wie die anderen beiden Themen Mobile und Cloud Computing, auch wenn in den nächsten Jahren der Job als Data Scientist sehr gefragt sein dürfte.

Was sich ändern wird
Die reinen Verkaufszahlen von mobilen Geräten sind nur ein Ausdruck einer Veränderung, die sich über die letzten Jahre angebahnt hat und nun langsam, aber sicher zum Mainstream wird: das mobile Arbeiten. Fixe Arbeitsorte mit fixen Arbeitszeiten sind rückläufig – bereits heute setzt laut der Ende des letzten Jahres durchgeführten Studie "Workplace of the Future: a global market research report" der Firma Citrix knapp die Hälfte aller Unternehmen mobile Arbeitsmodelle ein. Motivation dafür ist die Anwerbung hochqualifizierter Arbeitskräfte durch flexible Arbeitsangebote und die Reduktion von Miet-, Reise- und Personalkosten. Diese Flexibilität bezieht sich auf die Zeit, den Ort und das Arbeitsgerät. Und genau in diesem Jahr wird das mobile Arbeitsgerät den PC als Zugriffsinstrument auf das Netz ablösen. Wir werden somit mehr und mehr unser eigenes Gerät als Arbeitsinstrument einsetzen.

Gemäss der Studie "The consumerization of IT – The next-generation CIO", die im November 2011 vom Center for Technology and Innovation der Firma PWC herausgegeben wurde, ist der Anteil der privaten Geräte, mit denen auf Unternehmensanwendungen zugegriffen wird, bereits im Jahr 2011 auf 40 Prozent gestiegen. Das alles hat weitreichende Konsequenzen für die Infrastruktur einer Unternehmens-IT.

Die Konsequenzen
Der Begriff "Consumerization of the IT" umschreibt den zunehmenden Einfluss der Technologie, die für den Endkunden auf den Markt kommt, auf die IT-Abteilungen der Unternehmen. So wird beispielsweise die Verbreitung von Windows, als dominierendes Betriebssystem für Endgeräte, bedrängt durch die Tatsache, dass weit mehr mobile Geräte auf Basis von iOS und Android verkauft werden als solche auf Basis von Windows 8. Die Dominanz des Windows-PCs als Standard im Unternehmen endet gemäss Gartner bereits in diesem Jahr – abgelöst durch eine Vielzahl von Umgebungen, die von der IT unterstützt werden müssen. Doch damit nicht genug. Die klassischen Anwendungen der betrieblichen Informatik verändern sich in Richtung Mobile Apps. Dasselbe gilt auch für die Infrastruktur, die notwendig ist, um dieses System zu implementieren und zu betreiben. Unternehmenseigene App-Stores werden für grössere Firmen zur Notwendigkeit, wenn sie der Vielzahl der Endgeräte gerecht werden wollen. Die Veränderung der Softwareverteilung geht mit einer Veränderung der notwendigen Infrastruktur für den Betrieb der Anwendungen einher. Zur Verbindung von mobilen Anwendungen und cloudbasierten Diensten äussert sich Forrester für das Jahr 2013 wie folgt: «Cloud & Mobile become one.» Dies ist die ideale Lösung, um den sich ständig verändernden Anforderungen mobiler Unternehmensanwendungen gerecht zu werden. IDC prognostiziert aus diesem Grund eine starke Zunahme der PaaS-Angebote (Public-Platform-as-a-Service) und eine Anpassung von cloudbasierten Branchenangeboten. So sollen sich PaaS-Angebote zu Massenprodukten entwickeln, die in Kombination mit SaaS-Lösungen (Software-as-a-Service) die Basis für branchenorientierte Business-iClouds bilden.

Die dritte Plattform
Soll die IT-Infrastruktur eines Unternehmens mit den aktuellen Entwicklungen des mobilen Arbeitens mithalten, so ist eine neue Beweglichkeit gefragt – eine Beweglichkeit hinsichtlich Zeit, Ort und Geräteunterstützung. Diese bewegliche IT-Infrastruktur wird von Frank Gens, Chief Analyst bei IDC, unter dem Begriff "dritte Plattform" zusammengefasst. Diese dritte Plattform erweitert die bestehenden zentralen IT-Infrastrukturen eines Unternehmens, im Gegensatz zur ersten Plattform (Mainframe-Technologie) und zweiten Plattform (Desktop-Unterstützung). Die IT-Infrastrukturen werden zur Grundlage für die Bereitstellung und den Betrieb von mobilen Anwendungen. Diese basieren auf einer Kombination von Cloud-Computing-Services, sozialen Netzwerkmechanismen, modernen mobilen Netzwerken und zentralen unternehmenseigenen IT-Infrastrukturen.

Worauf ist zu achten?
Der Weg vom Rechenzentrum hin zu beweglichen Infrastrukturen bedeutet Veränderungen auf der Ebene der Datenhaltung, der Sicherheit und der Verwaltung der IT-Systeme. Mobiles Arbeiten bedeutet in vielen Fällen, mit unternehmenskritischen und unternehmensrelevanten Daten zu arbeiten. Diese Daten müssen zur richtigen Zeit am richtigen Ort sein, somit verfügbar rund um die Uhr und rund um den Globus. Dies muss in einem ständig wachsenden Umfeld von strukturierten und vor allem unstrukturierten Datenmengen gewährleistet sein. Die Datenhaltung und die Datenbereitstellung über die internen Rechenzentren hinaus werden zu zentralen Aufgaben der IT. Damit verbunden sind neue Sicherheitsaspekte. Das mobile Arbeiten per se bringt bereits zusätzliche Anforderungen hinsichtlich der Verschlüsselung und ferngesteuerten Löschung lokaler Daten mit sich. Darüber hinaus kommt die Notwendigkeit verbesserter Aufklärung bezüglich Passwortstärke und anderer Sicherheitsrisiken im Mobile Computing hinzu. Zu guter Letzt darf je nach Aufenthaltsort des mobil arbeitenden Personals auf bestimmte Daten gar nicht mehr zugegriffen werden. Mit anderen Worten dürfen sie an bestimmten Orten aufgrund gesetzlicher Regelungen auf keinen Fall sichtbar sein. Die Art und Weise, wie IT-Systeme verwaltet werden, wird sich dadurch vollständig verändern. Eine Kombination aus zentralen Infrastrukturen mit global verteilten Diensten und Endgeräten, die sich ständig und rund um die Uhr an einen anderen Ort befinden, unterscheidet sich grundlegend von der traditionellen IT-Infrastruktur. Diese ist auf das Firmengelände und Büroarbeitszeiten beschränkt. Das Spektrum der verschiedenen Systeme und Systembestandteile wächst mit den Anforderungen des Mobile Computing.

Die Zukunft der adaptiven Infrastrukturen
Die adaptiven Infrastrukturen oder auch die «dritte Plattform», wie IDC die Unternehmens-IT der Zukunft nennt, bedingen die Integration einer Vielzahl von Technologien. Verschiedene Hersteller versuchen mit sogenannten integrierten Ecosystemen Lösungen für adaptive Infrastrukturen zu bieten. Sie bestehen aus Appliances, Cloud-Diensten und mobilen Anwendungsplattformen. Dabei spielen die spezialisierten Appliances eine wichtige Rolle als Verbindungselement zwischen bestehender und neuer Infrastruktur. Deren Einsatz soll die Betriebskomplexität und damit auch die entsprechenden Kosten reduzieren, bei gleichzeitiger Verbesserung der Leistungsfähigkeit. Die Cloud-Dienste sollen den Einkauf und die adaptive Nutzung zentraler Services vereinfachen. Die mobilen Anwendungsplattformen erlauben dabei die Bereitstellung der neuen Generation von Anwendungen für eine Vielzahl von
mobilen Geräten. Das integrierte Ecosystem ermöglicht eine Kontrolle der adaptiven Infrastrukturbestandteile.

  16101 Hits
16101 Hits

Hinterlassenschaften der Schuldenkrise aufräumen!


Im Interview mit dem Deutschlandradio fordert Daniel Stelter von der Boston Consulting Group, einer der größten Unternehmensberatungen der Welt, einen europaweiten Schuldenschnitt in Kombination mit einer Vermögensabgabe.

Stelter stellt zu allen bisher verfolgten Ansätzen fest, dass sie nicht funktionieren. Es sei insbesondere nicht möglich, sich aus den Schulden herauszusparen. Das stürze die Wirtschaft immer tiefer in die Krise, die Schuldner haben letztlich noch mehr Schulden als zuvor. Insbesondere in der südlichen Peripherie der Eurozone werde versucht, das Problem über Inflation zu lösen. Es sei aber extrem schwer, im gegenwärtigen Umfeld Inflation zu generieren. Und käme sie, wäre sie in hohem Maße unsozial. Aus den Schulden herauswachsen sei ebenfalls nicht möglich.

 

Wenn das so ist, dann ist es vernünftiger, das Ganze in einer großen Schuldenrestrukturierung zu bereinigen, sagt Stelter. Irgendjemand muss dafür bezahlen und es ist naheliegend, dass das diejenigen sind, die Vermögenswerte besitzen. So könnten die Hinterlassenschaften der Party der letzten 30 Jahre aufgeräumt werden.

 

Was die konkrete Ausgestaltung angeht, so schlägt Stelter eine Kombination aus Vermögensabgabe, Vermögenssteuer oder erhöhter Erbschaftssteuer vor. Aus Gründen der Fairness sollten gleichzeitig andere Steuern gesenkt werden, um Wachstum zu fördern. Das gäbe auch einen Anreiz für Leute, die bei einer solchen Aktion Vermögen verloren haben, dies durch Arbeit wieder hereinzuholen.

Continue reading
  12173 Hits
12173 Hits

Konsolidierung voraus?


Die technischen Markt-Interna erodieren, die Volatilität steigt an. Die jüngsten Einbrüche bei Aktien und Rohstoffen haben gezeigt, wie verwundbar die Preisentwicklung bei Assets durch ungünstige Neuigkeiten und unerwartet schwache Makrodaten geworden ist. Es hat den Anschein, als stehen die Finanzmärkte am Beginn einer breiter angelegten Konsolidierung.

Zuletzt zeigte die Divergenz zwischen dem Transport-Sektor und dem breiten Aktienmarkt bereits an, dass die Aktienkurse zu weit gelaufen sind. Eine Korrektur von fünf bis zehn Prozent bis zum Sommer erscheint wahrscheinlich, heißt es z.B. bei Guggenheim Investments. Treasuries dürften da erneut als sicherer Hafen dienen, weil jede Wachstumsabschwächung wohl dazu führt, die QE-Maßnahmen auszudehnen, wird vermutet.

Mohamed El-Erian, Pimco sagt, Anleihen, Aktien, egal welcher Markt, alle seien künstlich hochgetrieben worden. Die Zentralbanken verfolgen weltweit ihre wirtschaftlichen Ziele, Wachstum und Jobs und halten dabei bewusst zu lange an der Geldflutung fest. Dadurch bedienen sie den “animalischen Instinkt” der Investoren und zwingen sie, getrieben durch ein Mix aus Gier, Hoffnung und Unsicherheit, mehr Risiken einzugehen als gerechtfertigt wäre. Wie ein Surfer warteten sie stets auf die richtige Welle, sie könnten nicht stehenbleiben und nichts tun. Wenn sie aber eine Welle zu lange reiten, gehen sie baden. Und diese Gefahr ist aktuell groß. Das durch die Zentralbanken künstlich geschaffene Umfeld ist durch Fundamentaldaten nicht gerechtfertigt. Anleger sollten daher aktuell nicht zu viel an Liquididität aufgeben, mit Wachsamkeit und Realismus agieren und sich der Gegenwinde bewusst sein, rät El-Erian.

Rohstoffe zeigen seit geraumer Zeit relative Schwäche, die Rallye an den Aktienmärkten war weniger getrieben von Aussichten auf eine starke Weltkonjunktur, sondern eher durch Renditehunger angesichts niedriger bis negativer Realzinsen bei ungebrochen hoher Liquiditätszufuhr. So ist die US-Geldbasis seit September 2012 um 330 Mrd. Dollar auf jetzt 2,93 Bill. Dollar expandiert, das Verhältnis der Überschuss- zu den totalen Reserven steigt seit Jahresanfang wieder.

Offenbar legt nun auch die Inflationsentwicklung zumindest eine Pause ein. Der CPI ist im März gesunken, seine Jahresrate liegt nur noch bei 1,5%, die des PPI kommt auf 1,1%. Der von der Fed besonders beachtete PCE-Preisindikator kam im Februar auf 1,3%, er hatte im März 2012 bei 2% ein Topp markiert.

Der CPI ist auch ein Indikator für Preismacht der Unternehmen. Wenn er nachhaltig sinkt, drückt das letztlich auf deren Gewinnpotenzial, auch wenn der Druck durch sinkende Rohstoffpreise noch etwas abgefedert wird.

Continue reading
  10880 Hits
10880 Hits

Deutschland – arm dran?




 

Die EZB hat jetzt ihren lange erwarteten Bericht „The Eurosystem Household Finance and Consumption Survey“ veröffentlicht. Die Studie sollte ursprünglich bereits im März veröffentlicht werden. Beobachter hatten die Verzögerung in Zusammenhang mit der Zypern-Krise gebracht.

Die Studie zeigt in der Tat brisanterweise, dass Deutschland den geringsten Netto-Median-Wohlstand in der Eurozone aufweist, Zypern hingegen den zweithöchsten. Die Studie basiert auf Umfragedaten bei 60.000 Haushalten aus 2009 und 2010. Hier die Rangfolge (h/t Eurointelligence):

 

 

Continue reading
  13403 Hits
13403 Hits

Zypern – Vorübung in begrenztem Rahmen

Die Euro-Staaten haben beschlossen, Sparer sollen in Zypern teilenteignet werden. Sie sollen ihren Beitrag zur finanziellen Sanierung des Landes leisten, der maßgeblich von seinem aufgeblasenen Bankensektor in die Krise gestürzt wurde. Der Spiegel jubiliert: „Es geht um Gerechtigkeit (…) Ein richtiger Schritt.“

Was hat das mit Gerechtigkeit zu tun, wenn Sparer mit Einlagen von unter 100.000 Euro eine Abgabe 6,75% zahlen müssen, oberhalb dieser Schwelle werden sogar 9,9% fällig? Das soll 5,8 Mrd. Euro erbringen. Haben die Sparer die Krise verursacht? Nein.

 

Banken sind Unternehmen, also sollte der Haftungsgrundatz hier genauso gelten wie für jedes andere Unternehmen auch. Wenn ein Unternehmen in Schwierigkeiten kommt, dann müssen dafür Anteilseigner und Kreditgeber einstehen. Dass dem bei Banken nicht so ist, wissen wir spätestens seit 2008 – die sind ja systemrelevant. Sie sind wichtiger als Unternehmen, die die Lebensgrundlagen unserer Gesellschaft sichern. Denn Geld kann man ja bekanntlich heutzutage essen, besonders wenn es virtuell vorkommt.

 

Rechtlich gibt der Sparer seiner Bank zwar einen Kredit. Aber er hat ihr den nicht zu unternehmerischen Zwecken angedient, sondern ihr das Geld in erster Linie zur Aufbewahrung überlassen. Wenn man auch nur den Anschein einer sozialen Komponente hätte wahren wollen, hätte man kleinere Sparbeträge ganz von einer Zwangsabgabe ausgenommen. Die Regierenden der Eurozone wollten nicht…

Continue reading
  12533 Hits
12533 Hits

Eurokrise – die nächste



Das BIP der Eurozone ist gemäß der ersten offiziellen Vorabschätzung im vierten Quartal 2012 um 0,6 % zum Vorquartal gesunken. Im Jahresvergleich schrumpft das BIP um 0,9%; in Q3 war es gegenüber dem Vorquartal um lediglich 0,1% zurückgegangen.

 

Die deutsche Wirtschaft ist in Q4/2012 so stark geschrumpft wie seit dem Höhepunkt der Finanzkrise nicht mehr. Das BIP fiel um 0,6% gegenüber dem Vorquartal, das noch plus 0,2% zeigen konnte. Für den Einbruch im vierten Quartal sorgten vor allem sinkende Exporte, außerdem investierten die Unternehmen deutlich weniger.

 

Die Arbeitslosigkeit in Portugal ist im vierten Quartal 2012 mit 16,9% auf einen Rekordstand gestiegen. Bei den unter 24-jährigen betrug die Arbeitslosenquote 40%. Im Zuge der Sparmaßnahmen, die dem ärmsten Land Westeuropas im Gegenzug zu einem Hilfspaket von 78 Mrd. Euro auferlegt wurden, schrumpfte die Wirtschaft in 2012 um rund 3%.

Continue reading
  11636 Hits
11636 Hits

Deutsche Löhne hoch?

Triste Meldungen aus Spanien: Im vierten Quartal ist das BIP um 0,7% zurückgegangen. Das Schlussquartal 2012 war sogar das mit der schärfsten Kontraktion in der seit Mitte 2011 andauernden Rezession. Zur Begründung wird angeführt, die Inlandsnachfrage sei stärker als erwartet zurückgegangen und das Wachstum des Exports konnte das nicht ausreichend kompensieren.

Überraschend ist das nicht. Wer geglaubt hatte, das dritte Quartal zeige bereits Anzeichen einer Wende, irrte. Die im September erfolgte Erhöhung der Mehrwertsteuer hatte noch für eine leichte Bremswirkung im Abwärtsstrudel gesorgt. Umso mehr ging es im spanischen Einzelhandel danach weiter bergab – wie seit 30 Monaten. Im Dezember sanken die Umsätze um 10,2% im Jahresvergleich, die Einzelhandelsumsätze liegen gegenüber dem Hoch aus dem Jahr 2007 nun um mehr als 30% tiefer.

 

Die Jugendarbeitslosigkeit schwingt sich von Rekord zu Rekord auf – sie liegt jetzt bei deutlich über 50%. Spaniens Arbeitsmarkt zählt zu den Schlusslichtern in Europa.

 

Angesichts dieses Desasters findet der Wirtschaftsweise Bofinger immer wieder Gehör mit einem Vorschlag für die anstehenden deutschen Tarifrunden: “Fünf Prozent Plus über alle Branchen hinweg sollten es schon sein.” Darin steckt ein zweiprozentiger Zuschlag zur Euro-Rettung, aus Produktivitätszuwachs und Inflation ergebe sich nur eine dreiprozentige Lohnsteigerung, sagt der Wirtschaftsprofessor. Die Deutschen sollen mehr konsumieren und damit den Krisenländern helfen.

Continue reading
  11656 Hits
11656 Hits

Hochfrequenzhandel verbieten?

 

Der Hochfrequenzhandel an der Börse wurde zuletzt breiter thematisiert – die Regierungskoalition hat einen Gesetzentwurf zur schärferen Regulierung vorgelegt. In den USA machte der Hochfrequenzhandel im Aktiengeschäft 2011 mehr als 50% des Handelsvolumens an, in Europa waren es 35%.

Hochfrequenzhandel, darunter wird der Teilbereich des algorithmischen Handels verstanden, bei dem Aufträge massenhaft in Sekundenbruchteilen an den Börsen platziert werden. „Zeit ist Geld“ – das gilt auch und gerade an der Börse. Wer das nötige Kleingeld hat und sich ein entsprechendes Equipment leisten kann oder will und dieses dann auch noch –zwecks kurzer Leitung- direkt an Börse in Stellung bringt, erkauft sich damit einen Geschwindigkeitsvorteil gegenüber anderen Marktteilnehmern.

 

So weit, so gut und auch nichts Neues. Der eine investiert in Analysten, um einen Vorsprung herauszuholen, der andere in Maschinen. Jeder wie er will (und kann). Der Privatanleger kann da nicht mithalten – ob er deswegen grundsätzlich im Nachteil ist?

 

Continue reading
  11062 Hits
11062 Hits