Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Wie die USA Deutschland eroberten

Wie die USA Deutschland eroberten

Nach dem Ersten Weltkrieg wurde das besiegte Deutschland vom militärischen Feind der USA zu deren beliebtesten Investitionsstandort. Die bis heute währende politische Vormacht Washingtons über Berlin gründet in dieser Zeit – und in den finanziellen Verflechtungen und Abhängigkeiten, wie sie Bankiers wie Charles Dawes damals, in den 1920er Jahren, organisierten. Multipolar veröffentlicht dazu einen Auszug aus Werner Rügemers neuem Buch „Verhängnisvolle Freundschaft. Wie die USA Europa eroberten. Erste Stufe: Vom 1. zum 2. Weltkrieg“.

Die Kapital-Eliten Deutschlands und der USA waren – wie auch die anderen imperialistischen Mächte – schon vor dem Krieg in ihrer Praxis sehr ähnlich. Beide sahen den Staat als Organisator privatwirtschaftlichen Gewinns. Beide bildeten nationale und internationale Kartelle. Bei beiden hatten große Banken die Oberhand gewonnen. Beide wollten ihre bisherigen Einflussgebiete mit allen Mitteln erweitern, vor dem Krieg