Hallo, und wieder treibt mich eine eigentlich sehr profane Frage um.. Was war eigentlich das Kriegsziel Deutschlands? Klar, den Krieg militärisch gewinnen. So weit so unbefriedigend als Antwort. "Weltmacht sein" ist mir auch irgendwie zu abstrakt. Welche konkreten Vision gab es für die Zeit nach dem gewonnen Krieg? Was hätte man Frankreich und Russland in einem Friedensvertrag diktieren wollen? (England lasse ich mal außen vor, da ich davon Ausgehe, dass man nicht mit einem Kriegseintritt Englands gerechnet hatte. Schließlich bestand zwischen England und Frankreich nur eine Neutralitätsbündnis und dass sich England für das "unwichtige" Belgien auf dem Kontinent verkämpfen würde, lag außerhalb der Vorstellungskraft vieler. Außerdem hoffte man ja, dass die Belgier die Deutschen Truppen freiwillig durchziehen lassen würde.) Ging es nur um die Kolonien? Was ich gefunden habe, war der Wunsch nach einer nordafrikanischen Kolonie, man hatte das französische Marokko im Blick. Ich bin gespannt auf Eure antworten. Gabriel
Hallo Gabriel! Ich denke, der Kaiser hatte gar kein Kriegsziel. Wenn man ein Kriegsziel hat, muß man ja einen Angriffskrieg führen. Wir waren zwar für den Krieg gerüstet, haben ihn aber nicht "auf Biegen und Brechen" gewollt, um Interessen zu verfolgen. Später bei Adolf war es einfacher. Dort ging es um die Rassefrage und wirtschaftliche Interessen. Rassefragen spielten im 1.WK keine Rolle und wirtschaftliche Interessen waren nicht soo relevant. Die Großmächte hatten ja schließlich alles. Im Laufe des Krieges war das Kriegsziel natürlich den Krieg zum eigenen Vorteil zu gewinnen, d.h. kein Landverlust und keine Reparationszahlungen zu leisten (so wie es Ende 1918 ja nun doch gekommen ist...). In erster Linie gab es ja den Krieg, weil Bündnisverträge zu erfüllen waren (ohne jetzt wieder die Kriegsschuldfrage zu stellen). Deswegen bleibe ich dabei, Deutschland hatte 1914 noch kein Kriegsziel, weil es keinen Grund hatte, einen Krieg anzufangen. Oh Mann, das gibt wieder eine ellenlange Diskussion...