Deutschsprachige Wikipedia - Die fr...
Download this dictionary
Nachkriegszeit nach dem Zweiten Weltkrieg in Deutschland
Als Nachkriegszeit wird in Deutschland die Zeit nach dem Zweiten Weltkrieg bis spätestens zum Abzug der letzten Alliierten in Berlin im September 1994 bezeichnet. Nach dem Krieg sollte unter Verwaltung der Besatzungsmächte die staatliche Ordnung, Wirtschaft und Infrastruktur neu aufgebaut oder wiederhergestellt werden und die durch den Krieg entstandenen Schäden behoben werden. In diesen ersten Jahren der Nachkriegszeit litten große Teil der Bevölkerung unter Hunger und Knappheit an Gütern aller Art. Ab 1947 begann der Nachkriegsboom auch in Deutschland.

Mehr unter Wikipedia.org...


© Dieser Eintrag beinhaltet Material aus Wikipedia® und ist lizensiert auf GNU-Lizenz für freie Dokumentation und Creative Commons Attribution-ShareAlike License