Nachkriegszeit in Deutschland
kostenloses Unterrichtsmaterial online bei Elixier
https://www.youtube-nocookie.com/embed/j1jvG7MfTog Die Nachkriegszeit in Deutschland ist prägend für die deutsche Geschichte nach dem Zweiten Weltkrieg. Mit der Kapitulation der Wehrmacht und dem Zusammenbruch des NS-Staats beginnt in Deutschland eine neue Zeit.