Deutschland in Afrika. Der Kolonialismus und seine Nachwirkungen
kostenloses Unterrichtsmaterial online bei Elixier
Dass Deutschland einmal Kolonien in Afrika besessen hat, ist aus dem nationalen Gedächtnis weitgehend verdrängt worden. Dabei war die imperialistische Expansion für Generationen von Deutschen eine nationale Schicksalsfrage. Der ältere Artikel stammt aus einem Heft der Reihe APUZ.