Deutschland in Afrika - Der Kolonialismus und seine Nachwirkungen
kostenloses Unterrichtsmaterial online bei Elixier
Dass Deutschland einmal Kolonien in Afrika besessen hat, ist aus dem nationalen Gedächtnis weitgehend verdrängt worden. Dabei war die imperialistische Expansion für Generationen von Deutschen eine nationale Schicksalsfrage. Infos u. Material der Bundeszentrale für politische Bildung (bpb)