Die deutsche Kolonialzeit – Was wir heute über sie wissen
kostenloses Unterrichtsmaterial online bei Elixier
Am Ende des 19. Jahrhunderts gehörte das Deutsche Reich zu den Kolonialmächten Europas. Mit mörderischer Brutalität unterdrückten deutsche Kolonialherren die Bewohner der besetzten Länder. Ein düsteres Geschichtskapitel, über das bis heute noch wenig bekannt ist. Infos bei Planet-Wissen