

Unter Herrenmenschen — Der deutsche Kolonialismus in Namibia
2019•0h 53m•Dokumentarfilm, Historie, TV-Film
Übersicht
Die Deutschen kolonisierten das Land Namibia im südlichen Afrika während eines kurzen Zeitraums von 1840 bis zum Ende des Ersten Weltkriegs. Die Geschichte des so genannten Deutsch-Südwestafrikas (1884-1915) ist abscheulich; ein versteckter und verschwiegener Bericht über Plünderung und Völkermord.