Veröffentlicht am 04.05.2014
Als Imperialismus (von lateinisch imperare „herrschen“; imperium „Weltreich“; etwa bei Imperium Romanum) bezeichnet man das Bestreben eines Staatswesens oder dessen Anführers, seinen Einfluss auf andere Länder oder Völker auszudehnen, bis hin zu deren Unterwerfung und Eingliederung in das eigene Umfeld. Dazu gehört eine ungleiche wirtschaftliche, kulturelle oder territoriale Beziehung aufzubauen und aufrechtzuerhalten.
Als Weltreiche bezeichnet man Reiche, die sowohl große Teile der jeweils bekannten Welt umfassten als auch bedeutenden Einfluss auf die geschichtliche Entwicklung (politisch, geographisch, technologisch, sozial, kulturell, religiös oder sprachlich) hatten. Oft schließt ihr jeweiliges Selbstverständnis den Anspruch ein, entweder die ganze Welt zu beherrschen oder zumindest die größte Macht der Erde zu sein.
Ist die USA ein imperialistischer Staat?
