Definizione di imperialismo

Il termine imperialismo è usato per riferirsi a quel sistema di idee e politiche il cui primo e principale obiettivo è estendere il potere di uno stato o di un sistema politico a gran parte del mondo per mantenerlo sotto il perfetto controllo. L'imperialismo suppone la creazione di un sistema di relazioni politiche, economiche, sociali e culturali disuguali poiché in esse la posizione dominante prevale sulle posizioni alternative.

Storicamente, la nozione di imperialismo sorse alla fine del XIX secolo, quando le economie furono unificate in un modo mai visto prima attraverso relazioni commerciali e mercantili. Questa unificazione, che esisteva già ma non a tal punto, non lasciò lo spazio planetario senza collegarsi con l'obiettivo di plasmare quella che sarebbe diventata nota da allora in poi come economia mondiale. L'economia mondiale ha assunto l'esistenza di due parti: il centro e la periferia, la prima costituita da poche potenze mondiali e la seconda dal resto dei paesi o stati dominati che dovevano essere "guidati" e "controllati" dalla prima .

L'imperialismo fu allora inteso come la necessità di estendere questo impero (che ormai era principalmente economico) a livello globale e planetario. In questo contesto, il rappresentante più chiaro del sistema imperialista sarebbe il Regno Unito. Più tardi nel ventesimo secolo, l'imperialismo sarebbe stato chiaramente incarnato dal paese che sarebbe diventato la prima potenza mondiale e sarebbe rimasto così fino ad oggi: gli Stati Uniti.

In questo caso, l'imperialismo lasciò i limiti economici per diventare un complesso sistema di diffusione e impianto di forme politiche, economiche, culturali e sociali in tutte le parti del mondo. In questo modo, l'imperialismo nordamericano penetrò molto più profondamente cambiando non solo il modo di relazionarsi economicamente tra i vari stati del mondo, ma soprattutto i valori culturali, le ideologie e le rappresentazioni mentali di tutti gli individui nel mondo.

Articoli Correlati