Historia, pregunta formulada por 27643184, hace 1 año

que era el imperialismo estadounidense en america






Respuestas a la pregunta

Contestado por blankitha10
2
Se puede definir imperialismo como la “actitud y doctrina de quienes propugnan o practican la extensión del dominio de un país sobre otro u otros por medio de la fuerza militar, económica o política.” (fuente: RAE). Así pues, cuando Estados Unidos interviene en Afganistán o en Iraq es una forma de imperialismo, o cuando apoya dictaduras militares en ciertos países, o lanza guerras de prevención (por si acaso) sobre otras naciones, es imperialismo también. Imperialismo por medio de la fuerza militar.

Otras preguntas