que era el imperialismo estadounidense en america
Respuestas a la pregunta
Contestado por
2
Se puede definir imperialismo como la “actitud y doctrina de quienes propugnan o practican la extensión del dominio de un país sobre otro u otros por medio de la fuerza militar, económica o política.” (fuente: RAE). Así pues, cuando Estados Unidos interviene en Afganistán o en Iraq es una forma de imperialismo, o cuando apoya dictaduras militares en ciertos países, o lanza guerras de prevención (por si acaso) sobre otras naciones, es imperialismo también. Imperialismo por medio de la fuerza militar.
Otras preguntas
Ciencias Sociales,
hace 9 meses
Matemáticas,
hace 9 meses
Matemáticas,
hace 9 meses
Inglés,
hace 1 año
Ciencias Sociales,
hace 1 año