que acontecimiento dieron origen al imperialismo de los Estados Unidos
Respuestas a la pregunta
Contestado por
2
Respuesta:
El concepto ‘imperialismo estadounidense’ es aceptado por la mayor parte de la comunidad internacional, tanto por políticos como por historiadores. Es un hecho incuestionable que Estados Unidos ha tenido un comportamiento imperialista desde el inicio de su formación como país, y especialmente a lo largo del S.XX.
sandra66gonzalez:
Política del Gran Garrote: contra las naciones de América Latina. Apoyo estadounidense a la independencia de Panamá en 1903, cuando el gobierno Colombiano rechazó la propuesta de Roosevelt para construir el Canal de Panamá. La ocupación militar de la República Dominicana entre 1916 y 1924.
Otras preguntas