Historia, pregunta formulada por andrea404, hace 1 año

que significa imperialismo norteamericano

Respuestas a la pregunta

Contestado por luuzlupi
1
referencia a una sociedad que abarca ciertas partes del mundo y que acatan unas leyes. Cuando hablamos de imperialismo, hablamos de la acción de imponer o sugerir, de manera más educada, un tipo de sociedad, en ciertas partes del mundo
Otras preguntas