Historia, pregunta formulada por elianasofiamartel01, hace 1 mes

alguien me dice todo lo que sabe de la era del imperialismo?​

Respuestas a la pregunta

Contestado por Alita2734
0

Respuesta:

El imperialismo es la doctrina que defiende la dominación de una nación o Estado sobre otros territorios y pueblos a través de la adquisición de tierras o la imposición de un control político y económico. Por lo tanto, conlleva la expansión de la autoridad del Estado más allá de sus fronteras

Explicación:

Otras preguntas