Historia, pregunta formulada por dannazamora413, hace 17 horas

genera una opinión sobre el imperialismo actual en Estados Unidos ​

Respuestas a la pregunta

Contestado por jemilianogranados
1

Respuesta:

El imperialismo de Estados Unidos es la doctrina que defiende la dominación de su nación o Estado sobre otros territorios y pueblos a través de la adquisición de tierras o la imposición de un control político y económico. Por lo tanto, conlleva la expansión de la autoridad del Estado más allá de sus fronteras.

Espero te sirva

Otras preguntas