Historia, pregunta formulada por diego9556, hace 7 meses

Cuando finalizo la Primera Guerra Mundial Estados Unidos se alzó como la nación?

Respuestas a la pregunta

Contestado por nazuviet
0
Terminó el 11 de noviembre de 1918 con el tratado de Versalles y la rendición de Alemania, que decía que Alemania(en ese momento la República de Weimar) debería de pagar a los de la triple entente( uk, Francia, usa etc) los daños causados// espero entender bien la otra, después de aquella guerra EEUU dijo que dejará de participar en problemas bélicos y se encargaría de su país, lo cual eso provocó la era de oro del jaz pero tuvo sus problemas económicos
Otras preguntas