Cuando finalizo la Primera Guerra Mundial Estados Unidos se alzó como la nación?
Respuestas a la pregunta
Contestado por
0
Terminó el 11 de noviembre de 1918 con el tratado de Versalles y la rendición de Alemania, que decía que Alemania(en ese momento la República de Weimar) debería de pagar a los de la triple entente( uk, Francia, usa etc) los daños causados// espero entender bien la otra, después de aquella guerra EEUU dijo que dejará de participar en problemas bélicos y se encargaría de su país, lo cual eso provocó la era de oro del jaz pero tuvo sus problemas económicos
Otras preguntas
Matemáticas,
hace 4 meses
Matemáticas,
hace 4 meses
Matemáticas,
hace 4 meses
Ciencias Sociales,
hace 7 meses
Física,
hace 7 meses
Filosofía,
hace 11 meses
Geografía,
hace 11 meses