¿Qué lograron los Estados Unidos con la primera guerra mundial? *
Tu respuesta
Respuestas a la pregunta
Contestado por
1
Respuesta:
Territorio y respeto ante demás paises
Contestado por
1
Respuesta:
La Primera Guerra Mundial y Estados Unidos: Relato de los estadounidenses que la vivieron”. “Luego de dar ayuda humanitaria a países lejanos durante las etapas tempranas de la guerra, Estados Unidos procedió a actuar en base a un imperativo moral, ofreciendo el compromiso de todo el país en nombre de la paz y la libertad”.
Explicación:
La guerra confirmó el papel de liderazgo de Estados Unidos en los asuntos internacionales. En el país, amplió el tamaño y el alcance del gobierno e incluso ayudó a la mujer a asegurarse el voto luego que miles de ellas ingresaran a las fuerzas armadas y trabajaran en las fábricas.
Otras preguntas