Ciencias Sociales, pregunta formulada por Analaishamorabaez, hace 6 meses

¿Qué lograron los Estados Unidos con la primera guerra mundial? *
Tu respuesta

Respuestas a la pregunta

Contestado por andresaqp2018
1

Respuesta:

Territorio y respeto ante demás paises

Contestado por jazminmorales4985
1

Respuesta:

La Primera Guerra Mundial y Estados Unidos: Relato de los estadounidenses que la vivieron”. “Luego de dar ayuda humanitaria a países lejanos durante las etapas tempranas de la guerra, Estados Unidos procedió a actuar en base a un imperativo moral, ofreciendo el compromiso de todo el país en nombre de la paz y la libertad”.

Explicación:

La guerra confirmó el papel de liderazgo de Estados Unidos en los asuntos internacionales. En el país, amplió el tamaño y el alcance del gobierno e incluso ayudó a la mujer a asegurarse el voto luego que miles de ellas ingresaran a las fuerzas armadas y trabajaran en las fábricas.

Otras preguntas