Historia, pregunta formulada por yessi8366, hace 2 meses



¿ POR QÚE ESTADOS UNIDOS TOMA GRAN IMPORTANCIA DESPUES DE LA 1 GUERRA MUNDIAL?

Respuestas a la pregunta

Contestado por LunaticoUwU
0

Respuesta:

La guerra confirmó el papel de liderazgo de Estados Unidos en los asuntos internacionales. En el país, amplió el tamaño y el alcance del gobierno e incluso ayudó a la mujer a asegurarse el voto luego que miles de ellas ingresaran a las fuerzas armadas y trabajaran en las fábricas.

Explicación:

Espero que te sirva :)

Otras preguntas