Historia, pregunta formulada por danielmorande86, hace 18 horas

a) ¿Qué ocurrió con Estado Unidos al terminar la primera guerra mundial?​

Respuestas a la pregunta

Contestado por angelveg008
1

Respuesta:

Estados Unidos, que se mantuvo neutral hasta 1917, salió económicamente fortalecido de la guerra. Sus exportaciones de alimentos se duplicaron a lo largo de la guerra y sus préstamos fueron fundamentales a la hora de financiar a los aliados.

Otras preguntas