Historia, pregunta formulada por Usuario anónimo, hace 8 meses

¿Cuales fueron los beneficios que obtuvieron los Estados Unidos, frente a los europeos despues de la primera guerra mundial?

Respuestas a la pregunta

Contestado por estefaniaescobedo
2
Hoy, cien años más tarde, Estados Unidos recuerda su papel decisivo en la guerra que había convertido a Europa en una carnicería y que solamente terminó cuando Estados Unidos se sumó a la lucha.
Otras preguntas