Historia, pregunta formulada por Xoultrux, hace 4 meses

Cual fue el papel de Estados Unidos después después de la primera Guerra Mundial?

Respuestas a la pregunta

Contestado por youngmi19k
1

Estados Unidos procedió a actuar en base a un imperativo moral, ofreciendo el compromiso de todo el país en nombre de la paz y la libertad.

Otras preguntas