Historia, pregunta formulada por lizsama, hace 11 meses

que países ganaron territorio en la primera guerra mundial?

Respuestas a la pregunta

Contestado por taehyungkim13
2

Respuesta:

espero que ayude

Explicación:

Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía.

Otras preguntas