Historia, pregunta formulada por gastonalevega, hace 1 año

que sucedio luego de la primera guerra mundial

Respuestas a la pregunta

Contestado por pentroman
6

El 11 de noviembre de 1918 finalmente Alemania firmaba el armisticio poniendo fin a la Primera Guerra Mundial, en la cual las potencias aliadas salieron victoriosas. En 1919 se reunieron en París los representantes de las potencias vencedoras para elaborar los tratados de Paz; en estos tratados se mostraban las consecuencias que tenían que pagar a los países derrotados.


Otras preguntas