Historia, pregunta formulada por marcodelgado7202, hace 8 meses

¿Qué paso con Alemania tras la Primera Guerra Mundial, hacia afuera y en el interior del país?

Respuestas a la pregunta

Contestado por Usuario anónimo
1

Respuesta:

Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.

Otras preguntas