Historia, pregunta formulada por valentinzapata1306, hace 1 mes

¿Que pasó con el Imperio Alemán después de la 1ra Guerra Mundial? ​

Respuestas a la pregunta

Contestado por mostaza28
1

Respuesta:

Fue el fin del Imperio alemán

Contestado por cristianbereche26
1

Respuesta:

Explicación:

​ Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.

Otras preguntas