¿Que pasó con el Imperio Alemán después de la 1ra Guerra Mundial?
Respuestas a la pregunta
Contestado por
1
Respuesta:
Fue el fin del Imperio alemán
Contestado por
1
Respuesta:
Explicación:
Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.
Otras preguntas
Química,
hace 1 mes
Geografía,
hace 1 mes
Euskera,
hace 1 mes
Matemáticas,
hace 1 mes
Matemáticas,
hace 8 meses
Inglés,
hace 8 meses