Historia, pregunta formulada por lunabianca12liz, hace 9 meses

que postura tuvo Alemania al terminar la primera Guerra mundial? ​

Respuestas a la pregunta

Contestado por guapera2021
6

Respuesta:

Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.

Explicación:

esto te sirvió ❤️


lunabianca12liz: muchas gracias
Contestado por danielgameromorales
3

Respuesta:Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía

Explicación:Espero que te ayude


lunabianca12liz: Gracias por su respuesta
Otras preguntas