que postura tuvo Alemania al terminar la primera Guerra mundial?
Respuestas a la pregunta
Contestado por
6
Respuesta:
Después de la Primera Guerra Mundial Alemania perdió el 10% de su territorio a favor de sus vecinos y se formó entonces la República de Weimar. Esta república incluyó territorios al este de los actuales límites alemanes, en su mayoría Prusia Oriental.
Explicación:
esto te sirvió ❤️
lunabianca12liz:
muchas gracias
Contestado por
3
Respuesta:Alemania perdió la Primera Guerra Mundial, y en el Tratado de Versalles de 1919, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y los otros estados aliados) impusieron a la derrotada Alemania disposiciones punitivas para su territorio, milicia y economía
Explicación:Espero que te ayude
Otras preguntas
Geografía,
hace 5 meses
Tecnología y Electrónica,
hace 5 meses
Matemáticas,
hace 9 meses
Matemáticas,
hace 9 meses
Historia,
hace 1 año