¿Qué ganó Alemania después de la Primera Guerra Mundial?
a. Gano más territorio en Medio Oriente y Europa.
b. Ganó más territorio en África.
c. Nada porque perdió su imperio colonial.
Respuestas a la pregunta
Contestado por
1
C. básicamente Alemania quedó en ruinas y gracias al tratado de Versalles le arrebataron gran parte de su territorio
Otras preguntas
Biología,
hace 7 meses
Matemáticas,
hace 7 meses
Química,
hace 7 meses
Ciencias Sociales,
hace 1 año
Química,
hace 1 año