Historia, pregunta formulada por lolipop1234, hace 1 año

¿Qué ganó Alemania después de la Primera Guerra Mundial?

a. Gano más territorio en Medio Oriente y Europa.
b. Ganó más territorio en África.
c. Nada porque perdió su imperio colonial.

Respuestas a la pregunta

Contestado por nicozam1203
1
C. básicamente Alemania quedó en ruinas y gracias al tratado de Versalles le arrebataron gran parte de su territorio
Otras preguntas