Geografía, pregunta formulada por mmela1704, hace 1 año

¿Qué cambios se produgieron en Europa después de la Primera Guerra Mundial?



Respuestas a la pregunta

Contestado por nahueltuama93
1

europa despues de la primera guerra mundial el 11 de noviembre de 1918 finalmente alemania firmaba el armisticio poniendo fin a la guerra mundial en la cual las potencias aliadas salieron victoriosas

Otras preguntas