Historia, pregunta formulada por luciadelizia5, hace 1 año

Qué sucedió con Alemania en la 1ra guerra mundial?

Respuestas a la pregunta

Contestado por mikysongs
3
Tras el término de la Primera Guerra Mundial en noviembre de 1918, las potencias vencedoras como Francia y Gran Bretaña impusieron a la derrotada Alemania el pago de reparaciones de guerra por la destrucción causada durante el conflicto, sufrida principalmente en Bélgica y el norte de Francia
Otras preguntas