Historia, pregunta formulada por estivensanlopez16, hace 11 meses

Luego que los alemanes admitieron su derrota en noviembre de 1918, se reunieron los representantes de los vencedores y vencidos para poner fin legalmente a la Primera Guerra Mundial. Los vencedores (Gran Bretaña, Francia e Italia, principalmente) impusieron un pacto de paz que obligaba a los alemanes a ceder varios territorios y pagar una fuerte indemnización por los daños de la guerra. Con lo anterior en Alemania:

Respuestas a la pregunta

Contestado por ferospigliosi
0
No entendí en lo que quieres que te ayude pero más o menos en Alemania se hicieron muchos cambios después de la guerra ya que algunos de los representantes más horribles de la guerra que mataban gente fueron encerrados a condena y otros prefirieron suicidarse además también tuvieron que pagar muchos territorios que fueron dañados en su país y el de otros por la guerra que se dio.

Síganme en insta:rospigliosifernanda
Contestado por cristiangarciat17
0

Respuesta:

nose

Explicación:

nose por2

Otras preguntas