Historia, pregunta formulada por victor22002, hace 8 meses

¿que paso en Europa al finalizar la primera guerra mundial?​

Respuestas a la pregunta

Contestado por lizalgarra
2

Respuesta:

que todo se acabo al final

Explicación:

Contestado por casmyuwu
4

Fue en ese momento cuando ingleses y franceses presionaron al presidente estadounidense para que imponer unos términos más duros para el armisticio. La firma del Tratado de Versalles firmado el 28 de junio de 1919 y que se puso en vigor el 10 de enero de 1920 supuso por fin la paz, pero una paz por la que Alemania se veía obligada a entregar territorios, armas y a pagar una elevada cantidad en concepto de indemnización por la destrucción que causó. Para muchos, esta firma supuso una afrenta y una humillación para el pueblo alemán. Este acuerdo sería explotado por la extrema derecha nacionalista alemana, entre la que se contaba el partido nazi, para justificar el rearme de Alemania en vistas a una nueva contienda

Otras preguntas