Ciencias Sociales, pregunta formulada por yesica0101, hace 1 año

que cambios se dan con hitler en el poder?

Respuestas a la pregunta

Contestado por e60869288
1

Respuesta:

En el Tratado de Versalles, posterior a la derrota alemana en la Primera Guerra Mundial, las potencias vencedoras (Estados Unidos, Gran Bretaña, Francia y otros estados aliados) le imponen rigurosos términos a Alemania. Alemania, bajo amenaza de invasión, se ve obligada a firmar el tratado. Entre otras cláusulas, Alemania acepta la responsabilidad por la guerra y acuerda efectuar enormes pagos (conocidos como compensaciones), limitar su ejército a 100.000 hombres y transferir territorio a sus vecinos. Los términos del tratado condujeron a un descontento político generalizado en Alemania y Adolf Hitler gana apoyo prometiendo anularlos.

Explicación:

ahi esta crack espero que te ayude


e60869288: gracias linda
Otras preguntas