Historia, pregunta formulada por lux441, hace 5 meses

Qué sucedió en Europa con la llegada del nazismo

Respuestas a la pregunta

Contestado por daniela228848
1

Respuesta:La ideología del nazismo ganó fuerza en la Alemania derrotada en la Primera Guerra Mundial. Hitler explotó el descontento surgido por la derrota del Imperio Alemán, la debilidad de su frágil heredera, la República de Weimar, y las imposiciones de los vencedores de la guerra en el Tratado de Versalles.

Explicación:

Otras preguntas