el nazismo en Alemania
Respuestas a la pregunta
Contestado por
2
La Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán de Adolf Hitler gobernó el país.
Otras preguntas
Ciencias Sociales,
hace 5 meses
Religión,
hace 5 meses
Matemáticas,
hace 10 meses
Matemáticas,
hace 10 meses
Matemáticas,
hace 11 meses
Biología,
hace 11 meses
Biología,
hace 11 meses