Galego, pregunta formulada por abeldavila645, hace 10 meses

el nazismo en Alemania ​

Respuestas a la pregunta

Contestado por Usuario anónimo
2

La Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán de Adolf Hitler gobernó el país.

Otras preguntas