Historia, pregunta formulada por ncjunosecca, hace 1 año

por que le decian los alemanes los nasis











Respuestas a la pregunta

Contestado por jmanotas
0

Respuesta:La Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán (NSDAP) de Adolf Hitler gobernó el país. Oficialmente, el Estado alemán continuó denominándose Deutsches Reich (‘Imperio alemán’) como lo había sido ya en épocas anteriores desde 1871. Sin embargo, en 1943 el Gobierno nazi decidió adoptar la denominación Großdeutsches Reich (‘Gran Imperio Alemán’), que continuaría empleándose hasta 1945. Utilizando la propia terminología nazi, también es frecuente la denominación Tercer Reich para referirse a esta época.

Explicación:

Otras preguntas