Ciencias Sociales, pregunta formulada por andres212006, hace 9 meses

¿Que entiende por la Alemania Naci?


ahora ayudenme en eso porfa

Respuestas a la pregunta

Contestado por cuevasramirezl45
3

Respuesta:

Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán (NSDAP) dirigido por Adolf Hitler gobernó el país.


andres212006: gracia brou
cuevasramirezl45: de nada
Otras preguntas