¿Que entiende por la Alemania Naci?
ahora ayudenme en eso porfa
Respuestas a la pregunta
Contestado por
3
Respuesta:
Alemania nazi o nacionalsocialista son términos historiográficos empleados normalmente para referirse al periodo de la historia de Alemania comprendido entre 1933 y 1945, cuando el Partido Nacionalsocialista Obrero Alemán (NSDAP) dirigido por Adolf Hitler gobernó el país.
andres212006:
gracia brou
Otras preguntas
Biología,
hace 4 meses
Educ. Fisica,
hace 4 meses
Inglés,
hace 9 meses
Biología,
hace 9 meses
Matemáticas,
hace 1 año
Matemáticas,
hace 1 año