que significa alemania naci
ayudaaaaaa plisss es para ya
cortezmtzsebas2007:
y naci va con z nazi
Respuestas a la pregunta
Contestado por
1
Respuesta:
La Alemania nazi, conocida también como el Tercer Reich, es el término historiográfico común en español al referirse al Estado alemán entre 1933 y 1945, durante el gobierno del Partido Nacionalsocialista Obrero Alemán (NSDAP) y su máximo dirigente, Adolf Hitler, al frente del país.
Contestado por
1
significa nazi
Explicación:
Otras preguntas
Matemáticas,
hace 2 meses
Ciencias Sociales,
hace 2 meses
Exámenes Nacionales,
hace 2 meses
Inglés,
hace 5 meses
Exámenes Nacionales,
hace 5 meses
Ciencias Sociales,
hace 10 meses