¿que son los nasis?ya se que son de Alemania¿pero que son?
Respuestas a la pregunta
Contestado por
1
Nazi es la contracción de la palabra alemana Nationalsozialist, de la cual deriva Nationalsozialismus, que significa nacionalsocialismo o Nazismo.
La palabra nazi se utiliza para todo lo que se relaciona con el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del partido nacionalsocialista, el autoproclamado Tercer Reich y Austria a partir de la Anschluss. La Alemania de este periodo se conoce como la Alemania nazi.
La palabra nazi se utiliza para todo lo que se relaciona con el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del partido nacionalsocialista, el autoproclamado Tercer Reich y Austria a partir de la Anschluss. La Alemania de este periodo se conoce como la Alemania nazi.
Contestado por
2
Los nazis creían en una ideología política llamada ''Nazismo'' donde básicamente ellos se creían la mejor raza de la Tierra y que por ello tenían mejores derechos y podían mandar sobre sus ''inferiores''. La raza que más odiaban eran judíos, minusválidos, gente con alguna enfermedad, homosexuales,...
Otras preguntas