Ciencias Sociales, pregunta formulada por andrez234, hace 1 año

¿que son los nasis?ya se que son de Alemania¿pero que son?

Respuestas a la pregunta

Contestado por goback
1
Nazi es la contracción de la palabra alemana Nationalsozialist, de la cual deriva Nationalsozialismus, que significa nacionalsocialismo o Nazismo. 
La palabra nazi se utiliza para todo lo que se relaciona con el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del partido nacionalsocialista, el autoproclamado Tercer Reich y Austria a partir de la Anschluss. La Alemania de este periodo se conoce como la Alemania nazi.
Contestado por elnalpz
2
Los nazis creían en una ideología política llamada ''Nazismo'' donde básicamente ellos se creían la mejor raza de la Tierra y que por ello tenían mejores derechos y podían mandar sobre sus ''inferiores''. La raza que más odiaban eran judíos, minusválidos, gente con alguna enfermedad, homosexuales,...
Otras preguntas