Historia, pregunta formulada por marialeonbernal78, hace 1 año

Como influyo el capitalismo en esta crisis laboral y en el nacionalismo alemán???

Respuestas a la pregunta

Contestado por abrudimeco1
148

Respuesta:

El Nacionalismo alemán (en alemán: Deutschnationalismus) es una ideología política y cultural que afirma que los alemanes son una nación y que promueve la unidad cultural entre ellos.1​ Los primeros orígenes del nacionalismo alemán comenzaron con el nacimiento del nacionalismo romántico durante las Guerras napoleónicas, cuando el pangermanismo comenzó a extenderse. La defensa de la nación alemana comenzó a convertirse en una importante fuerza política en respuesta a la invasión de territorios alemanes por la Francia de Napoleón. Después del ascenso y caída de la Alemania nazi, el nacionalismo alemán ha acabado convirtiéndose en un tabú dentro de la propia Alemania.2​ No obstante, durante la Guerra Fría surgió una corriente moderada del nacionalismo alemán que apoyó la reunificación de la Alemania Oriental y Occidental, lo que finalmente se lograría en 1990.

Explicación:

Otras preguntas