Historia, pregunta formulada por celtasvikingos, hace 7 meses

¿Cómo influyó el capitalismo en esta crisis laboral y el nacionalismo alemán?

Respuestas a la pregunta

Contestado por cesazuro03
6

Respuesta:

Explicación:

El Nacionalismo alemán (en alemán: Deutschnationalismus) es una ideología política y cultural que afirma que los alemanes son una nación y que promueve la unidad cultural entre ellos.1​ Los primeros orígenes del nacionalismo alemán comenzaron con el nacimiento del nacionalismo romántico durante las Guerras napoleónicas, cuando el pangermanismo comenzó a extenderse. La defensa de la nación alemana comenzó a convertirse en una importante fuerza política en respuesta a la invasión de territorios alemanes por la Francia de Napoleón. Después del ascenso y caída de la Alemania nazi, el nacionalismo alemán ha acabado convirtiéndose en un tabú dentro de la propia Alemania.2​ No obstante, durante la Guerra Fría surgió una corriente moderada del nacionalismo alemán que apoyó la reunificación de la Alemania Oriental y Occidental, lo que finalmente se lograría en 1990.

Otras preguntas