Historia, pregunta formulada por apinachos, hace 17 horas

Alemania en este tiempo es era la primera que​

Respuestas a la pregunta

Contestado por yairaisabellagaleano
0

Respuesta:

El territorio de la actual Alemania ha estado habitado desde tiempos remotos, pero debieron de pasar muchos siglos —con numerosas inmigraciones, invasiones y conquistas— para que se configuraran las particularidades nacionales de los alemanes. En el sentido estricto de la palabra, Alemania como Estado no existió hasta la fundación del Imperio alemán en 1871. Hasta ese momento, "Alemania" había sido conformada por cientos de principados y condados que, si bien compartían una sola lengua y daban tributo a un solo emperador, eran de facto independientes entre sí.

La Unificación de Alemania concluyó con la proclamación del Imperio alemán (Segundo Reich) el 18 de enero de 1871, con Prusia a la cabeza. Al iniciar el siglo xx, Alemania ya era una de las grandes potencias de Europa, rivalizando con la hegemonía de Reino Unido. El imperio lideró a las Potencias Centrales durante la Primera Guerra Mundial (1914-18), que resultó con su derrota y partición por parte de los Aliados. El Reich fue reemplazado por la República de Weimar, que sufrió de una constante inestabilidad política y económica. Tras la Gran Depresión, el país entró en una severa crisis que facilitó el auge del Partido Nacionalsocialista Obrero Alemán, que llegó al poder en 1933 con la elección de Adolf Hitler como canciller. Hitler proclamó el Tercer Reich y llevó a cabo una política expansionista que resultó en el estallido de la Segunda Guerra Mundial (1939-1945), conflicto que volvió a concluir en derrota alemana.

Explicación:

espero que te sirva ✨❤️

Otras preguntas