Historia, pregunta formulada por Livedmb, hace 9 meses

¿En que periodo de la Historia de America surgieron los Estado Nación?

Respuestas a la pregunta

Contestado por melissagarciaestrada
1

Respuesta:

El Estado nación surge, históricamente, mediante el tratado de Westfalia, al final de la guerra de los Treinta Años (1648). Mediante este tratado se acaba con el antiguo orden feudal y se da paso a organizaciones territoriales definidas en torno a un gobierno que reconoce sus límites y su poder.

Explicación:

suerte

Otras preguntas