Geografía, pregunta formulada por sabinejossmargonzale, hace 2 meses

En qué país surgió la geografía?

Respuestas a la pregunta

Contestado por vedelidzerodriguez38
0

Respuesta:

En qué país surgió la geografía?

En su génesis institucional en el siglo XVIII en Alemania, Francia e Inglaterra, la geografía es una disciplina que se enseña y aprende en la universidad. Es una ciencia cuyo interés es la comprensión de la organización del espacio y la relación entre la política, la cultura y el territorio.

Explicación:

Holi espero que esto te sirva y que tengas un lindo día

Contestado por estebancarlos371
0

Respuesta:

Grecia

Explicación:

Básicamente, esta evolución se puede dividir en dos grandes periodos: un periodo premoderno que comenzaría en Grecia, y un periodo moderno a partir del siglo XIX donde se produce su institucionalización universitaria, lo que tuvo una influencia enorme en su desarrollo.

Otras preguntas