Geografía, pregunta formulada por Analyluna1992, hace 4 meses

Que quiere decir la geografía​

Respuestas a la pregunta

Contestado por ezequielalfaro031
0

Respuesta:

La geografía es la ciencia que estudia las relaciones entre la sociedad y el espacio, pero a diferencia de otras disciplinas, la geografía parte de una visión integral desde diferentes campos, empezando por la enseñanza, en donde se requiere dar interpretaciones globales sobre el mundo, hasta la ordenación

Otras preguntas