Que quiere decir la geografía
Respuestas a la pregunta
Contestado por
0
Respuesta:
La geografía es la ciencia que estudia las relaciones entre la sociedad y el espacio, pero a diferencia de otras disciplinas, la geografía parte de una visión integral desde diferentes campos, empezando por la enseñanza, en donde se requiere dar interpretaciones globales sobre el mundo, hasta la ordenación
Otras preguntas