Geografía, pregunta formulada por alvezmateus20, hace 1 mes

Que hace de la geografia una ciencia?

Respuestas a la pregunta

Contestado por alasashey
0

Explicación:

La geografía es la ciencia que estudia las relaciones entre la sociedad y el espacio, pero a diferencia de otras disciplinas, la geografía parte de una visión integral desde diferentes campos, empezando por la enseñanza, en donde se requiere dar interpretaciones globales sobre el mundo, hasta la ordenación

Otras preguntas