Geografía, pregunta formulada por facgar10p6sgtw, hace 4 meses

que significa la palabra geografía como ciencia social?​

Respuestas a la pregunta

Contestado por robersoncollate17
3

Respuesta:

La geografía es la disciplina que trata de la descripción o de la representación gráfica de la Tierra.​​ En sentido amplio es la ciencia que estudia la superficie terrestre, las sociedades que la habitan y los territorios, paisajes, lugares o regiones que la forman al relacionarse entre sí.​

Explicación:

gracias xd

Contestado por emilydulce1427
0

Respuesta:

que estudia y describe la tierra y señala las características y la localización de los sistemas que aparecen en su superficie.

Otras preguntas