que significa la palabra geografía como ciencia social?
Respuestas a la pregunta
Contestado por
3
Respuesta:
La geografía es la disciplina que trata de la descripción o de la representación gráfica de la Tierra. En sentido amplio es la ciencia que estudia la superficie terrestre, las sociedades que la habitan y los territorios, paisajes, lugares o regiones que la forman al relacionarse entre sí.
Explicación:
gracias xd
Contestado por
0
Respuesta:
que estudia y describe la tierra y señala las características y la localización de los sistemas que aparecen en su superficie.
Otras preguntas
Matemáticas,
hace 3 meses
Física,
hace 3 meses
Filosofía,
hace 3 meses
Física,
hace 7 meses
Inglés,
hace 7 meses
Castellano,
hace 11 meses
Inglés,
hace 11 meses