Geografía que significa y que tiene que ver con la ciencias sociales
Respuestas a la pregunta
Contestado por
0
La Geografía es la ciencia que estudia y describe el entorno que nos rodea y nos proporciona información que nos ayuda a conocerlo y entenderlo. Se basa en el análisis de los elementos físicos, sociales y económicos que coinciden en un lugar y tiempo determinados.
d nd
Contestado por
0
respuesta
Geografía que significa
Ciencia que estudia y describe la superficie de la Tierra en su aspecto físico, actual y natural, o como lugar habitado por la humanidad.
que tiene que ver con la ciencias sociales
La geografía social es una disciplina que forma parte de la geografía humana, y que estudia las relaciones entre las distintas sociedades humanas, y el territorio que estas ocupan, así como su modo recíproco de afectarse y condicionarse.
Explicación
La geografía es la ciencia que estudia las características de la tierra en relación con la sociedad.
OJALÁ TE SIRVA
Otras preguntas