Ciencias Sociales, pregunta formulada por pinedasofia979, hace 2 meses

Geografía que significa y que tiene que ver con la ciencias sociales

Respuestas a la pregunta

Contestado por jazipuga
0

La Geografía es la ciencia que estudia y describe el entorno que nos rodea y nos proporciona información que nos ayuda a conocerlo y entenderlo. Se basa en el análisis de los elementos físicos, sociales y económicos que coinciden en un lugar y tiempo determinados.

d nd

Contestado por dulsefernandez01
0

respuesta

Geografía que significa

Ciencia que estudia y describe la superficie de la Tierra en su aspecto físico, actual y natural, o como lugar habitado por la humanidad.

que tiene que ver con la ciencias sociales

La geografía social es una disciplina que forma parte de la geografía humana, y que estudia las relaciones entre las distintas sociedades humanas, y el territorio que estas ocupan, así como su modo recíproco de afectarse y condicionarse.

Explicación

La geografía es la ciencia que estudia las características de la tierra en relación con la sociedad.

OJALÁ TE SIRVA

Otras preguntas