Geografía, pregunta formulada por angelsubirajoshua, hace 1 mes

2. Que nos enseñan los libro de geografia?​

Respuestas a la pregunta

Contestado por danilozambranop7r03v
2

Explicación:

Los libros de geografía cuyo objetivo primordial es la explicación de toda una serie de fenómenos naturales y sociales y no se refiere solo a la localización de esos fenómenos, sino que también estudia cómo son y cómo han cambiado para llegar a ser lo que son.

Contestado por solunquen
0

jajajaja la geografia ahh

Otras preguntas
Biología, hace 25 días