Geografía, pregunta formulada por angeldelarosa8881, hace 1 mes

Cuál es la ciencia que se encarga de dar la Tierra​

Respuestas a la pregunta

Contestado por StepThay
0

Respuesta:

Las ciencias de la Tierra o geociencias son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, su interacción con el universo, y la evolución de los seres vivos que habitan en él.

Otras preguntas