Geografía, pregunta formulada por vikimilagros23, hace 10 meses

cuales son los objetivos de las ciencias que estudian la tierra

Respuestas a la pregunta

Contestado por constanza2912
0

Respuesta:

Las Ciencias de la Tierra son un conjunto de disciplinas cuyo objetivo es el estudio del Planeta Tierra, y su interacción con el universo, y la evolución de los seres vivos que habitan sobre él.

Otras preguntas