Cuál es la importancia de las ciencias de la tierra?
Respuestas a la pregunta
Contestado por
3
Respuesta:
Explicación:
Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología. Forman también parte de las ciencias planetarias, las que se ocupan del estudio de los planetas del sistema solar.
Otras preguntas