Biología, pregunta formulada por michellecdbvalentina, hace 1 año

Cuál es la importancia de las ciencias de la tierra?

Respuestas a la pregunta

Contestado por Acroos1
3

Respuesta:

Explicación:

Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología. Forman también parte de las ciencias planetarias, las que se ocupan del estudio de los planetas del sistema solar.

Otras preguntas