Biología, pregunta formulada por angiteamo21, hace 8 meses

Definición de ciencias de la tierra según varios autores.
Lo necesito urgente ​

Respuestas a la pregunta

Contestado por idkValenzuela
0

Respuesta:

Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Constituyen un caso particular de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del Sistema Solar.

Explicación:

Otras preguntas