Biología, pregunta formulada por angiteamo21, hace 9 meses

Definición de ciencias de la tierra según tres autores.
Lo necesito urgente​

Respuestas a la pregunta

Contestado por mariangeleskruka
0

Respuesta:

Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. ... Su principal exponente es la geología.​ También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar.

Explicación:

Otras preguntas