Geografía, pregunta formulada por Lalobitaestudiosa20, hace 9 meses

¿Qué son las ciencias de la tierra o geociencias?

Respuestas a la pregunta

Contestado por priscila04gmailcom
1

Respuesta:

Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. ... También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar

Explicación:

espero que te sirva.


Lalobitaestudiosa20: gracias
priscila04gmailcom: de nada
Otras preguntas