Ciencias Sociales, pregunta formulada por LucyClock, hace 1 año

¿Qué es fundamental sobre el estudio de la ciencia de la tierra?

Respuestas a la pregunta

Contestado por 12hola21
1

Respuesta:

Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología.

Explicación:

Otras preguntas