Biología, pregunta formulada por alexamendoz164, hace 10 meses

para ti que significa ciencias de la tierra?​

Respuestas a la pregunta

Contestado por isa6688
1

Respuesta:

disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales.

Otras preguntas