Biología, pregunta formulada por Elynbermudes, hace 3 meses

que son ciencias de la tierra

Respuestas a la pregunta

Contestado por ari11gato07
1

Respuesta:

Las ciencias de la Tierra o geociencias son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, su interacción con el universo, y la evolución de los seres vivos que habitan en él.

Explicación:

Otras preguntas