Geografía, pregunta formulada por NoheTareasDificiles, hace 1 año

Definir Ciencia de la Tierra

Respuestas a la pregunta

Contestado por deborahvilla
5
las ciencias de la tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología evolucion y dinamica del planeta tierra
Otras preguntas