Geografía, pregunta formulada por sebas0936, hace 1 año

Definición ciencia que trata la descripción de la Tierra

Respuestas a la pregunta

Contestado por danielacp2007
1

Respuesta: Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. ... También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar.

Espero que te ayude :)

Otras preguntas