Definición de ciencias de la tierra según tres autores.
Lo necesito urgente
Respuestas a la pregunta
Contestado por
0
Respuesta:
Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. ... Su principal exponente es la geología. También forman parte de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del sistema solar.
Explicación:
Otras preguntas
Administración,
hace 4 meses
Historia,
hace 4 meses
Matemáticas,
hace 9 meses
Ciencias Sociales,
hace 1 año
Matemáticas,
hace 1 año