Definición de ciencias de la tierra según varios autores.
Lo necesito urgente
Respuestas a la pregunta
Contestado por
0
Respuesta:
Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Constituyen un caso particular de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del Sistema Solar.
Explicación:
Otras preguntas
Matemáticas,
hace 6 meses
Contabilidad,
hace 6 meses
Matemáticas,
hace 6 meses
Análisis de la materia y la energía,
hace 1 año
Biología,
hace 1 año