Definición de ciencias de la tierra según varios autores.
Lo necesito urgente
Respuestas a la pregunta
Contestado por
0
Respuesta:
Las ciencias de la Tierra o geociencias son las disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Constituyen un caso particular de las ciencias planetarias, las cuales se ocupan del estudio de los planetas del Sistema Solar.
Explicación:
Otras preguntas
Matemáticas,
hace 4 meses
Castellano,
hace 4 meses
Física,
hace 4 meses
Análisis de la materia y la energía,
hace 11 meses
Biología,
hace 11 meses
Química,
hace 11 meses