definicion de ciencias que estudianla tierra
Respuestas a la pregunta
Contestado por
0
Respuesta:
Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología.
Otras preguntas
Biología,
hace 5 meses
Matemáticas,
hace 1 año
Tecnología y Electrónica,
hace 1 año
Química,
hace 1 año