definicion de ciencias que estudianla tierra
Respuestas a la pregunta
Contestado por
0
Respuesta:
Las ciencias de la Tierra o geociencias son disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales. Su principal exponente es la geología.
Otras preguntas
Inglés,
hace 4 meses
Exámenes Nacionales,
hace 4 meses
Matemáticas,
hace 11 meses
Tecnología y Electrónica,
hace 11 meses
Química,
hace 11 meses