para ti que significa ciencias de la tierra?
Respuestas a la pregunta
Contestado por
1
Respuesta:
disciplinas de las ciencias naturales que estudian la estructura, morfología, evolución y dinámica del planeta Tierra. Su precedente más importante está formado por las ciencias naturales.
Otras preguntas
Castellano,
hace 8 meses
Química,
hace 1 año
Historia,
hace 1 año
Matemáticas,
hace 1 año
Matemáticas,
hace 1 año