Cuál es la ciencia que se encarga de dar la Tierra
Respuestas a la pregunta
Contestado por
0
Respuesta:
Las ciencias de la Tierra o geociencias son un conjunto de disciplinas cuyo objeto es el estudio del Planeta Tierra, su interacción con el universo, y la evolución de los seres vivos que habitan en él.
Otras preguntas
Historia,
hace 21 días
Castellano,
hace 21 días
Historia,
hace 21 días
Castellano,
hace 7 meses
Matemáticas,
hace 7 meses
Historia,
hace 7 meses