Biología, pregunta formulada por miasaldivia415, hace 20 horas

¿porque es importante aprender sobre las ciencias de la tierra? ​

Respuestas a la pregunta

Contestado por geanellanata0
1

Respuesta:

Las Ciencias de la Tierra permiten entender los procesos naturales y su estudio está ligado tanto a la investigación de los flujos de energía en la naturaleza y en algunos casos, al aprovechamiento de los mismos, así como a la prevención de riesgos.

Explicación:

Espero te ayude:)

Otras preguntas