Religión, pregunta formulada por candebrizuela14, hace 10 meses

que significa que Dios le haya dado poder al hombre de dominar a la tierra??​

Respuestas a la pregunta

Contestado por karen178957
2

Respuesta:

Dios le dio al hombre el poder de dominar la tierra para que a través de eso el ordenara y gobernara las naciones y los pueblos

Explicación:

espero te ayude

Otras preguntas