Ciencias Sociales, pregunta formulada por angelinaleiva9, hace 1 año

Qué significa que Dios le dio dominio al hombre sobre la Tierra?

díganme rápido porfavor ​

Respuestas a la pregunta

Contestado por armystaykpoperforeve
1

Respuesta:

significa que Dios dio al hombre la decision de hacer el mal o el bien sobre su creacion

espero que te ayude


david46125: no solo podemos hacer lo que queramos en la tierra, sino que la cuidemos y agradecieramos a DIOS que a creado todo el universo, podemos aseer lo que queramos pero no podemos pecar frente al DIOS viviente espero que te ayude
Otras preguntas