Filosofía, pregunta formulada por mariliferreira1987, hace 7 meses

que significa la naturaleza dominaba al hombre?​

Respuestas a la pregunta

Contestado por amiamuespi
0

Respuesta:

que esta tenia mas libertad en cuanto a los animales y lugares pero ahora el hombre lo esta exterminando

Otras preguntas