Filosofía, pregunta formulada por alejandradelatorre20, hace 11 meses

crees que es necesario reconocer los derechos de la naturaleza para formar una nueva sociedad?

Respuestas a la pregunta

Contestado por audrey93
2

Respuesta:

si

Explicación:

cada vez hay un mayor reconocimiento jurídico de que la naturaleza tiene derechos, y afirmarlos es esencial tanto para un ambiente sano

Otras preguntas