que es el Biocentrismo
Respuestas a la pregunta
Contestado por
4
El biocentrismo es un término aparecido en los años 1970 para designar a una teoría moral que afirma que todo ser vivo merece respeto moral. Asociado en sus orígenes con la ecología profunda o ecologismo radical, el biocentrismo pretende reivindicar el valor primordial de la vida
Contestado por
0
Explicación:
el biocentrismo es un término aparecido de los años 1970
Otras preguntas
Arte,
hace 3 meses
Religión,
hace 3 meses
Biología,
hace 7 meses
Biología,
hace 7 meses
Matemáticas,
hace 11 meses