Psicología, pregunta formulada por nenissssssss, hace 7 meses

que es el Biocentrismo

Respuestas a la pregunta

Contestado por alejandra5621
4

El biocentrismo es un término aparecido en los años 1970 para designar a una teoría moral que afirma que todo ser vivo merece respeto moral. Asociado en sus orígenes con la ecología profunda o ecologismo radical, el biocentrismo pretende reivindicar el valor primordial de la vida

Contestado por yesidmaderahernandez
0

Explicación:

el biocentrismo es un término aparecido de los años 1970

Otras preguntas