Religión, pregunta formulada por nata8asanchez, hace 2 meses

que dice antroposentrismo sobre el sentido de la vida :)?​

Respuestas a la pregunta

Contestado por benjaminespinozaruiz
0

Respuesta:

El antropocentrismo es una teoría filosófica en la cual se concibe al ser humano y sus intereses como el centro de todo, por lo que se produce una supeditación de lo “demás” (seres vivos, medio ambiente, etcétera) a las necesidades y bienestar del ser humano. Veamos el origen de la teoría que nos ocupa.

La evolución del teocentrismo al antropocentrismo se gesta cuando el hombre deja de adjudicarle a la existencia de un ser divino la mayoría de fenómenos, descubre la ciencia, por lo que la divinidad se ve desplazada para dar pie a la figura dominante: el ser humano. Francois Ost señala que el dominio irracional del ser humano sobre la naturaleza tiene un origen bíblico

Explicación:

Otras preguntas