que dice antroposentrismo sobre el sentido de la vida :)?
Respuestas a la pregunta
Contestado por
0
Respuesta:
El antropocentrismo es una teoría filosófica en la cual se concibe al ser humano y sus intereses como el centro de todo, por lo que se produce una supeditación de lo “demás” (seres vivos, medio ambiente, etcétera) a las necesidades y bienestar del ser humano. Veamos el origen de la teoría que nos ocupa.
La evolución del teocentrismo al antropocentrismo se gesta cuando el hombre deja de adjudicarle a la existencia de un ser divino la mayoría de fenómenos, descubre la ciencia, por lo que la divinidad se ve desplazada para dar pie a la figura dominante: el ser humano. Francois Ost señala que el dominio irracional del ser humano sobre la naturaleza tiene un origen bíblico
Explicación:
Otras preguntas
Matemáticas,
hace 1 mes
Castellano,
hace 1 mes
Matemáticas,
hace 9 meses
Matemáticas,
hace 9 meses
Matemáticas,
hace 9 meses