Historia, pregunta formulada por annaiir2010, hace 5 meses

escribe el significado de antropocentrismo​

Respuestas a la pregunta

Contestado por arlynandujar07
11

Respuesta:

El antropocentrismo es la doctrina que, en el plano de la epistemología, sitúa al ser humano como medida y centro de todas las cosas, y en el de la ética defiende que los intereses de los seres humanos son aquellos que deben recibir atención moral por encima de cualquier otra cosa.

Explicación:

Espero te sirva :>

Contestado por Paolina1705
3

Explicación:

Concepción filosófica que considera al ser humano como centro de todas las cosas y el fin absoluto de la creación.

"el cuerpo humano desnudo será el súmmum de las perfecciones y el objeto fundamental de los artistas, como reflejo del antropocentrismo del pensamiento humanista"

Otras preguntas