Historia, pregunta formulada por montserrat130907, hace 5 meses

el antropocentrismo que significa?​

Respuestas a la pregunta

Contestado por losteletubbies200037
5

Respuesta:

El antropocentrismo es la doctrina que, en el plano de la epistemología, sitúa al ser humano como medida y centro de todas las cosas, y en el de la ética defiende que los intereses de los seres humanos son aquellos que deben recibir atención moral por encima de cualquier otra cosa

Contestado por naaiaraof
4
El antropocentrismo es una nueva manera de pensar que se aplica en el renacimiento. En la Edad Media la sociedad era teocentrista, es decir, todo lo que ocurría era porque Dios lo había querido, Dios era el centro del universo. Pero en el renacimiento se produce un cambio de mentalidad, el antropocentrismo, que significa que el hombre se convierte en el centro del universo

Espero que ayudase :)
Otras preguntas