Religión, pregunta formulada por roconneram596q, hace 2 meses

- ¿Qué significa tratar el cuerpo con dignidad?

Respuestas a la pregunta

Contestado por axka28kasama
1

Respuesta:

La evolución de este concepto a través de la historia del pensamiento occidental lleva a la conclusión de que la dignidad humana no puede ser fruto de una conquista, pues serían muchos los que, conforme al parámetro establecido, no la alcanzarían. La dignidad es intrínseca a la persona humana en razón de lo que es específico de su naturaleza: su ser espiritual. Esta dignidad es más que moral, más que ética, más que psicológica: es constitutiva del ser humano y su naturaleza es ontológica. No se la puede dar él a sí mismo ni podemos hacerla depender de su vida moral, tampoco se la puede dar el Estado -como sucedía en Roma- o la sociedad, aunque a ellos corresponda reconocerla y vigilar que no haya violaciones.

Explicación:

Adjuntos:
Otras preguntas