Religión, pregunta formulada por dennimaraguilar974, hace 3 meses

¿es cierto que el trabajo dignifica al hombre?

Respuestas a la pregunta

Contestado por samanthamarreroc
3

Respuesta:

La dignidad humana es un término tan amplio como fundamental. Dice el dicho que «El trabajo dignifica a la persona». En esta dignidad intrínseca de la que se habla en la Declaración de Derechos Humanos influyen un abanico de condicionantes que pueden aumentar su dimensión o por el contrario reducirla.

Otras preguntas