Filosofía, pregunta formulada por laurasl11, hace 1 año

¿Cual es la importancia del trabajo para el hombre? ¿como dignifica la vida del mismo?

Respuestas a la pregunta

Contestado por Josué014
2
El trabajo es importante porque le enseña al hombre a ganarse las cosas y no robar, a obtener cosas como alimento, protección, le enseña a convivir y relacionarse con otras persona, obtener conocimientos nuevos y descubrir capacidades que desconocía que tenía.
Contestado por tuiranlaucia123
0

yo tengo la respuesta con otra pregunta pero similar

¿porque se puede afirmar que el trabajo dignifica al hombre a partir de su autoestima?

porque el hombre se siente integrado a la sociedad,  y a la vez el trabajo genera un imagen positiva y mejora la calidad de vida, para sentirse util

Otras preguntas