Ciencias Sociales, pregunta formulada por guadalupebenitez414, hace 2 meses

que quiere decir que el trabajo dignifica ?​

Respuestas a la pregunta

Contestado por jeyserccb
0

Respuesta:

Sigifica que cuando uno trabaja se sentirá mejor consigo mismo pues en la sociedad una persona que no trabaja no aporta en casa o a su familia, no está bien

Otras preguntas