Derecho , pregunta formulada por negro12rebora, hace 7 meses

con respecto a los derechos de los trabajadores​

Respuestas a la pregunta

Contestado por nicoleargencio
0

Respuesta:

- El trabajo es un derecho y un deber social. Gozará de la protección del Estado, el que asegurará al trabajador el respeto a su dignidad, una existencia decorosa y una remuneración justa que cubra sus necesidades y las de su familia.

Explicación:

Espero que te sirva

Otras preguntas