Historia, pregunta formulada por jessicamunoz746, hace 4 meses

el significado justicia laboral​

Respuestas a la pregunta

Contestado por stritua
1
El derecho laboral, derecho del trabajo o derecho social​ es una rama del derecho cuyos principios y normas jurídicas tienen por objeto la tutela del trabajo humano realizado en forma libre, por cuenta ajena, en relación de dependencia y a cambio de una contraprestación. justicia laboral es el conjunto de instituciones en un país que se encargan de hacer cumplir las leyes en materia laboral, especialmente aquellas referentes a la contratación y el despido de trabajadores.
(ME DAS CORONITA)
Otras preguntas