Historia, pregunta formulada por contrerassnashive, hace 2 meses

definir derecho al trabajo​

Respuestas a la pregunta

Contestado por jxonxxchxr
0

Explicación:

El derecho laboral, derecho del trabajo o derecho social es una rama del derecho cuyos principios y normas jurídicas tienen por objeto la tutela del trabajo humano realizado en forma libre, por cuenta ajena, en relación de dependencia y a cambio de una contraprestación.

Otras preguntas