Ciencias Sociales, pregunta formulada por AideeEncinas, hace 7 meses

explique Qué es el derecho laboral​


luccaevelyn4: El derecho laboral, derecho del trabajo o derecho social​ es una rama del derecho cuyos principios y normas jurídicas tienen por objeto la tutela del trabajo humano realizado en forma libre, por cuenta ajena, en relación de dependencia y a cambio de una contraprestación

Respuestas a la pregunta

Contestado por marialauragalvez18
2

Respuesta:

El derecho laboral es la rama del derecho que se encarga de regularizar mediante reglas jurídicas las relaciones que establecen a partir de trabajo.

Explicación:

Otras preguntas