Definición del concepto: Derechos laborales
Respuestas a la pregunta
Contestado por
1
Respuesta:
El derecho laboral, derecho del trabajo o derecho social es una rama del derecho cuyos principios y normas jurídicas tienen por objeto la tutela del trabajo humano realizado en forma libre, por cuenta ajena, en relación de dependencia y a cambio de una contraprestación.
Otras preguntas
Castellano,
hace 3 meses
Administración,
hace 3 meses
Ciencias Sociales,
hace 3 meses
Castellano,
hace 7 meses
Educ. Fisica,
hace 11 meses
Salud,
hace 11 meses