¿Qué es el trabajo en el derecho?
Respuestas a la pregunta
Contestado por
2
También es conocido como Derecho del trabajo , derecho social o derecho laboral, El mismo se define como una rama del derecho en la cual las normas y los principios jurídicos se centralizan en el ámbito de la labor de cada persona en forma libre, o por cualquier otro motivo legal.
Este conjunto de normas garantizan que la relación de trabajo sea lo mas afectivo y como para el trabajador y empleador.
Otras preguntas