Derecho , pregunta formulada por wilyjhoelguevara, hace 4 meses

¿ Es necesario el derecho en nuestra sociedad?​

Respuestas a la pregunta

Contestado por gulyrojo1234
1

Respuesta:

Los derechos sociales son aquellos que están alineados con la infinita dignidad del ser humano. Es decir, defienden la importancia de la integración personal a través de objetivos importantes como el acceso al mercado laboral, el derecho a la sanidad o a la educación.

Contestado por irisguerra4
2

Respuesta:

El derecho regular la normas de comportamiento de una sociedad,sin derecho no puede haber justicia.

Explicación:

"SALUDOS"

Otras preguntas