derecho positivo explicado
Respuestas a la pregunta
Contestado por
1
Respuesta:
El derecho positivo es aquel que los seres humanos aplican para establecer normas de convivencia dentro de una sociedad. Este derecho se encuentra asentado en leyes, decretos, sanciones, reglamentos; normas jurídicas que dan un marco de orden, igualdad y justicia en las sociedades.
Explicación:
espero te ayude ^^
Contestado por
0
Respuesta:
que no entiendo.
Explicación:
........
pachejosearmando025:
que es el derecho positivo
Otras preguntas