deme una definición de derecho positivo
Respuestas a la pregunta
Contestado por
0
El derecho positivo es aquel grupo de normas o leyes jurídicas escritas que se hallan vigentes en un Estado dispuestas por sus órganos competentes; es decir se habla de una agrupación de leyes elementales pronunciadas por una administración para que cumplan un determinado fin, que deben estar carentes de los valores
Adjuntos:
Otras preguntas