cual es la definición de derecho positivo
Respuestas a la pregunta
Contestado por
1
El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía. El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior
Otras preguntas
Ciencias Sociales,
hace 2 meses
Inglés,
hace 2 meses
Física,
hace 4 meses
Historia,
hace 4 meses
Matemáticas,
hace 10 meses
Matemáticas,
hace 10 meses