Ciencias Sociales, pregunta formulada por linares2733, hace 9 meses

¿cuál es la ley más importante del derecho positivo en nuestro país?​

Respuestas a la pregunta

Contestado por LeydiVama755
1

Respuesta:

El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía (por el órgano estatal que ejerza la función legislativa).

El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.

Otras preguntas