Derecho , pregunta formulada por celesteabfernandez23, hace 1 mes

que entiendes por derecho positivo? dar su definicion​

Respuestas a la pregunta

Contestado por karinamariduena9
0

Explicación:

El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía (por el órgano estatal que ejerza la función legislativa).

El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.

No solo se considera derecho positivo a la ley, sino además a toda norma jurídica que se encuentre escrita (decretos, acuerdos, reglamentos, etc.).

Otras preguntas