que entiendes por derecho positivo? dar su definicion
Respuestas a la pregunta
Contestado por
0
Explicación:
El derecho positivo es el conjunto de normas jurídicas escritas por una soberanía (por el órgano estatal que ejerza la función legislativa).
El derecho positivo puede ser de aplicación vigente o no vigente, dependiendo si la norma rige para una población determinada, o la norma ya ha sido derogada por la promulgación de una posterior.
No solo se considera derecho positivo a la ley, sino además a toda norma jurídica que se encuentre escrita (decretos, acuerdos, reglamentos, etc.).
Otras preguntas
Derecho ,
hace 27 días
Matemáticas,
hace 27 días
Informática,
hace 1 mes
Física,
hace 1 mes
Castellano,
hace 7 meses
Ciencias Sociales,
hace 7 meses