explica con tus palabras lo que significa derecho natural
Respuestas a la pregunta
Contestado por
2
Respuesta:El derecho natural es una doctrina ética y jurídica que postula la existencia de derechos fundamentados o determinados en la naturaleza humana. Propugna la existencia de un conjunto de derechos universales, anteriores, superiores e independientes al derecho escrito, al derecho positivo y al derecho consuetudinario.
Explicación:
Otras preguntas