Historia, pregunta formulada por agustinitavelascokaw, hace 11 meses

explica con tus palabras lo que significa derecho natural

Respuestas a la pregunta

Contestado por 20182021adamarisalva
2

Respuesta:El derecho natural es una doctrina ética y jurídica que postula la existencia de derechos fundamentados o determinados en la naturaleza humana. Propugna la existencia de un conjunto de derechos universales, anteriores, superiores e independientes al derecho escrito, al derecho positivo y al derecho consuetudinario.

Explicación:

Otras preguntas