Historia, pregunta formulada por gaelbarrioss1, hace 2 meses

que es el derecho natural?
que es el derecho positivo?

Respuestas a la pregunta

Contestado por b3l3nmonts3rr4t
1

Respuesta:

El derecho natural es una doctrina ética y jurídica que postula la existencia de derechos fundamentados o determinados en la naturaleza humana. Propugna la existencia de un conjunto de derechos universales, anteriores, superiores e independientes al derecho escrito, al derecho positivo y al derecho consuetudinario

Explicación:

ojalá te sirva

Otras preguntas