Historia, pregunta formulada por sweet2281, hace 1 mes

que significa que los derechos humanos sean naturales? ​

Respuestas a la pregunta

Contestado por nomagio
1

Respuesta:

El derecho natural es una doctrina ética y jurídica que postula la existencia de derechos fundamentados o determinados en la naturaleza humana. Propugna la existencia de un conjunto de derechos universales, anteriores, superiores e independientes al derecho escrito, al derecho positivo y al derecho consuetudinario.

Explicación:

espero te sirva

Otras preguntas