¿que significa la palabra derecho o que son los derechos?
Necesito ayuda por favor :(
fernanda48419767:
El Derecho es el conjunto de normas que imponen deberes y normas que confieren facultades, que establecen las bases de convivencia social y cuyo fin es dotar a todos los miembros de la sociedad de los mínimos de seguridad, certeza, igualdad, libertad y justicia”
Respuestas a la pregunta
Contestado por
0
Respuesta:
los derechos es como decir : la autoridad de una persona por ejemplo:
Explicación:
tengo derecho a tener nombre .
tengo derecho a trabajar.
etc
Otras preguntas
Religión,
hace 2 meses
Administración,
hace 2 meses
Exámenes Nacionales,
hace 4 meses
Historia,
hace 10 meses
Biología,
hace 10 meses