Explique qué significa Responsabilidad Social y su importancia en la sociedad
Respuestas a la pregunta
Contestado por
1
Respuesta:
La responsabilidad social es la responsabilidad que tiene cada persona de hacer que su sociedad sea sana y buena es decir es la responsabilidad que tenemos todos de hacer lo mejor posible las cosas a nuestro alrededor ya sea en nuestro hogar o entre otras personas ya sean conocidos o desconocidos de esta manera logramos hacer que esa persona sea también buena y asumiendo sus responsabilidades haciendo que la sociedad esté sana en buenas condiciones y limpia
Otras preguntas