Explique trabajo social, y su importancia en la sociedad
Respuestas a la pregunta
Contestado por
2
Respuesta:
El Trabajo social es una profesión y una ciencia humana, que tiene como objetivo ayudar a las comunidades y mejorar el estándar de vida, es una profesión que busca favorecer el desarrollo de vínculos humanos saludables y fomentar cambios sociales. La importancia de tal trabajo es fundamental para la sociedad, ya que actúan preventivamente ante posibles situaciones que pueden terminar en problemas, promover y luchar por el compromiso gubernamental y social en políticas sociales que resulten eficaces y justas, etc.
Explicación:
Espero que te ayude :3
Otras preguntas
Inglés,
hace 4 meses
Matemáticas,
hace 4 meses
Biología,
hace 4 meses
Informática,
hace 8 meses
Historia,
hace 1 año