Ciencias Sociales, pregunta formulada por micaela1148, hace 4 meses

como definirias trabajo social​

Respuestas a la pregunta

Contestado por ultrapro1845
0

El trabajo social es una profesión basada en la práctica y una disciplina académica que promueve el cambio y el desarrollo social, la cohesión social, y el fortalecimiento y la liberación de las personas.

Otras preguntas