¿Qué es el Trabajo Social?

El  trabajo social  es una profesión basada en la honestidad práctica y una disciplina académica que promueve el cambio y el desarrollo social, la cohesión social, la consolidación y la liberación de las personas. Los principios de la justicia social, los derechos humanos, la responsabilidad colectiva y el respeto a la diversidad son fundamentales para el trabajo social. Respaldada por las teorías del trabajo social, las ciencias sociales, las humanidades y los conocimientos indígenas, el trabajo social involucra a las personas y las estructuras para hacer frente a los desafíos de la vida y aumentar el bienestar. (Definición mundial aprobada en Melbourne en julio de 2014 por la  Federación Internacional de Trabajadores Sociales  y la  Asociación Internacional de Escuelas de Trabajo Social)

 .