04 Avr Le travail social au défi de l’IA : quels aperçus sur les recompositions professionnelles en cours ? Enjeux de savoirs, de valeurs et de compétences
Dossier thématique coordonné par Fathi Ben Mrad est Chercheur associé à l’Université de Luxembourg, au laboratoire ; « Lifelong Learning and Guidance (LLLG) ». Ses champs de recherches concernent les médiations, le conflit et le travail social. Il a publié, Les médiations à l’ère des médiums digitaux, vidéoconférences, auxiliaires algorithmiques et intelligence artificielle, éd. L’Harmattan 2021, et écrit plusieurs articles sur l’IA et la formation, dans la « Revue des médiations » (2024 et 2025, N°4 et 5) et Jean-Yves Trépos est professeur émérite de sociologie à l’Université de Lorraine, membre du laboratoire CREAT. Ses travaux ont porté sur l’expertise. Il a publié récemment, en collaboration avec Mounir El Harradi, Le travail social en mode virtuel ? La Prévention spécialisée à l’heure des réseaux sociaux, Paris, Pétra, 2022 et, en collaboration avec Vincent Meyer, « Transition digitale et contrôle social : bonnes pratiques, autonomie et désinstitutionnalisation dans le travail social », à paraître dans Tétralogiques en 2026.
Le travail social au défi de l’IA : quels aperçus sur les recompositions professionnelles en cours ? Enjeux de savoirs, de valeurs et de compétences
L’IA, tout comme Internet, ne relève pas d’un simple progrès technique, mais d’un changement systémique qui transforme les structures économiques, sociales et professionnelles, modifiant ainsi les pratiques, les formes d’expertise et les relations entre humains et technologies. Dans ce contexte, le champ de l’intervention sociale se trouve aujourd’hui traversé par une tension fondamentale, entre la complexité irréductible de la vie humaine et la logique de modélisation propre à l’intelligence artificielle (Healy, 2022). Si les algorithmes reposent sur la prévisibilité, la quantification et la recherche de régularités, la pratique du travail social s’enracine, quant à elle, dans la singularité des trajectoires, la contingence des situations et la dimension relationnelle du lien social. Cette tension interroge la possibilité même d’une traduction algorithmique du jugement professionnel et des interactions humaines.
Pourtant, l’automatisation de certaines tâches administratives répétitives et routinières, comme la planification, le suivi de dossiers ou les comptes rendus d’entretiens, de réunions (Dey, 2023), apparaît comme une promesse d’efficience et de réaffectation du temps1 vers le cœur du métier qui est celui de la relation directe (face à face ou en visio-conférence). Les usages divers de l’IA dans le travail social sont déjà présents dans de multiples domaines. Par exemple au niveau individuel, des agents conversationnels interactifs sont employées en travail social pour pallier le manque de praticiens en santé mentale. Ces avatars virtuels interagissent de façon empathique avec les usagers, adaptant leur langage verbal et non-verbal en temps réel pour offrir des interventions basées sur des données probantes. Les premières évaluations montrent qu’ils peuvent favoriser l’engagement et la persévérance des personnes dans un suivi clinique ou éducatif (Goldkind, 2021). Plus globalement, la littérature scientifique s’accorde à reconnaître le potentiel contributif de l’IA dans le travail social, tout en rappelant que son usage doit être soumis à une évaluation critique. Son intégration peut-elle se faire au détriment de la dimension relationnelle qui fonde l’intervention sociale ? Au demeurant, l’intégration de l’IA comme assistant digital invite à considérer la manière dont les savoirs, les valeurs et les compétences professionnelles demeurent les fondements de la pratique.
Dans ces conditions, la question de savoir si l’IA doit être intégrée au travail social, tendrait à devenir secondaire par rapport à celle d’identifier ses visées et comment cette intégration peut se faire sans réduire la complexité du réel à des modèles statistiques, ni altérer la qualité du lien intersubjectif. Autrement dit, le débat se déplacerait : il ne porterait plus uniquement sur l’utilité technique de l’IA, mais sur la reconfiguration du sens et des finalités de l’intervention sociale à l’ère de l’automatisation.
Axe 1. En quoi l’expansion de l’intelligence artificielle reconfigure-t-elle les modes d’action, de décision et de professionnalité dans le travail social ?
L’expansion de l’intelligence artificielle (IA) dans le champ du travail social (Reamer, 2023) interroge les modes de rationalisation et de normalisation des pratiques professionnelles. En s’appuyant sur des algorithmes d’apprentissage automatique qui extrapolent à partir de données historiques, l’IA tend à reconfigurer les processus de jugement et de décision, substituant ainsi à la délibération humaine des logiques prédictives et statistiques. Autrement dit, l’IA mobilise des corpus de données historiques non seulement pour anticiper des trajectoires sociales, mais aussi pour produire de nouvelles configurations décisionnelles. Elle participe ainsi à une redéfinition des rapports entre expertise professionnelle, rationalité algorithmique et accompagnement des vulnérabilités individuelles et sociales. Autrement dit, si les outils d’IA générative, tels que ChatGPT ou certains chatbots, permettent d’automatiser certaines tâches, ils introduisent également une redéfinition implicite des compétences professionnelles, déplaçant en partie le centre de gravité du travail social vers la gestion de données et la supervision algorithmique. Cette mutation pose la question de la déprofessionnalisation partielle de l’analyse humaine des situations (cliniques, thérapeutiques, sociales…) progressivement remplacée par des modèles prédictifs issus de l’apprentissage automatique.
L’expansion de l’intelligence artificielle dans le travail social ne se limite donc pas à un simple apport technologique : elle participe aussi à la reconfiguration des logiques d’action et des rapports de pouvoir au sein du champ (Reamer, 2023). En promettant un gain d’efficacité et de rationalisation, l’IA s’inscrit dans une dynamique de technicisation du travail social, où la performance et la traçabilité des usagers peuvent primer sur la dimension relationnelle de l’intervention.
Cette dynamique peut-elle être documentée, explicitée, voire différenciée ou bien ne s’agit-il que d’une accentuation de processus déjà en cours, relativement connus et pouvant être englobés dans la marchandisation du travail social ?
Axe 2. Quel rôle les travailleurs sociaux peuvent-ils jouer dans l’implémentation de ces outils technologiques ?
L’étude de Montalbá Ocaña et Russo Botero (2021), combinant des méthodes quantitatives et qualitatives auprès de travailleurs sociaux à Valence, en Espagne, montre que la digitalisation était déjà bien implantée dans la gestion administrative et la communication interne, mais n’était pas utilisée pour l’analyse ou l’amélioration des interventions sociales. Si la digitalisation était appréciée par les professionnels pour l’agilité et la rapidité des procédures, elle suscitait néanmoins des réserves concernant la perte du lien humain, l’alourdissement de la charge bureaucratique et l’exclusion des publics non numérisés. Enfin, l’idée que les technologies d’aide à la décision, y compris celles fondées sur l’intelligence artificielle, puissent remplacer ou standardiser le jugement professionnel était largement rejetée, les travailleurs sociaux soulignant le caractère fondamentalement relationnel et qualitatif de leur métier.
Par ailleurs, Boetto (2025) souligne le caractère profondément opaque des IA génératives, souvent qualifiées de « boîtes noires », dont les mécanismes internes demeurent difficilement compréhensibles, y compris pour leurs concepteurs. Cette opacité, également relevée par Victor et al. (2023), rend complexe pour les utilisateurs l’identification des biais potentiellement présents dans les modèles et l’évaluation de la fiabilité des résultats produits. Dans des domaines sensibles tels que la protection de l’enfance, la santé mentale ou la prévention de la violence familiale, cette absence de transparence soulève d’importantes préoccupations éthiques, les erreurs ou préjugés algorithmiques pouvant entraîner des conséquences particulièrement graves.
Dans quelle mesure ces réticences ou ces oppositions sont-elles attestées et observables dans les milieux professionnels et comment décrire les ressources utilisées par les travailleurs sociaux pour les insérer dans leur espace de travail ordinaire, entre routines et innovations ? Ces tentatives, minoritaires ou grandissantes, très outillées ou plus volontiers bricolées, dessinent-elles des lignes de fracture entre les différentes professions du travail social, voire à l’intérieur de certaines d’entre elles ?
Axe 3. De quelle manière l’intégration de l’IA peut-elle être pensée pour renforcer une pratique sociale éthique, contextualisée et centrée sur la complexité humaine ?
L’intégration de l’IA dans le travail social soulève plusieurs considérations éthiques importantes qui nécessitent d’être abordées. Il apparaît que l’exigence d’une pratique éthique et responsable dans l’usage de l’intelligence artificielle en travail social, telle que formulée par Reamer (2023), repose sur l’idée d’un consentement éclairé et d’une transparence technologique vis-à-vis des usagers. Cette exigence soulève plusieurs tensions. D’une part, elle suppose que les clients disposent des compétences cognitives, numériques et culturelles nécessaires pour comprendre les modalités d’usage de l’IA dans leur prise en charge. Or, dans un contexte où les publics du travail social sont souvent marqués par des formes de vulnérabilité sociale, cette transparence « formelle » risque de demeurer largement asymétrique, le consentement devenant alors un acte symbolique plus qu’une réelle capacité de choix. D’autre part, la responsabilité éthique attribuée aux travailleurs sociaux – garants de la confidentialité, de la sécurité des données et du bon usage des outils – s’inscrit dans un déplacement des rapports de pouvoir entre praticiens, institutions et technologies. Ceux-ci se voient contraints de composer avec des dispositifs dont les logiques de fonctionnement leur échappent en grande partie (plates-formes propriétaires de gestion des dossiers, algorithmes prédictifs opaques, bases de données centralisées…).
Ainsi, la question éthique ne se limite pas à la conformité aux règles déontologiques ou à la sécurisation des données, mais engage une réflexion critique sur la gouvernance des technologies et la capacité réelle des acteurs à exercer un contrôle sur des outils qui reconfigurent les frontières du secret professionnel, de la responsabilité et du consentement. Les travailleurs sociaux possèdent une compréhension fine des rapports de pouvoir, de la vulnérabilité et des contextes sociaux dans lesquels les technologies sont déployées. Ne peuvent-ils donc pas jouer un rôle essentiel pour garantir que la conception et l’application des outils d’IA respectent les principes d’équité, d’intégrité et de primauté de la relation humaine (Goldkind, 2021) ?
Dès lors, on pourrait définir l’enjeu non pas tant dans le rejet ou l’adoption de l’IA, que dans la capacité des travailleurs sociaux à en faire un usage proactif, réflexif et critique ; non pas comme substitut du jugement humain, mais comme instrument au service d’une praxis éthique et émancipatrice. Autrement dit, l’intégration des algorithmes dans le travail social serait organisée de manière à préserver la dimension éthique et humaine, tout en s’assurant que les outils tiennent compte du contexte d’intervention, de la formation des travailleurs sociaux et de la réalité du terrain ? Mais cette vision intégratrice n’est-elle pas entachée d’un certain angélisme, qui pourrait être mis en rapport avec l’imprécision même de ce que signifient « les engagements éthiques » en travail social ?
Cette redéfinition des logiques d’action entre expertise professionnelle et rationalité algorithmique ainsi que la transformation des rapports de pouvoir au sein du champ de l’intervention sociale soulèvent des enjeux éthiques et politiques majeurs quant à l’autonomie des travailleurs sociaux et à la nature même du lien social que ces intervenants contribuent à produire avec les usagers.
Axe 4. Dans quelle mesure les technologies peuvent-elles soutenir l’efficacité et la coordination des interventions sans réduire la relation professionnelle à des procédures standardisées ou des critères quantifiables ?
Les technologies numériques offrent des occasions concrètes favorables à l’amélioration de l’efficacité et de la coordination des interventions. L’exemple de l’Allegheny Family Screening Tool (AFST), utilisé en Pennsylvanie, illustre cette tendance : en analysant des données issues de multiples sources, il produit des scores de risque qui aident les travailleurs sociaux à mieux cibler les familles nécessitant un soutien (Nuwasiima et al., 2024). Cette étude pilote semble montrer que cet outil permettait de repérer plus efficacement les situations à risque, d’améliorer la priorisation des interventions et d’optimiser l’allocation des ressources.
Dans une perspective similaire, plusieurs recherches (Baird et Wagner, 2000 ; Camasso et Jagannathan, 2000, Coulthard et al., 2020) montrent que les outils actuariels, c’est-à-dire l’usage d’outils statistiques pour estimer la probabilité de survenue d’un risque, pour par exemple un enfant (maltraitance, négligence, récidive de mauvais traitements, etc.), peuvent significativement améliorer les décisions d’orientation en protection de l’enfance. S’appuyant sur des mégadonnées couvrant près de huit décennies, les travaux de Coulthard et al. (ibid.) ont souligné la pertinence de ces outils actuariels dans le champ de la protection de l’enfance en Angleterre ; contexte caractérisé par une augmentation marquée des placements et par des différences régionales inexpliquées et persistantes. Si la mise en œuvre des outils actuariels peut provoquer des résistances parmi les travailleurs sociaux, ils se sont néanmoins distingués par un degré de précision supérieur au jugement clinique individuel.
Autrement dit, si le comportement humain est par définition imprévisible, du fait notamment de circonstances changeantes ou d’événements aléatoires et que les prédictions ne peuvent englober tous les aspects de la vie et de l’éducation d’un individu ou d’une famille, il apparaît cependant, que dans certaines circonstances, les outils actuariels peuvent contribuer à mieux éclairer certains éléments utiles aux prises de décisions humaines. Coulthard et al. soulignent (2020, p. 15) que « les mégadonnées ne peuvent pas persuader les praticiens d’accepter et d’adopter la prédiction statistique de la manière voulue par les créateurs d’outils actuariels ». Dès lors, ces limites peuvent-elles être atténuées simplement en formant les professionnels aux avantages et aux contraintes de ces outils, et en s’assurant que les algorithmes fournissent non seulement un score, mais aussi une analyse intelligible des facteurs et des poids ayant contribué au résultat, renforçant ainsi leur littératie ? Comment éviter que la décision professionnelle soit déléguée à des dispositifs dont les logiques échappent aux utilisateurs, réduisant la relation professionnelle à des procédures standardisées ou à des critères quantifiables. De même, est-il soutenable de tenter d’équilibrer la possibilité que les agents conversationnels empathiques puissent favoriser l’engagement des usagers en santé mentale ? L’ambition avérée, souvent attestée par les travailleurs sociaux, est d’engager dans la relation, des formes d’intelligence émotionnelle et d’empathie authentique, intégrées à des dynamiques intersubjectives complexes (Goldkind, 2021).
Axe 5. Dans quelle mesure les outils algorithmiques peuvent-ils soutenir le travail social sans accentuer les inégalités ou l’exclusion des publics les plus vulnérables
Si la fracture numérique concerne particulièrement les populations vulnérables (familles pauvres, personnes âgées, groupes marginalisés…), pour lesquelles l’accès aux outils numériques demeure une difficulté, l’inclusion numérique, à l’inverse, permet à certaines autres personnes de maintenir des liens sociaux, d’accéder à de l’information ou de participer à la vie sociale grâce à ces mêmes outils. Cette inclusion symbolise également la restauration d’une continuité entre des individus (réseaux d’entraide numériques, plates-formes collaboratives…), des territoires (mobilités physiques et virtuelles), des institutions (téléconsultations, visioconférences…) et des savoirs (enseignements à distance, coopérations professionnelles…). Il apparaît aussi que ces technologies ont été utilisées pour détecter des risques de fraudes dans le domaine des prestations sociales, comme en témoigne l’application SyRI aux Pays-Bas (Algorithmic Watch, 20202). Le système concentrait alors sa surveillance sur les habitants des quartiers défavorisés, révélant ainsi une dimension de contrôle social territorialisé. Cet exemple illustre comment l’usage de l’IA dans les politiques publiques peut reproduire ou amplifier des inégalités structurelles, en introduisant des biais invisibles mais efficaces dans la détection et la sanction présumée des personnes jugées à risque.
Ces dispositifs algorithmiques s’inscrivent dans une transformation plus profonde du travail social, marquée par la montée d’une logique technico-administrative et prédictive. Les algorithmes d’apprentissage automatique, fondés sur des données historiques, peuvent reproduire des biais structurels, porter atteinte à la vie privée (Reamer, 2013), générer des informations erronées (Alkaissi et McFarlane, 2023) ou fragiliser la dimension éthique et humaine du travail social (Saxena et Guha, 2024), compromettant ainsi la qualité de la décision professionnelle (Patton et al., 2023).
Les écueils associés à ces dispositifs ne se limitent pas aux erreurs techniques ou à ces biais statistiques (Goldkind et al., 2023) ; ils relèvent surtout d’une question plus large qui est celle de la reproduction des inégalités sociales dans et par la technologie (Patton et al., 2023). L’IA, entraînée sur des données historiques, tend à naturaliser les asymétries sociales préexistantes, tout en conférant à ces biais une apparente objectivité algorithmique (ibid.). Au-delà de ces aspects, malgré les avancées de l’IA, celle-ci demeure incapable de reproduire de nombreux éléments de la relation humaine authentique, tels que l’intelligence émotionnelle, l’empathie, la spiritualité ou encore les dynamiques de pouvoir qui régissent les interactions humaines.
Dans quelle mesure l’intégration des outils algorithmiques dans le travail social peut-elle améliorer les pratiques tout en évitant d’accentuer les inégalités, et comment leur conception et leur usage peuvent-ils influencer cet équilibre ? Ces usages sont-ils inévitables en ce qu’ils seraient la face émergée d’un iceberg néo-libéral bien plus massif ? Cette intégration ne risque-t-elle pas d’être une autre manière de produire du consentement dans l’univers du travail social ?
Axe 6. Comment l’essor de l’intelligence artificielle transforme-t-il les besoins en formation des travailleurs sociaux et les compétences nécessaires pour un usage éthique et efficace de ces technologies ?
L’essor de l’intelligence artificielle transforme profondément les besoins en formation des travailleurs sociaux. Selon Perron (2023), celle-ci ne peut plus se limiter à l’acquisition de compétences techniques, mais doit devenir un espace de construction réflexive où s’articulent savoirs numériques, jugement professionnel et sensibilité aux singularités des publics accompagnés. La formulation de « prompts » ou « d’invites » constitue un exemple concret de cette hybridation : la précision et la contextualisation des demandes adressées aux systèmes déterminent la pertinence des réponses générées. Cela exige des professionnels une capacité à traduire des situations sociales complexes en requêtes adaptées, tout en conservant un regard critique sur les résultats produits. Cette posture implique un exercice continu du discernement et de la réflexivité pour identifier les biais potentiels, les hallucinations ou les écarts entre la logique algorithmique et la complexité des situations rencontrées. La formation apparaît ainsi comme un lieu où se développent simultanément des compétences techniques, des capacités d’analyse critique et une attention constante aux dimensions éthiques et relationnelles. L’usage de l’IA engage non seulement la qualité des interventions, mais également la responsabilité professionnelle vis-à-vis des personnes accompagnées. Ne doit-on donc pas former des professionnels capables de naviguer entre expertise humaine et dispositifs algorithmiques, non pas comme des exécutants, mais comme des acteurs vigilants et réfléchis ?
Dans cette perspective, l’intégration de l’IA dans la formation des travailleurs sociaux apparaît nécessaire, mais soulève une question centrale : comment former des professionnels capables d’utiliser ces outils de manière critique et éthique, sans réduire la complexité humaine de l’intervention sociale, ni créer une dépendance technologique ? Autrement dit, quelles conditions pédagogiques et institutionnelles permettent d’articuler compétences numériques, vigilance éthique et préservation des valeurs fondamentales du travail social ?
Procédure d’évaluation des propositions de contributions
En lien avec la ligne éditoriale de la revue, les textes proposés doivent être originaux et ne pas avoir au préalable, fait l’objet d’une publication dans des revues. Néanmoins, sous condition qu’il demande l’accord préalable à la revue Sciences & Actions Sociales, l’auteur·ice d’un article dans la revue Sciences et Actions Sociales peut publier son article dans un ouvrage ou des actes de colloque, en citant la source de première publication, c’est-à-dire la revue Sciences & Actions Sociales.
Les propositions d’articles doivent être envoyées par courrier électronique au format .doc ou rtf à l’adresse suivante : redaction@sas-revue.org au plus tard le 1er septembre 2026. Un accusé de réception est alors adressé en retour. Les textes font l’objet d’une évaluation anonyme par deux lecteurs désignés au sein des comités de rédaction et scientifique de la revue. Sur la base de leurs évaluations, après une discussion de l’article au sein du comité de rédaction, une décision collective est prise : accepté en l’état, accepté avec modifications mineures, accepté sous réserve de modifications majeures, refusé. Les retours aux auteur-ices sont prévus à la date du 18 décembre 2026, pour une publication dans le numéro de février 2027.
Bibliographie
Alkaissi Hussam et McFarlane Samy I., 2023, « Artificial hallucinations in ChatGPT: Implications in scientific writing », Cureus, vol. 15, n° 2, e35179 [https://doi.org/10.7759/cureus.35179 (PubMed)].
Baird Christopher., Wagner Denis, 2000, « The relative validity of actuarial-and consensus-based risk assessment systems », Children and Youth Service Review, n° 22, p. 839-871.
Boetto Heater, 2025, « Artificial intelligence in social work: An EPIC model for practice », Australian Social Work [https://doi.org/10.1080/0312407X.2025.2488345].
Camasso Michael J., Jagannathan Radha., 2000, « Modeling the reliability and predictive validity of risk assessment in child protective services », Children Youth Service Review, n° 22, p. 873-896.
Coulthard Beth., Mallett John., & Taylor Brian., 2020, « Better decisions for children with “big data”: Can algorithms promote fairness, transparency and parental engagement? », Societies, vol. 10, n° 4, 97 [https://doi.org/10.3390/soc10040097].
Dey Neelam C. (2023, September 25). Unleashing the Power of Artificial Intelligence in Social Work: A New Frontier of Innovation. SSRN, 4549622. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4549622
Goldkind Laury, (2021). Social work and artificial intelligence: Into the matrix. Social Work, 66(4), 372–374. https://doi.org/10.1093/sw/swab028
Goldkind Laury, Wolf Lea, Glennon Alexis., Rios Juan, & Nissen Laura, 2023, « The end of the world as we know it? ChatGPT and social work », Social Work, vol. 69, n° 1, p. 103-105 [DOI :10.1093/sw/swad044. pdxscholar.library.pdx.edu].
Healy Karen, 2022, Social Work Theories in Context: Creating Frameworks for Practice, London, Bloomsbury Publishing.
Montalbá Ocaña Carmen, & Russo Botero Marya, 2021, « Intervención social-digital: Hacia qué futuro queremos caminar? », Sociología y TecnoCiencia, vol. 11, n° 2, p. 310-325 [https://doi.org/10.24197/st.2.2021.310-325].
Nuwasiima Mackline, Ahonon Metogbe Patricia & Kadiri Caleb, 2024, « The role of artificial intelligence (AI) and machine learning in social work practice » World Journal of Advanced Research and Reviews, vol. 24, n° 1, p. 80-97 [https://doi.org/10.30574/wjarr.2024.24.1.2998].
Patton Colleen, Wickens Christopher D., Smith C. A. P., Noble Kayla M. & Clegg A. Benjamin, 2023, « Supporting detection of hostile intentions: automated assistance in a dynamic decision-making context », Cognitive Research: Principles and Implications, 8, Article 69.
Perron Brian, 2023, L’IA générative pour les étudiants en travail social : Partie I. Douleur moyenne [https://towardsdatascience.com/generative-ai-for-social-work-students-part-i-1f19ee9cbbe1].
Reamer Frederic G., 2013, « The digital and electronic revolution in social work: Rethinking the meaning of ethical practice », Ethics and Social Welfare, vol. 7, n° 1, p. 2-19.
Reamer Frederic G., 2023, « Artificial intelligence in social work: Emerging ethical issues », International Journal of Social Work Values and Ethics, vol. 20, n° 2, p. 52-71 [https://doi.org/10.55521/10-020-205].
Saxena Devansh & Guha Shion, 2024, « Algorithmic harms in child welfare: Uncertainties in practice, organization, and street-level decision-making », ACM Journal on Responsible Computing, vol. 1, n° 1, Article 2 [https://doi.org/10.1145/3616473].
Victor Brian, Sokol L. Rebeccah, Goldkind Laury, & Perron Brian, 2023, « Recommandations à l’intention des chercheurs en travail social et des rédacteurs en chef de revues sur l’utilisation de l’IA générative et des grands modèles de langage », Journal de la société de travail social et de recherche, vol. 14, n° 3 [https://doi.org/10.1086/726021].
