Par David Puzos, docteur en sciences de l’éducation et en géographie sociale, directeur scientifique de TISSELIA
Elle rédige, synthétise, organise. En quelques secondes, ce qui nous prenait des heures. L’intelligence artificielle arrive dans nos métiers de l’accompagnement avec une promesse simple : vous faire gagner du temps. Pour des secteurs asphyxiés par la bureaucratie et le reporting, la tentation est forte. Va-t-on enfin pouvoir souffler ? Retrouver du temps pour l’essentiel : l’écoute, la relation ?
C’est une question éthique. C’est une question politique. Et c’est probablement l’enjeu majeur de notre secteur pour les années à venir. Si nous ne nous en emparons pas collectivement, d’autres y répondront à notre place.
Un métier qui étouffe
Il y a quelques mois, lors d’une formation sur « les organisations capacitantes » que j’animais auprès d’une Mission Locale, un directeur de structure m’a confié quelque chose qui m’a marqué :
« Aujourd’hui, au moins 50 % du temps d’un conseiller en insertion professionnelle est consacré à l’administratif et au reporting. Notamment à cause du Contrat d’Engagement Jeune. »
Cinquante pour cent ! La moitié du temps de travail d’un professionnel dont la mission est d’accompagner des jeunes en difficulté. Passée à remplir des cases, alimenter des tableaux, justifier des indicateurs.
Ce témoignage n’est pas isolé : de nombreux professionnels des structures jeunesse me rapportent la même réalité. Il illustre une situation documentée, analysée, dénoncée depuis des années. Le Livre Blanc du Haut Conseil du Travail Social, publié en 2023, pose un diagnostic sans appel. Je voudrais en citer quelques passages, parce que les mots des professionnels méritent d’être entendus.
« Le management par les chiffres est une source principale de perte de sens. Un mode de gestion du travail social s’est imposé avec des outils de suivi centrés sur des indicateurs de gestion des « files actives » conduisant à inscrire les travailleuses sociales dans des exigences de « reporting ». Ce thème est récurrent depuis des années et s’est accentué. » (Haut Conseil du Travail Social [HCTS], 2023)
Une phrase entendue lors des auditions résume à elle seule l’absurdité de la situation :
« On passe plus de temps à comptabiliser ce qu’on fait qu’à… les faire. » (Verbatim d’entretien, cité HCTS, 2023)
Il ne s’agit pas d’un simple dysfonctionnement organisationnel. Le Livre Blanc qualifie cette réalité de « travail social empêché » : une configuration où l’accumulation des normes et des procédures finit par faire obstacle à l’exercice même du métier.
« On a « honte », parfois, de devoir mener un premier accueil en deux minutes, et « de ne pas respecter la personne ». Alors même que l’ »ADN, c’est l’humanisme ». On a « l’impression de faire ce métier de façon robotisée ». » (Verbatim d’entretien, HCTS, 2023)
Honte, déshumanisation, perte de sens : le triste tableau d’un secteur en souffrance. Et c’est précisément dans cette configuration que l’intelligence artificielle fait irruption, porteuse de promesses d’efficience et de gains de productivité.
L’IA comme « bête de somme » administrative : une opportunité réelle ?
Dans ce contexte, des questions émergent chez les professionnels et responsables de structure : que confier à l’IA ? Qu’accepte-t-on de déléguer ? Dans quel but ?
En octobre 2024, la DGCS et le LaborIA (programme de recherche-action créé en 2021 par le ministère du Travail et Inria pour analyser les impacts de l’IA sur le travail) ont organisé un webinaire restituant les conclusions de la convention professionnelle « Intelligence Artificielle et Travail Social ». Aline Roussey, assistante sociale, y a présenté les réflexions d’un groupe de travail :
« On a identifié deux niveaux. Le premier, vraiment lié à l’accompagnement social, toute la méthodologie qui fait partie de notre cœur de métier : le recueil de données, l’analyse, pouvoir proposer un plan d’aide adapté, cette notion d’accompagnement avec le langage verbal, non verbal. On s’est dit que pour tout ça, l’intelligence artificielle n’avait pas sa place, puisqu’on avait besoin de l’humain. (…) L’IA, on pourrait l’utiliser dans des tâches annexes, comme un outil, un support à la main du travailleur social pour l’aider dans la réalisation de tâches plus administratives : la rédaction de courriers, l’élaboration de rapports sociaux. Mais vraiment une IA utilisée sur la forme et pas sur le fond, puisqu’il est nécessaire qu’en tant que travailleur social, on reste responsable de nos écrits. » (Webinaire « Usage de l’IA dans le travail social : jalons pour une réflexion collective », octobre 2024)
L’idée est séduisante : confier à la machine ce qui ne relève pas du cœur de métier. Faire de l’IA une « bête de somme » administrative pour libérer du temps humain.
Cette promesse relève encore en partie de la croyance ; nous verrons que la réalité est plus complexe. Mais les premières données empiriques sur l’IA et la productivité semblent offrir des résultats significatifs.
- Rédiger des bilans et des rapports ? Une étude expérimentale du MIT portant sur 444 professionnels diplômés montre que l’usage de ChatGPT réduit de 37 % le temps nécessaire pour compléter une tâche rédactionnelle, tout en améliorant la qualité des écrits. Les chercheurs notent également un effet d’homogénéisation : l’écart de performance entre les rédacteurs les plus et les moins à l’aise se réduit de moitié (Noy & Zhang, 2023).
- Alimenter le reporting obligatoire ? Le rapport McKinsey (Chui et al., 2023) identifie explicitement le « required reporting » parmi les tâches à faible valeur ajoutée que l’IA générative pourrait absorber dans les secteurs fortement régulés. À titre d’exemple, dans le secteur bancaire, l’IA pourrait prendre en charge « les tâches de moindre valeur en gestion des risques, telles que le reporting obligatoire, la veille réglementaire et la collecte de données ». Le parallèle avec le travail social est frappant : comme les banques, nos secteurs croulent sous les obligations de reporting. Ces tâches chronophages ne requièrent pas l’expertise relationnelle du travailleur social. Elles requièrent de la rigueur, de la synthèse et du temps. Exactement ce que l’IA sait faire.
- Répondre à des appels à projets ? Une étude de terrain menée par des chercheurs de Harvard, MIT, Wharton et Warwick auprès de 758 consultants du Boston Consulting Group révèle que sur des tâches d’idéation et de rédaction, les professionnels équipés de GPT-4 complètent 12,2 % de tâches supplémentaires, travaillent 25,1 % plus rapidement et produisent des réponses jugées 40 % supérieures en qualité (Dell’Acqua et al., 2023).
- Gérer la communication institutionnelle ? Le même rapport McKinsey estime que le marketing et la communication font partie des quatre fonctions où l’IA générative crée le plus de valeur. Pour une mission locale, un CCAS ou une association, cela signifie concrètement : rédiger la newsletter mensuelle, préparer les posts valorisant les actions menées, reformuler un communiqué selon les cibles. Des tâches souvent repoussées faute de temps et que l’IA peut désormais aider à ébaucher en quelques minutes.
Les chiffres sont là. L’opportunité semble réelle.
Mais cela interroge : si nous gagnons effectivement 30, 40, 50 % sur les tâches à faible valeur ajoutée… qu’allons-nous en faire ?
Le piège : le paradoxe de Jevons appliqué au travail social
1865 : Les machines à vapeur deviennent plus efficaces : elles consomment moins de charbon par unité de travail. La consommation totale de charbon devrait baisser. Elle explose. L’économiste William Stanley Jevons comprend pourquoi : l’efficacité accrue rend l’usage plus rentable, ce qui stimule la demande.
L’économiste Len Brookes reformule ainsi ce paradoxe : quand on parle d’améliorer l’efficacité d’une ressource, on parle en réalité d’accroître sa productivité. Et si l’on augmente la productivité de quoi que ce soit, cela réduit son prix implicite (on obtient un meilleur rendement pour le même investissement), ce qui stimule mécaniquement la consommation.
Ce paradoxe se vérifie partout. L’amélioration spectaculaire de l’efficacité des LED a paradoxalement entraîné une hausse de la consommation mondiale d’électricité pour l’éclairage et de la pollution lumineuse, suite aux usages parfois extravagants de cette technologie devenue bon marché.
En 2025, Satya Nadella, PDG de Microsoft, a lui-même confirmé que le paradoxe de Jevons s’applique pleinement à l’intelligence artificielle : plus elle devient efficace et accessible, plus son usage explose.
Appliqué à notre secteur, ce paradoxe prend une dimension particulièrement cruelle. Les professionnels du travail social l’ont bien compris. Lors du même webinaire cité précédemment, Adrien Guionie (assistant de service social et évaluateur en informations préoccupantes en protection de l’enfance) formulait cette inquiétude avec lucidité :
« Pour les risques, ce que l’on avait pu mettre en avant, c’était le soutien à la logique de faire toujours plus avec moins de moyens. Dans un contexte de contraintes budgétaires, comme on le connaît tous, il peut être facile pour un employeur de mettre en place une intelligence artificielle et donc de ne pas remplacer des postes, ou d’en supprimer. (…) Je prends mon exemple personnel : je suis évaluateur en informations préoccupantes, mon poste est quantifié pour 25 à 30 demandes. Si on me mettait en place une IA générative pour m’aider dans la rédaction des rapports, mon temps de rapport diminuerait et on pourrait me dire que je pourrais passer de 30 à 35 mesures, puisque j’ai gagné du temps sur chaque rapport. » (Webinaire « Usage de l’IA dans le travail social », octobre 2024)
En effet, si accomplir une tâche devient « facile » et « rapide » grâce à l’IA, le risque n’est pas que l’institution nous demande moins de temps administratif. Le risque est qu’elle nous en demande plus. Plus de rapports, plus de reporting, plus détaillés. Plus fréquents. Autrement dit, que s’imposent doucement de nouvelles normes de productivité.
« Puisque tu as l’IA, tu peux prendre trois dossiers de plus. »
« Puisque le bilan se fait en dix minutes, tu peux en faire un par semaine au lieu d’un par mois. »
« Puisque c’est automatisé, on va enrichir les indicateurs de suivi. »
C’est ce que j’appelle la dérive productiviste. Le gain de temps est immédiatement réabsorbé par une logique gestionnaire accrue. En tant que travailleurs sociaux, nous n’avons rien gagné. Nous avons juste accéléré la roue du hamster.
Et nous continuons à courir.
Le conflit de rationalité : apports du LaborIA
Je m’appuie ici sur les travaux du LaborIA, programme de recherche-action lancé en 2021 par le ministère du Travail et Inria pour évaluer les impacts de l’IA sur le travail. Sa finalité : « étudier les liens de complémentarité, de substitution, de chevauchement ou de subsidiarité entre les systèmes d’intelligence artificielle et les personnes qui travaillent ». Ce programme a documenté, à travers des enquêtes de terrain et des études longitudinales, ce qu’il nomme un conflit de rationalité. (Je résume ici à grands traits leur analyse. Pour approfondir, voir les travaux complets sur laboria.ai/zone/laboria-explorer).
D’un côté, la rationalité gestionnaire : elle représente l’ensemble des moyens, procédures et indicateurs orientés vers l’optimisation et l’efficacité économique. L’IA y est perçue comme un levier de performance : réduction des erreurs, amélioration de la productivité, automatisation des tâches répétitives. C’est la logique portée par les décideurs, les concepteurs et les intégrateurs de ces technologies.
De l’autre, la rationalité du travail réel : celle des professionnels de terrain, qui vivent l’IA au quotidien. Leurs préoccupations sont d’un autre ordre : reconnaissance de leur expertise, préservation de leur autonomie, maintien de leur responsabilité professionnelle et surtout, sens du travail accompli.
Il y a conflit de rationalité lorsque ces deux logiques s’opposent sans trouver de voie de conciliation. Ce conflit n’est pas abstrait : il se joue concrètement dans chaque organisation qui déploie l’IA, dans chaque arbitrage sur l’usage du temps gagné, dans chaque décision sur ce qui sera automatisé et ce qui ne le sera pas.
Selon l’issue de ce conflit, deux configurations radicalement différentes émergent.
Les configurations aliénantes : en l’absence de régulation et de compromis, les travailleurs se sentent progressivement dépossédés de leur activité. L’IA peut alors devenir source de perte de compétences (on ne sait progressivement plus faire ce que la machine fait à notre place). Elle peut devenir vecteur de surveillance accrue : chaque action est tracée, mesurée, évaluée. Elle peut enfin imposer une standardisation du travail qui efface les singularités professionnelles.
Les configurations capacitantes : à l’inverse, lorsqu’un véritable compromis est construit entre les différentes parties prenantes, l’IA peut réellement augmenter le pouvoir d’agir des professionnels. Avec leur consentement éclairé, elle se substitue aux tâches qu’ils maîtrisent moins bien ou dont la valeur ajoutée est faible. Elle agit en complémentarité avec le travail humain : pour produire des résultats inédits, ou comme un « deuxième regard » qui sécurise sans déposséder.
L’IA au service de la relation d’accompagnement capacitante
Cette approche est pertinente pour penser la capacitation par le prisme des professionnels et des situations de travail. Mais il nous paraît judicieux de la penser également par le prisme de la relation d’accompagnement.
Cela est clé, car le travail social ne relève pas d’une logique productive au sens classique. Il ne s’agit pas de fabriquer des objets ni d’optimiser une chaîne de production. Il s’agit d’accompagner des personnes avec une finalité précise : le soutien à l’autonomie et au développement humain.
Le HCTS rappelle que le travail social vise à « favoriser l’autonomie et la protection des personnes, la cohésion sociale, l’exercice de la citoyenneté » et à « promouvoir dans un cadre interministériel l’accès à la santé, l’éducation, l’emploi, le logement, la culture, les loisirs, et permettre d’exercer ses droits » (HCTS, 2023).
En d’autres termes : la finalité du travail social est le développement du pouvoir d’agir des personnes accompagnées. C’est son horizon éthique. C’est ce qui fonde le sens de cette activité professionnelle.
Dans cette perspective, une configuration ne peut être qualifiée de capacitante que si l’intégration de l’IA contribue, in fine, à améliorer la relation d’accompagnement : entendue comme une relation qui soutient les capacités de faire et de choisir des personnes accompagnées.
Dès lors, ce qui sépare une configuration capacitante d’une configuration aliénante se pense aussi par les effets qu’elle produit sur les personnes accompagnées.
Or, de quoi cette relation a-t-elle besoin pour exister vraiment ? D’une ressource devenue rare, systématiquement sacrifiée : le temps.
Le Livre Blanc du HCTS est formel sur ce point. La qualité d’un accompagnement social dépend fondamentalement d’une notion qui a été systématiquement sacrifiée : la temporalité.
« Il y a, plus généralement dans les champs de l’action sociale et du médico-social, un enjeu de réhabilitation d’une notion fondamentale du travail social : la temporalité. Celle-ci semble avoir été décrédibilisée au fil du temps au nom d’une recherche d’efficience et d’efficacité : le résultat est une intervention publique, soumise à la pression du toujours « mieux » et « juste à temps », de plus en plus procéduralisée et assignée à produire des résultats concrets et mesurables dans des délais rapprochés. » (HCTS, 2023)
Le texte précise :
« Or, la qualité, l’efficacité, le résultat, se réalisent à l’échelle du temps : le temps de l’écoute d’abord, le temps de la disponibilité, le temps nécessaire pour garantir la qualité de la présence à l’autre et donc de l’accueil et de l’accompagnement, avec un rythme des personnes qui n’est pas nécessairement celui des dispositifs. » (…) « Pouvoir prendre le temps d’aller vers, d’accueillir et d’accompagner permet de renouer avec ce que l’on a perdu en cours de route, à savoir l’épaisseur et la continuité de la relation d’aide entre la professionnelle et la personne accompagnée. » (HCTS, 2023)
L’épaisseur et la continuité de la relation d’aide. Voilà ce qui a été perdu. Voilà ce qu’il faut reconquérir.
Le Conseil économique, social et environnemental (CESE), cité par le HCTS, va jusqu’à préconiser de « supprimer toute limitation a priori de durée d’accompagnement ou de présence dans les nomenclatures d’actes ou indicateurs de pilotage imposés aux professionnels ». C’est une mesure radicale. Mais elle dit quelque chose de fondamental : le temps relationnel ne peut pas être minuté.
La question politique : l’IA et la reconfiguration des métiers du travail social
Nous voici au cœur du sujet. C’est ici que la question cesse d’être technique pour devenir politique.
Car l’enjeu n’est pas seulement celui du temps gagné. C’est celui de la reconfiguration de nos métiers.
À qui profitera le gain de productivité ? Aux logiques gestionnaires, pour intensifier les cadences et gonfler les « files actives » ? Ou aux professionnels et aux personnes accompagnées ?
Et au-delà : quelles tâches déléguerons-nous à la machine ? Quelles compétences resteront valorisées, transmises, reconnues ? Quel visage auront demain les métiers de l’accompagnement ?
Si nous ne répondons pas nous-mêmes à ces questions, d’autres y répondront. Et nous savons déjà dans quel sens.
Voici la thèse que nous défendons, et qui guide notre travail chez TISSELIA : l’intégration de l’IA dans les métiers de la relation n’a de sens (et n’est souhaitable) que si elle est mise au service de la relation d’accompagnement. C’est à cette seule condition qu’elle peut soutenir simultanément le pouvoir d’agir des professionnels (la préservation du cœur de métier) et celui des publics accompagnés (le développement de l’autonomie).
Je lance cet appel : la question de l’IA doit être indissociable de la question du pouvoir d’agir — celui des professionnels, et celui des personnes accompagnées.
- Refuser que le débat soit confisqué par les experts techniques et les logiques budgétaires.
- Porter cette revendication dans les instances représentatives, les négociations collectives, les projets de service.
- Faire de la reconfiguration de nos métiers un objet de délibération collective.
- Construire des alliances entre travailleurs sociaux, fédérations, chercheurs, praticiens, personnes accompagnées.
Le HCTS appelle à passer « de l’impuissance au pouvoir d’agir ». L’IA peut être le levier de cette reconquête ou l’accélérateur de la crise actuelle.
Tout dépend de ce que nous en ferons.
L’IA ne doit pas servir à faire plus. Elle doit servir à faire mieux : accompagner, soutenir, être présents là où la machine ne peut pas l’être.
Un combat pour le temps. Pour le sens. Pour l’avenir de nos métiers.
À nous de le mener.
Cet article fait partie des réflexions de TISSELIA sur les transformations numériques dans les métiers de l’accompagnement social et éducatif. Nous enquêtons, documentons et outillons les professionnels pour faire de la technologie un levier d’autonomie et d’émancipation.
Pour approfondir ces questions, n’hésitez pas à nous contacter.
Références
Chui, M., Hazan, E., Roberts, R., Singla, A., Smaje, K., Sukharevsky, A., Yee, L., & Zemmel, R. (2023, June). The economic potential of generative AI: The next productivity frontier. McKinsey Global Institute.
Dell’Acqua, F., McFowland, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality. Harvard Business School Technology & Operations Mgt. Unit Working Paper, (24-013).
Haut Conseil du Travail Social. (2023). Livre blanc du Haut Conseil du Travail Social. Ministère des Solidarités et des Familles.
LaborIA. (2023-2024). Synthèse générale LaborIA Explorer. France Travail & Inria.
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192. https://doi.org/10.1126/science.adh2586
Webinaire « Usage de l’IA dans le travail social : jalons pour une réflexion collective » (octobre 2024). DGCS & LaborIA.