Laboratoire

Ce que nous faisons

Recherche-action sur les usages réels, dispositifs socio-techniques & cadres responsables de l’IA.

Proposer un terrain d’étude
Recherche-action IA responsable Ressources ouvertes

Ce que nous faisons

Nous étudions les usages réels du numérique et de l’IA, sur le terrain. Nous documentons, questionnons et analysons ce que font les usagers/clients, les équipes et les partenaires dans leurs situations de travail ; puis nous menons de la recherche-action pour co-concevoir des dispositifs socio-techniques (IA, no/low-code, supports de médiation) et les éprouver par cycles courts.

Pas d’audit lourd ni d’intégration technique complexe : nous privilégions des solutions minimales et réversibles, mesurons l’appropriation, et publions des ressources ouvertes. Veille RGPD/AI Act, et orientation vers des partenaires spécialisés si nécessaire.

Projet en cours

TISSEL-IA

L’intelligence artificielle – et en particulier les agents conversationnels et génératifs – s’invite désormais dans les moments décisifs de la vie courante : choisir une orientation scolaire ou professionnelle, rédiger un CV, évaluer son état psychologique ou comparer des traitements médicaux. Ces algorithmes informent, orientent, soutiennent, et parfois accompagnent jusqu’à la réalisation de tâches quotidiennes. Leur adoption rapide progresse plus vite que notre capacité collective à en mesurer et en appréhender les effets.

Constats
  • Une désintermédiation croissante des services publics : l’usager consulte une IA avant de solliciter un professionnel, brouillant les repères d’autorité et de confiance.
  • Une redéfinition des métiers de la relation et de l’accompagnement : conseillers, éducateurs, travailleurs sociaux voient leur rôle challengé par un interlocuteur numérique disponible 24 h/24.
Enjeux
  • Pourtant, ces usages restent peu documentés ; leurs limites (biais, dépendance, désinformation, confidentialité) sont mal balisées, alors même que l’AI Act européen et de nouveaux standards éthiques imposent un cadrage strict.
  • Notre conviction est simple : on ne peut plus accompagner sans interroger l’IA. Les publics s’en servent déjà, les institutions la déploient et les professionnels explorent des pratiques innovantes. Comprendre la relation qui se tisse entre humains et algorithmes – et en faire un levier d’autonomie plutôt qu’un facteur de vulnérabilité – devient incontournable.
Focal

Pourquoi commencer par les étudiants ?

Les étudiants sont en première ligne : devoirs, stages, Parcoursup/alternance, insertion pro… ils mobilisent déjà l’IA pour chercher, décider, produire. C’est un terrain idéal pour :

Documenter
  • Documenter finement les pratiques (stratégies, bricolages, détournements, dépendances).
Risques
  • Identifier les risques utiles à traiter (confidentialité, plagiat, désinformation, inégalités d’accès).
Transférer
  • Co-construire des repères et protocoles d’usage transférables aux services d’orientation, bibliothèques, missions d’accompagnement, associations et collectivités.
Appel à partenariats

Participer au projet

Nous recherchons des terrains d’étude et sites pilotes (universités, IUT/écoles, CROUS, Missions Locales, info jeunesse, bibliothèques, associations, collectivités, incubateurs étudiants).

Contribuer peut vouloir dire :

Contributions
  • faciliter l’accès à un public volontaire (entretiens/ateliers/tests),
  • co-animer un micro-pilote (4–8 semaines) autour d’un dispositif minimal (IA/no-code/supports),
Engagements & diffusion
  • participer à un comité éthique et à la définition des indicateurs d’appropriation,
  • co-publier en accès ouvert (retours d’expérience, kits, chartes d’usage).

👉 Proposer un terrain d’étude · Devenir partenaire · Recevoir la veille TISSEL-IA