Dans un rapport sur l’intelligence artificielle (IA), l’Institut national de recherche en sciences et technologies numériques (Inria) et le club Datacraft pointent le fait que si les salariés bricolent eux-mêmes avec l’IA, c’est souvent faute de mieux dans leur entreprise ; certes, ils participent à une forme d’innovation et de recherche de performance, mais ce faisant, ils peuvent aussi prendre des risques et en faire prendre à leur organisation. Aussi faut-il dépasser ces pratiques.
L’arrivée de ChatGPT d’OpenAI à l’automne 2022 a démocratisé l’usage de l’intelligence artificielle. Dès 2023, 18 % des employés français utilisaient l’IA générative au travail, plus de la moitié d’entre eux le faisant en dehors d’un cadre défini par les employeurs.
Si les usages informels de l’IA sont si présents dans les sociétés étudiées (1), si les salariés « bricolent » autant dans leur coin, c’est d’abord parce que les entreprises ont du mal à passer des grands discours sur l’IA aux actes. C’est-à-dire à transformer des ambitions stratégiques sur l’intelligence artificielle en usages réels sur le terrain découlant d’une véritable politique « d’industrialisation de l’IA ». Et lorsque ces projets IA d’entreprise sont industrialisés (dans 20 % des cas seulement), ils ne concernent pas tous les métiers ni ne sont en prises avec le travail réel. Ces projets sont construits d’en haut, dans une logique gestionnaire de rationalisation, d’automatisation et de standardisation. « Ce décalage provoque une forme de rejet ou d’indifférence des professionnels, qui peinent à voir l’utilité ou la légitimité de ces outils dans leur contexte », écrit l’Inira.
Aussi les salariés font-ils leur propre cuisine pour développer des usages correspondant à leurs besoins réels, qu’il s’agisse de traduire un texte, de mieux le structurer, de faire une veille, de reformuler un mail ou de chercher des idées.
Ils n’en parlent pas à leur hiérarchie, mais testent et expérimentent à leur niveau. Comme les Shadoks sachant pomper, le « savoir prompter » devient une compétence-clef.
Deux témoignages sur les usages |
Elisabetta, commerciale dont le Français n’est pas la langue maternelle : « Avec ChatGPT, très rapidement, c’était le grand amour. J’écris beaucoup de mails de prospection et de relance à des interlocuteurs variés. Et même si tu écris bien et sans faute, il y a quand même différents types de langage à utiliser pour différents types d’interlocuteurs. On m’avait déjà fait remarquer que mes relances étaient « cavalières » (..) ChatGPT m’a aidé à apprivoiser cette différence culturelle entre l’Italie et la France. J’écris le mail, puis je demande à ChatGPT de le transformer de manière corporate (..) Ce genre d’outils me suggère des modalités de communication qu’en tant qu’étrangère, je n’aurais pas eues ». Maud, experte-comptable : « Pour la collecte d’informations, très chronophage, ChatGPT me sert de moteur de recherches augmenté (..) Je compare aussi des données d’entreprises de plusieurs pays (..) L’IA fait office de traducteur de normes d’un pays à l’autre, d’un système comptable à l’autre. Je l’utilise aussi pour m’apprendre des choses. Par exemple, j’avais un graphique à produire sur Excel et je ne savais pas comment le faire, et ChatGPT m’a donné en cinq minutes un mode d’emploi. C’est un peu le professeur Nimbus, il sait tout et il me dépanne ». |
Cet usage solitaire, non encadré et non officiel, traduit une forme « d’ingéniosité professionnelle » : comment puis-je améliorer mon travail moi-même ? On comprend que nombre d’entreprises n’osent pas s’y opposer.
Mais il pose aussi de sérieux problèmes.
Du côté de l’entreprise, des informations sensibles voire confidentielles peuvent prendre la poudre d’escampette dans des serveurs extérieurs : « 8,5 % des invites soumises aux outils de génération IA contiennent des données sensibles, soit un prompt sur 12 », selon une étude de fin 2024 d’Harmonic Research.
Exemple de ces risques : demander à l’IA de reformuler un mail commercial en indiquant le client et son adresse ; préparer avec ChatGPT une note destinée à une direction, etc. Mais le risque est aussi celui d’une banalisation, d’une dégradation du travail obtenu : « Il est tentant de demander un avis à ChatGPT et de reprendre sa réponse sans réelle analyse. Mais si tout le monde fait ça, pour les appels d’offres et les recommandations, tout finira par se ressembler », dit un professionnel.
D’autre part, les modèles d’IA générative peuvent aussi se tromper et induire les salariés en erreur. Le rapport souligne d’ailleurs l’importance de l’esprit critique pour mieux tirer partie de l’IA. Problème : cette compétence est peu valorisée dans des organisations qui la perçoivent comme négative et nuisible. On rejoint là les carences du management à la française, où la loyauté est vue d’abord comme de l’obéissance.
Du côté des salariés, ces pratiques cachées n’ont pas que des avantages. Elles génèrent « inconfort moral et pression psychologique ». Une culpabilisation liée à la peur de « tricher » et d’être sanctionné. Pour les auteurs du rapport (2), cet usage individualisé peut favoriser la compétition (par exemple : j’ai trouvé comment gagner du temps et je garde cette solution pour moi) et fragiliser la cohésion des collectifs de travail : il empêche la construction de règles partagées autour d’un bon travail sur l’IA. Par exemple, le recours à l’IA peut remplacer les interactions entre collègues, qui se pratiquaient pour relire, échanger ou créer, ce qui affaiblit la circulation des savoirs et donc l’apprentissage collectif.
Face aux pratiques clandestines de l’IA par les salariés (« Shadow IA »), le rapport identifie plusieurs attitudes de la part d’entreprises, allant d’une forme de permissivité (à droite) ou au contraire d’une forte dissuasion (à gauche), comme on le voit dans le schéma ci-dessous.
Mais quelle est la bonne attitude du point de vue de l’entreprise ?
Déjà, « reconnaître l’ampleur du phénomène ». L’Inria préconise de fixer rapidement « des premiers garde-fous avec les directions-métiers ».
Ensuite, favoriser la communication entre pairs pour « favoriser les échanges de bonnes pratiques ». Il s’agit ici de parler des expériences réelles : « Qu’avez-vous réellement obtenu en utilisant l’IA pour cette tâche ? » « Quel écart percevez-vous entre ce que vous attendiez et le résultat apporté par l’IA ? » « Quels critères de qualité de travail souhaitez-vous préserver, adapter ou faire évoluer avec l’IA (exemples : précision, créativité, autonomie, rigueur, etc.) ? » « Dans quelles situations l’IA vous semble-t-elle utile et dans lesquelles devient-elle problématique ou contre-productive (exemples : perte de sens, trop de standardisation, déqualification, etc.) ? »
Enfin, « sécuriser » en rendant accessible « des outils validés » et en « clarifiant les conditions d’usage » dans un cadre légal. Par « cadre légal », les auteurs ne décrivent pas un règlement, mais « un objet de dialogue interfonctionnel et social », d’autant plus légitime « s’il est construit avec les représentants du personnel et nourri par les retours terrain ».
Ce chantier, prévient le rapport, ne doit pas reposer « sur une gouvernance technocentrée », autrement dit être pilotée par une direction fonctionnant en vase clos.
Pour « mettre le travail au centre » d’une stratégie IA, l’Inria suggère d’associer à la construction de ce cadre les directions informatiques, les métiers de l’entreprise, les directions juridiques, les ressources humaines, les salariés eux-mêmes (qui peuvent être invités à dire comme ils effectuent leurs « meilleurs prompts », c’est-à-dire comment ils rédigent leurs meilleures requêtes pour obtenir une réponse adéquate de l’IA) et les représentants du personnel.
« Les instances de représentation du personnel, dit clairement le rapport, doivent être informées, consultées et associées tout au long du processus, dans le respect du dialogue social technologique ».
(1) Le rapport s’appuie sur une enquête qualitative menée auprès de « 14 organisations pionnières » : Airbus, Assurance Maladie, Believe, CHU de Montpellier, Crédit Agricole, Ekimetrics, L’Oréal, MAIF, Malakoff Humanis, Métropole de Montpellier, ministère des Armées, Région Ile-de-France, Skyrock, Veepee.
(2) L’auteur du rapport est Yann Ferguson, directeur scientifique du LaborIA à l’Inria (Institut national de recherche en sciences et technologies du numérique). Il a coordonné le travail d’Isabelle Hilali, Edouard Havis, Jean-Michel Lefèvre, Laurence Mari, Julia Savali, et Jeanne Godard, cette dernière étant membre de Datacraft, un club de data scientists et d’ingénieurs de 50 grandes entreprises.
