L’intelligence artificielle au travail 4/5

L'IA dans l'entreprise, passage en revue des différents écueils

Faire fonctionner l’IA au sein d’une entreprise se résume à résoudre un ensemble prosaïque et hétéroclite de problèmes de management

L'IA dans l'entreprise, passage en revue des différents écueils © Freepik

Les entreprises doivent encore comprendre l’IA générative pour espérer l’intégrer dans leurs processus en en tirant les gains de productivité promis (voir article précédent de la série). Mais comment peuvent-elles gérer tous les problèmes que leur pose cette technologie ? Diverses difficultés freinent en effet l’adoption de l’IA en entreprise, tant comportementales que techniques et organisationnelles. Parmi elles, les écueils psychologiques peuvent toucher aussi bien les employés lambda que les cadres supérieurs. Selon Ethan Mollick, professeur à la Wharton School de l’université de Pennsylvanie, ce sont les employés les mieux placés pour trouver des utilisations à l’IA. Mais ils ont aussi de nombreuses raisons de rejeter l’IA ou de ne pas mentionner qu’ils l’utilisent. Ils peuvent souhaiter s’attribuer le mérite du travail effectué par la machine, ou bien éviter de faire savoir qu’ils ont plus de temps libre. Surtout, ils peuvent ne pas tenir à signaler que leur travail pourrait être effectué par l’IA. (“Écoutez, patron, je suis superflu.” “Oui, en effet.”)

Résistance au changement

Les entreprises ont toute sorte de moyens d’encourager l’adoption de l’IA. Certaines offrent des primes en espèces aux employés qui automatisent leurs tâches. D’autres disposent de tableaux de bord qui montrent comment chaque service utilise la technologie. Les évaluations de performance peuvent mentionner spécifiquement l’adoption de l’IA.

Mais ce genre de mesures incitatives n’a qu’un effet limité si la confiance fait défaut entre les employés et les dirigeants. Être honnête et ne pas nier l’incertitude sur ce qui nous attend peut sembler banal, mais c’est essentiel. “Certains emplois vont disparaître, déclare Nimish Panchmatia, responsable de l’IA chez DBS, la plus grande banque d’Asie du Sud-Est. Mais de nouveaux emplois vont aussi être créés.” La banque met en place pour ses employés des programmes d’acquisition de nouvelles compétences, destinés à aider, par exemple, un agent du service clientèle à devenir commercial.

“Vous pouvez avoir un produit supérieur, mais s’il ne s’intègre pas dans le flux de travail de quelqu’un, s’il ne s’intègre pas dans sa journée, il est difficile de le faire adopter.”

Souvent cependant, le problème comportemental à résoudre ne relève pas des craintes, mais de la facilité d’usage de l’IA. Glowforge, fabricant de machines de découpe laser de bureau basé à Seattle, a essayé un outil tiers d’aide à la vente basé sur l’IA qui envoyait par e-mail au personnel les résumés des appels commerciaux. “Tous les commerciaux l’ont directement mis à la poubelle, explique Dan Shapiro, le CEO. Il parasitait le rythme de l’équipe sans y trouver sa place.”

Glowforge a depuis développé son propre outil. Lui aussi écoute automatiquement les appels commerciaux et envoie par e-mail un rapport sur ce qui s’est bien passé et ce qui s’est mal passé. Mais les feedbacks de l’IA font désormais l’objet d’une discussion hebdomadaire entre les commerciaux et leurs responsables. Savoir que ce point sera abordé incite chacun à accorder bien plus d’attention à l’outil. “Vous pouvez avoir un produit supérieur, mais s’il ne s’intègre pas dans le flux de travail de quelqu’un, s’il ne s’intègre pas dans sa journée, il est difficile de le faire adopter”, reconnaît Cameron Davies, responsable de l’IA chez Yum! Brands, propriétaire entre autres marques de Pizza Hut, et de Taco Bell.

Excès d’enthousiasme

L’excès d’enthousiasme constitue un autre écueil comportemental à prendre en compte. L’imprévisibilité des forces et des faiblesses de l’IA – que M. Mollick et d’autres ont baptisée “frontière irrégulière” – implique qu’il faut du temps pour développer son intuition sur la manière d’utiliser au mieux cette technologie. Lorsqu’on commence par se précipiter pour adopter l’IA, l’apprentissage se fait dans la douleur. L’année dernière, la branche australienne du cabinet de conseil Deloitte a dû rembourser une partie de ses honoraires au gouvernement fédéral parce qu’elle avait rédigé un rapport truffé d’erreurs générées par l’IA. Le mois dernier, en Grande-Bretagne, la police des West Midlands a admis que la décision d’interdire aux supporters israéliens d’assister à un match de football à Birmingham était en partie fondée sur une hallucination de l’IA inventant un match qui n’avait jamais eu lieu [ce qui a entraîné la démission du chef de ladite police, ndt].

“Je n’ai pas besoin que le modèle utilisé pour commander une pizza soit capable de parler du plus célèbre économiste du monde.”

Coûts cachés de l’adaptation

Pour éviter ce genre de catastrophe, il faut également résoudre divers problèmes techniques. Or, les coûts cachés de cette démarche sont facilement négligés, selon Rama Ramakrishnan, ancien cadre dans le secteur de la tech qui enseigne aujourd’hui au Massachusetts Institute of Technology (MIT). Le premier coût consiste à adapter le modèle à l’usage spécifique. Cela implique de l’entraîner sur les bonnes données, de l’affiner et de réduire les hallucinations. Comme l’explique M. Davies, de Yum! Brands pour les applications de commande vocale des restaurants de l’entreprise, en s’appuyant sur de petits modèles linguistiques, formés sur des sous-ensembles de données et axés sur des tâches spécifiques, on diminue le risque pour l’IA de produire des hallucinations. “Je n’ai pas besoin que le modèle utilisé pour commander une pizza soit capable de parler du plus célèbre économiste du monde.” (Ce serait pourtant une bonne idée…).

Toutefois, même les hallucinations peuvent parfois être utiles. Brice Challamel, responsable de la stratégie IA chez OpenAI, décrit l’IA comme un coéquipier capable de jouer plusieurs rôles différents : celui d’assistant qui aide à accomplir des tâches répétitives, celui d’expert qui explique des concepts complexes, celui de coach qui assure le feedback et celui de partenaire créatif qui propose des idées. Ce que l’on considère comme une hallucination pour le rôle d’expert pourra être vu comme un talent de créativité lorsque l’IA est sollicitée dans un brainstorming.

Les problèmes deviennent beaucoup plus faciles à traiter lorsque les tâches confiées aux agents IA sont limitées.

L’outil de coaching commercial de Glowforge offre un bon exemple de cette manière de tolérer, voire de transformer les erreurs. L’IA se trompe souvent dans ses commentaires, relevant par exemple qu’une opportunité commerciale a été manquée alors que l’appel était destiné à entretenir une relation client. Mais l’outil a été en partie développé pour être “peu convaincant” dans ses jugements : ses opinions sont délibérément conçues pour alimenter la discussion.

Comme l’IA générative fonctionne sur la base de probabilités, on ne peut jamais savoir avec certitude ce qu’elle va proposer. Le deuxième coût caché consiste donc à mettre en place des garde-fous pour les cas d’utilisation où la moindre erreur risque d’être grave. Sierra, une start-up qui développe des agents IA pour le service client, par exemple, utilise un “modèle de supervision” qui surveille en temps réel les interactions entre les clients et ses agents IA, avec des humains prêts à intervenir si nécessaire. Un autre modèle évalue les conversations après coup et transmet les cas délicats à des évaluateurs humains.

Les bonnes tâches confiées à la bonne IA

Les problèmes deviennent beaucoup plus faciles à traiter lorsque les tâches confiées aux agents IA sont limitées, explique M. Taylor. Les détaillants ont des critères standards pour le retour des articles, par exemple, si bien qu’un agent IA du service clientèle peut poser des questions spécifiques sur la date d’achat de l’article et demander s’il a été utilisé, avant de déterminer la marche à suivre.

Le même type de réflexion est à l’œuvre chez Garfield, une start-up britannique, la première entreprise au monde à avoir été réglementée pour fournir des services juridiques basés sur l’IA. Garfield aide les créanciers à poursuivre leurs débiteurs pour de petites créances – définies comme des impayés inférieurs à 10 000 livres sterling (11 607 euros). Recourir à la justice pour des factures impayées est intimidant pour la plupart des gens ; mais si un avocat intervient, la démarche devient rapidement peu rentable. L’IA générative peut la rendre beaucoup plus abordable. Les entreprises connectent alors leur logiciel de comptabilité à Garfield, qui récupère les factures et indique s’il existe un recours valable. Il peut ensuite envoyer des lettres de mise en demeure, ce qui suffit souvent à inciter les débiteurs à payer, et aider les requérants devant les tribunaux. Philip Young, l’un des cofondateurs du cabinet et seul avocat de l’équipe, explique que cette idée fonctionne notamment parce que la procédure pour les petits litiges a “des tenants et aboutissants relativement bien définis et un univers de possibilités assez limité”. Les litiges plus complexes exigeraient d’envisager beaucoup plus d’alternatives, ce qui augmenterait le risque d’erreurs.

Des implications organisationnelles

Outre les questions comportementales et techniques, les entreprises doivent également résoudre divers problèmes organisationnels afin que l’IA réponde à leurs besoins. Il faut évidemment trouver les bons talents. Ne pas donner aux machines accès aux bonnes données est un autre écueil courant.

Il faut trouver les bons talents. Ne pas donner aux machines accès aux bonnes données est un autre écueil courant. Une évaluation des modèles est ensuite indispensable afin de garantir la qualité des résultats.

Une évaluation des modèles est ensuite indispensable afin de garantir la qualité des résultats. Pour certaines tâches, c’est assez simple. Sarah Guo, investisseuse en IA dans la Silicon Valley, explique que si l’ingénierie logicielle est à l’avant-garde de l’adoption de l’IA, c’est entre autres parce qu’il est relativement facile de vérifier que quelques lignes de code fonctionnent. Dans d’autres domaines, il est bien moins aisé d’évaluer si le résultat est à la hauteur. Selon elle, il est beaucoup plus difficile d’essayer de rendre un modèle drôle, car l’humour est “flou et imprécis”.

Bon nombre des tâches d’une entreprise entrent dans cette catégorie floue. Il faut donc faire appel à des experts humains pour définir ce qui est considéré comme satisfaisant. Ils sont également nécessaires pour fournir les connaissances implicites permettant de mener à bien les tâches (l’évaluation GDPval [une évaluation éditée par OpenAI permettant de mesurer les performances des modèles sur des tâches à valeur ajoutée réelles, ndt], qui suggère que les modèles de pointe peuvent rivaliser avec les experts du secteur, exclut les tâches qui dépendent de connaissances “tacites” [connaissances, compétences et capacités d’une personne qui ne peuvent être exprimées par une communication écrite ou orale, ndt]). Exploiter ce type d’expertise interne constitue un défi en partie organisationnel. M. Mollick cite l’exemple d’une grande entreprise dans laquelle des ingénieurs seniors et des spécialistes d’un sujet précis sont répartis en petites équipes interservice afin d’avancer rapidement sur des projets spécifiques.

Des goulots d’étranglement entre services

Par ailleurs, gagner du temps dans un domaine peut créer des goulots d’étranglement dans un autre. Le “vibe coding” (terme de jargon qui désigne le recours à des prompts en langage naturel pour faire écrire un programme informatique à une IA) permet aux novices de créer beaucoup plus facilement des applications et des fonctionnalités. À certains égards, cette approche est une aubaine. Les outils de codage tels que Claude Code et les plateformes comme Lovable ou Replit permettent aux utilisateurs finaux et aux chefs de produit de montrer ce qu’ils veulent construire, au lieu de perdre un temps infini à créer des présentations PowerPoint et de longs documents. L’expression “demo, don’t memo” (“montrez, plutôt que d’expliquer”) circule désormais dans certaines entreprises de la tech.

“Le goulot d’étranglement lié à votre rapidité pour écrire du code a disparu, mais vous voilà confronté à un autre goulot d’étranglement : votre rapidité pour réviser le code.”

Mais il s’ensuit un nouveau problème. “Le goulot d’étranglement lié à votre rapidité pour écrire du code a disparu, mais vous voilà confronté à un autre goulot d’étranglement : votre rapidité pour réviser le code”, explique Hannah Calhoon, responsable IA chez Indeed. Jim Swanson, directeur informatique de la société pharmaceutique Johnson & Johnson (J&J), explique qu’il a souvent entendu les responsables de différentes régions vanter les mérites de l’IA pour améliorer le processus de facturation, en oubliant que cela signifiait davantage de travail pour l’équipe financière.

Le bon objectif

J&J est un exemple de la manière dont la précipitation initiale pour expérimenter l’IA a évolué vers une approche plus mesurée. L’entreprise a commencé avec une philosophie, “laisser fleurir mille fleurs”. Mais beaucoup de mauvaises herbes ont ainsi pu pousser. Selon M. Swanson, 85 % de la valeur générée était attribuable à 15 % seulement des applications. J&J a désormais adopté une approche plus ciblée, avec un conseil central dédié à l’IA et un conseil dédié aux données qui s’assurent que les projets les plus fructueux sont approuvés et que les données appropriées sont disponibles pour les mener à bien.

Les indicateurs évoluent également, s’éloignant des objectifs bruts d’utilisation de l’IA pour se concentrer sur des éléments importants pour l’entreprise. “Le plus important (…), c’est de préciser, au lieu du résultat technique, le résultat commercial que vous essayez d’atteindre”, explique M. Taylor. Sa start-up, Sierra, utilise une tarification basée sur les résultats qui consiste à ne facturer les clients que lorsque l’agent IA résout réellement leur problème ; si un humain doit intervenir, c’est gratuit.

Il s’agit notamment de mettre en place des incitations bien conçues pour son adoption, des garde-fous pour atténuer les problèmes, et des systèmes pour choisir, mesurer et mettre en œuvre les applications.

Pragmatisme et ambition

Cet état des lieux ne vise pas à minimiser l’importance de l’IA générative ni la rapidité à laquelle elle progresse dans le monde du travail. Au fur et à mesure des avancées techniques, elle pourra accomplir des tâches qui étaient auparavant hors de sa portée. De nouveaux modèles commerciaux et de nouvelles formes d’organisation verront le jour. Les patrons américains, australiens, britanniques et allemands n’ont peut-être pas encore constaté d’impact significatif de l’IA, mais une nouvelle enquête menée par la Federal Reserve Bank of Atlanta, l’université Macquarie, la Banque d’Angleterre et la Bundesbank montre qu’ils s’attendent, dans les trois années à venir, à d’importantes pertes d’emplois et à de gros gains de productivité.

Mieux vaut d’ailleurs ne pas se laisser trop emporter par l’idée d’une intelligence extraterrestre. Pour que l’IA fonctionne au sein des entreprises, ces dernières doivent résoudre un ensemble prosaïque de problèmes de management. Il s’agit notamment de mettre en place des incitations bien conçues pour son adoption, des garde-fous pour atténuer les problèmes, et des systèmes pour choisir, mesurer et mettre en œuvre les applications. Il faut allier pragmatisme et ambition, explique M. Swanson. Il s’agit d’être “un optimiste cynique”.

The Economist

© 2026 The Economist Newspaper Limited. All rights reserved. Source The Economist, traduction Le nouvel Economiste, publié sous licence. L’article en version originale : www.economist.com.

Réutiliser cet article
Cet article est une œuvre protégée. Son utilisation donne lieu à des droits d’exploitation et de rediffusion interne et externe. Nous consulter.

L'article ne possède pas encore de commentaires !