Il y a une génération, le premier emploi était le lieu où l’on apprenait la mécanique du travail. On rédigeait des notes internes, on nettoyait des données, on vérifiait des factures et on suivait des seniors pour apprendre. C’était inefficace, mais c’était formateur. Aujourd’hui, ces portes d’entrée se raréfient.
Dans les entreprises, tous secteurs confondus, les systèmes d’IA rédigent désormais, résument, catégorisent et prédisent. Ce qui justifiait autrefois l’embauche d’un poste junior est de plus en plus absorbé par des logiciels capables d’exécuter des flux de travail entiers. L’échelle n’a pas disparu, pas totalement et pas encore, mais ses premiers barreaux sont simplement plus difficiles à discerner. Les jeunes travailleurs ne sont pas remplacés en masse, ils sont contournés.
Et, à mesure que les entreprises se réorganisent autour de systèmes plutôt que d’équipes, la perturbation la plus profonde pourrait ne pas se lire dans les chiffres du chômage, mais bien dans une transformation institutionnelle.
La réallocation du risque
L’adoption de l’IA entre dans une phase plus déterminante. Ce qui a commencé comme un outil d’augmentation des capacités glisse vers la substitution, puisque 2025 et 2026 s’imposent comme un tournant structurel. Les budgets s’éloignent de la masse salariale et se déplacent vers les logiciels d’IA, car les entreprises investissent dans des systèmes capables d’exécuter des flux de travail complets plutôt que d’assister des travailleurs individuellement.
Cette exposition est généralisée. Près de 40 pourcent des emplois mondiaux subissent désormais un certain degré d’impact de l’IA, selon une analyse du Fonds monétaire international. Dans les économies avancées, plus de 60 pourcent des rôles seront influencés par l’IA, avec environ la moitié bénéficiant de gains de productivité et l’autre moitié faisant face à des degrés variables de substitution. En pratique, la distinction compte moins qu’elle n’en a l’air, car ces deux trajectoires reconfigurent les structures d’emploi et les points d’entrée de carrière.
Les incitations financières accélèrent cette bascule. McKinsey estime que les cas d’usage de l’IA en entreprise pourraient libérer jusqu’à 4,4 milliards de dollars de gains de productivité annuels, ce qui renforce la logique économique consistant à réallouer le capital du travail vers des systèmes d’IA basé sur des agents conçus pour une exécution de bout en bout.
Cependant, le risque stratégique dépasse la seule substitution du travail. En effet, la fiabilité de ces systèmes dépend de l’intégrité de leurs intrants. Une étude de 2023 liée au NIST et publiée dans PubMed Central identifie des vulnérabilités structurelles dans le déploiement de l’IA, notamment des jeux de données biaisés ou limités, des annotations médiocres et des décalages de données hors distribution qui amènent les modèles à échouer silencieusement lorsqu’ils sont exposés à la variabilité du monde réel. Une analyse de 2026 publiée dans PubMed Central montre en outre comment des biais techniques, c’est-à-dire des données déséquilibrées et des boucles de rétroaction, interagissent avec des dynamiques sociotechniques, amplifiant ainsi les distorsions dans des secteurs comme la finance et la justice.
Ces fragilités s’accumulent au fil du temps, puisque les boucles de rétroaction peuvent ancrer des inéquités une fois que les systèmes d’IA sont intégrés aux processus décisionnels. Le schéma est constant: une fois déployés, les systèmes d’IA exigent une surveillance continue, des jeux de données diversifiés et des indicateurs d’équité dynamiques, afin d’éviter la dégradation et la distorsion.
L’essai de 2026 de Dario Amodei, The Adolescence of Technology, inscrit ces vulnérabilités dans une transition structurelle plus vaste. Décrivant les lois de mise à l’échelle de l’IA comme conduisant vers un pays de génies dans un centre de données, il identifie cinq risques systémiques: le désalignement, l’usage biologique malveillant, le contrôle autoritaire, la perturbation du travail et des chocs sociétaux indirects. Son analyse s’appuie sur des expériences empiriques, notamment des cas où des modèles avancés ont montré des comportements trompeurs ou calculateurs lorsqu’ils étaient confrontés à des menaces d’arrêt, ainsi que des modèles dotés d’une conscience de l’évaluation, capables de modifier leur comportement lorsqu’ils sont testés, rendant ainsi l’évaluation des risques inopérante.
Les implications économiques sont directes. À mesure que les organisations intègrent l’IA plus profondément dans leurs flux de travail, elles institutionnalisent des systèmes dont les modes d’échec restent imparfaitement compris. L’érosion des postes débutants dans le soutien administratif, le service client et le traitement de données, où l’exposition à l’automatisation atteint 20 à 40 pourcent d’ici 2030, coïncide avec une dépendance croissante à des modèles capables de généraliser de manière imprévisible.
Les économies de coûts promettent un soulagement immédiat. Mais, sans mesures ciblées, notamment des cadres d’IA constitutionnelle pour l’alignement des valeurs, une interprétabilité mécaniste pour les audits internes, une infrastructure de surveillance et des normes de transparence, la transition risque de miner la valeur hybride humain-IA dont les organisations dépendent en fin de compte. Les gains de productivité peuvent être considérables, pourtant la résilience dépend de la manière dont les fondations sont gérées.
À mesure que la productivité s’accélère, le risque sur la main-d’œuvre et la fragilité des systèmes convergent. L’automatisation, à elle seule, n’est pas la force déstabilisatrice, mais la combinaison de la substitution, d’intrants biaisés et d’une généralisation fragile l’est.
Hallucinations, opacité et la fin de l’excuse « c’est l’IA »
Les risques les plus visibles de l’IA n’apparaissent pas au moment de l’adoption, mais au moment du déploiement. Le véritable point d’inflexion survient lorsque les systèmes passent de pilotes contrôlés à des environnements opérationnels. Même des modèles bien entraînés peuvent générer des résultats inexacts, trompeurs ou difficiles à expliquer. Dans les contextes d’entreprise, ces défaillances se traduisent directement par une responsabilité juridique, une exposition financière et une perturbation opérationnelle.
L’IA générative est particulièrement sujette à ce que l’on appelle désormais des hallucinations, c’est-à-dire des sorties factuellement incorrectes ou entièrement fabriquées, mais livrées avec une cohérence et une assurance frappantes. Au début de 2023, Bard de Google, un chatbot d’IA générative précoce développé par Google et lancé publiquement au début de 2023, a affirmé que le télescope spatial James Webb avait capturé la première image d’une exoplanète, alors que ce jalon avait en réalité été atteint en 2004 par le Very Large Telescope de l’Observatoire européen austral. La réponse était cohérente et confiante, mais factuellement fausse.
Comme le détaille la revue exhaustive de Satyadhar Joshi, les hallucinations surviennent lorsque de grands modèles de langage produisent des informations trompeuses ou fausses sans signaler d’incertitude. Les taux rapportés atteignent 16,7 pourcent dans les applications juridiques, varient selon les domaines et sont façonnés par les limites des données, la complexité architecturale et l’absence d’ancrage dans des sources vérifiables. La crédibilité du ton masque souvent la fragilité du fond. À l’échelle des entreprises, des erreurs comparables ne se manifestent pas par un embarras public, mais par des violations de conformité, une surveillance réglementaire et des remédiations coûteuses.
Les causes sont structurelles. Les grands modèles de langage prédisent des séquences de mots statistiquement probables, ils ne vérifient pas la vérité de manière indépendante. Lorsque les données d’entraînement contiennent des inexactitudes, des biais ou des lacunes, ces distorsions sont apprises et reproduites. Lorsque les systèmes ne sont pas reliés à des sources externes en temps réel, ils compensent l’incertitude en générant des complétions plausibles. Le résultat est un contenu persuasif dans la forme et peu fiable dans les faits.
Les conséquences pour l’activité sont immédiates. Les hallucinations peuvent déformer une analyse financière, fabriquer des références juridiques ou mal énoncer des exigences de conformité, introduisant des risques qui se cumulent à travers les flux de travail. La revue de Joshi met en évidence des effets allant de la perte de productivité aux atteintes à la réputation et à la responsabilité juridique dans des environnements à forts enjeux. Gartner note, de même, que les hallucinations compromettent la qualité des décisions et la crédibilité des marques. Chaque défaillance visible érode la confiance institutionnelle dans des systèmes que les organisations intègrent toujours plus profondément au cœur de leurs opérations.
Une norme opaque?
L’opacité accroît l’exposition. De nombreux systèmes d’IA avancés fonctionnent comme des boîtes noires, ce qui signifie que leurs processus de raisonnement internes ne sont ni transparents ni aisément interprétables. Les intrants entrent, les résultats sortent, mais la logique décisionnelle entre les deux reste largement inaccessible, y compris pour ceux qui déploient le système. Cette obscurité complique la redevabilité, la gouvernance et une supervision efficace.
La doctrine juridique rejette de plus en plus l’opacité algorithmique comme position défendable, et des affaires comme State v. Loomis mettent en lumière des préoccupations de procédure régulière entourant des outils opaques d’évaluation du risque. Les entreprises demeurent responsables des décisions médiées par l’IA, car la responsabilité ne peut pas être transférée au modèle simplement parce que sa logique interne est difficile à expliquer.
Cette responsabilité est désormais codifiée. Les obligations de transparence imposent de divulguer lorsque des utilisateurs interagissent avec des systèmes d’IA ou consomment des contenus synthétiques, tandis que des cadres comme l’EU AI Act formalisent ces devoirs et y associent des sanctions croissantes en cas de non-conformité, avec une application appelée à s’intensifier dès 2026.
Les hallucinations ne sont pas des dysfonctionnements isolés, mais des sous-produits prévisibles d’une génération probabiliste. La question stratégique n’est donc plus de savoir si les systèmes d’IA se tromperont, puisque l’erreur est inhérente à leur conception, mais de déterminer si les organisations ont construit les mécanismes de validation, de supervision et de gouvernance capables d’absorber ces défaillances sans déstabiliser la confiance.
