Je suis fatigué de voir la même mise en scène se répéter. Un grand dirigeant de l'IA prend la parole en public, annonce un carnage pour les emplois de bureau, balance une timeline terrifiante, et soudain tout le monde agit comme si un argumentaire commercial était une lecture neutre de l'avenir. Une explosion récente a rendu cela particulièrement évident : un dirigeant bien connu d'une entreprise d'IA a averti qu'un grand nombre d'emplois de bureau pouvaient disparaître rapidement, et un autre chercheur senior en IA a répliqué que les marchés du travail ne sont pas censés être expliqués par ceux qui vendent les machines.
Cet échange comptait parce qu'il a coupé à travers le théâtre. Quand les gens qui construisent et vendent l'IA deviennent aussi les voix les plus fortes qui annoncent un chômage de masse, vous ne devriez pas entendre seulement de l'analyse. Vous devriez entendre des incitations. La peur n'est plus seulement une humeur autour de l'IA. Elle fait partie du positionnement. Plus la prévision paraît sombre, plus le produit semble central. Dès que j'ai vu ça clairement, beaucoup de ces prédictions de fin du monde sur l'emploi ont cessé de ressembler à une vérité sobre pour ressembler à du marketing mieux taillé.
L'événement dépassait largement un simple clash de personnalités
Si quelqu'un a raté toute cette histoire, voilà ce qui compte.
Un dirigeant de l'IA très en vue a martelé la mise en garde désormais familière : le travail de bureau est en danger, une énorme perturbation arrive, la société n'est pas prête.
Puis un chercheur connu a répondu en substance : attendez. Si le sujet est le marché du travail, les salaires, la création d'emplois et le déplacement technologique, on devrait peut-être arrêter de traiter les fondateurs de l'IA comme l'autorité finale sous prétexte qu'ils sont proches des modèles.
Voilà la partie utile de ce choc.
Il a montré à quel point la conversation est devenue étrange.
Nous continuons de tendre le micro aux gens qui ont le plus intérêt à avoir l'air historiquement disruptifs.
Le catastrophisme IA est un marketing incroyablement pratique
La formule est maintenant presque trop parfaite :
- dire que la technologie avance à une vitesse folle
- dire que des professions entières sont en danger
- dire que la société n'est pas prête
- dire que votre entreprise est l'une des rares à prendre la menace au sérieux
Cela fait deux choses à la fois.
Cela fait passer l'orateur pour un prophète.
Et cela rend son produit inévitable.
C'est pour ça que j'ai énormément de mal à traiter les discours d'apocalypse de l'emploi tenus par des dirigeants de l'IA comme une sagesse neutre. Même quand l'inquiétude est en partie sincère, elle fonctionne encore comme du positionnement.
Les marchés du travail ne sont pas le monologue d'un fondateur
C'est la partie qui devrait être évidente et qui pourtant se perd sans arrêt.
L'emploi n'est pas une pure question de capacités du modèle.
C'est une question économique.
Les emplois bougent selon :
- la vitesse d'adoption
- la pression salariale
- la régulation
- les incitations business
- la demande des consommateurs
- la refonte organisationnelle
- les nouveaux rôles qui apparaissent plus tard qu'attendu
C'est pour ça que je deviens méfiant dès que quelqu'un saute directement de « le modèle peut faire X » à « donc des millions d'emplois sont partis ».
Dans la réalité, ça ne se passe jamais en ligne droite.
Entre une démo impressionnante et un marché du travail transformé, il y a encore des entreprises, des budgets, des déploiements, des résistances, des échecs, des retours en arrière et une masse de décisions lentes et laides.
Les marchés du travail ne fonctionnent pas comme ça.
La technologie peut détruire des tâches.
Elle peut effacer certains rôles.
Elle peut faire très mal à des gens.
Mais le chemin entre une nouvelle capacité et son effet net sur l'emploi est désordonné, politique et rempli d'effets de second ordre.
Ce genre de panique paraît toujours plus grand sur scène qu'une fois retombé dans la réalité
Chaque époque aime croire que sa disruption est la dernière.
Les machines industrielles ont déclenché de la panique.
Les ordinateurs ont déclenché de la panique.
Les distributeurs automatiques ont déclenché de la panique.
Internet a déclenché de la panique.
Aujourd'hui, l'IA déclenche de la panique avec un meilleur branding et de meilleurs micros.
Et cette fois encore, c'est la même chose : sur scène, cela ressemble à un avertissement gigantesque. Une fois que ça retombe dans le réel, les secteurs se réorganisent à des rythmes différents, les rôles cassent de manière inégale, et de nouveaux emplois apparaissent souvent ailleurs que là où la prophétie les attendait.
Cela ne veut pas dire que l'inquiétude actuelle est fausse.
Cela veut dire qu'il faut se méfier des certitudes théâtrales.
La version honnête est toujours plus désordonnée :
- certaines tâches disparaissent
- certains emplois rétrécissent
- certains travailleurs prennent très cher
- certaines industries se réorganisent
- certains nouveaux rôles apparaissent tard
C'est beaucoup moins cinématographique que « la moitié du travail de bureau disparaît d'ici l'année X », mais c'est généralement plus proche du réel.
Le plus inquiétant, c'est ce que ce récit fait déjà aux gens
Ce qui me dérange le plus, ce n'est pas seulement que ces prédictions puissent être fausses.
C'est ce qui se passe quand les gens les absorbent littéralement.
Les travailleurs se démoralisent tôt.
Les responsables publics poursuivent les gros titres au lieu des preuves.
Le narrateur le plus effrayant est récompensé.
Les entreprises d'IA apprennent qu'il est bon pour l'attention, le statut et souvent pour l'histoire du produit d'avoir l'air de prophètes de l'effondrement.
C'est une structure d'incitation pourrie.
La première question devrait toujours être : pourquoi dites-vous cela maintenant ?
À chaque fois qu'un dirigeant de l'IA avance une grande affirmation sur le marché du travail, c'est la première question que je voudrais voir poser :
Qu'essayez-vous d'optimiser en disant cela maintenant ?
Pas parce que chaque alerte est fausse.
Parce que les incitations comptent.
Quand quelqu'un construit et vend activement des systèmes d'IA de pointe, son récit public sur la disruption n'est jamais un simple service charitable rendu au public. Il façonne aussi la manière dont les clients, les régulateurs, les médias, les investisseurs et le marché comprennent l'importance de ce qui est vendu.
Cela ne rend pas automatiquement l'affirmation fausse.
Mais cela veut clairement dire qu'il ne faut pas l'avaler telle quelle.
Une meilleure façon de lire les prédictions sur l'emploi liées à l'IA
Si je devais résumer, j'utiliserais un filtre beaucoup plus dur :
D'abord, séparer la perte de tâches de la perte d'emplois.
Ensuite, séparer le choc à court terme de l'équilibre à long terme.
Puis, vérifier qui parle et ce que cette personne gagne avec ce cadrage.
Ensuite, devenir très méfiant quand la timeline paraît trop propre.
Enfin, regarder les vraies preuves d'adoption et les données du travail, pas seulement les citations dramatiques.
C'est une règle de survie bien meilleure que de repartager chaque phrase terrifiante de quelqu'un dont l'entreprise gagne à avoir l'air centrale pour l'avenir.
Dernière pensée
Je ne dis pas que l'IA sera inoffensive.
Elle va frapper des emplois.
Elle va comprimer des équipes.
Elle va donner à beaucoup d'entreprises une excuse pour agir brutalement.
Mais les gens qui ont le plus à gagner de la panique autour de l'IA ne devraient pas être ceux à qui nous faisons le plus confiance pour décrire l'avenir du travail.
Si vous laissez chaque PDG de l'IA vous vendre l'apocalypse, vous obtenez la pire forme d'analyse : sensationnaliste, intéressée, et déconnectée de la manière dont les marchés du travail bougent réellement.
Et c'est précisément le type d'analyse qui se propage le plus vite.
C'est aussi précisément le type d'analyse dont il faut apprendre à se méfier en premier.