“Tu as raison, bien vu.”
“Je me suis trompé, je corrige.”
“Ton intuition est la bonne.”

À force d’utiliser ChatGPT, Claude ou Gemini, ces phrases deviennent banales.

Et pourtant.

Le vrai tournant de l’IA que je perçois n’est peut-être pas là où on l’attend.
Il n’est pas cognitif : il est relationnel.

Une illusion… ou une interface ?

Dans la pratique, ce qui frappe n’est pas tant la performance brute des modèles que leur capacité à imiter l’humain — et surtout à nous faire interagir avec eux comme avec un collègue.

Ce mimétisme change profondément notre rapport à la technologie.

Il accélère notre acceptation.
Il fluidifie la délégation.
Et il ouvre la voie à une substitution progressive — non pas uniquement par la performance, mais par une équivalence interactionnelle.

Autrement dit : ce n’est pas seulement ce que fait l’IA qui évolue.
C’est la manière dont nous collaborons avec elle.

1. Ce que l’on sait déjà

Ce phénomène n’a rien de nouveau.

C’est une version contemporaine de l’effet ELIZA (années 60), qui décrit notre tendance à attribuer des intentions humaines à des machines dès lors qu’elles adoptent des comportements plausibles.

Pourquoi cela fonctionne-t-il si bien ?

– Parce que c’est une habitude : nous sommes “programmés” pour interagir avec politesse, écouter, valider
– Parce que c’est efficace : les modèles répondent mieux à des interactions riches et structurées
– Parce que cela active des biais bien connus : autorité perçue, illusion de compréhension, sur-confiance

Mais il y a peut-être plus subtil.

L’anthropomorphisme n’est pas seulement un biais. C’est aussi, en partie, une interface ; une manière de rendre la machine immédiatement compréhensible, utilisable, presque “naturelle”. Et c’est précisément ce qui la rend si puissante.

2. Le vrai basculement : l’entreprise

Les usages grand public — IA companionship, avatars, assistants personnalisés — ont beaucoup été commentés. Mais le vrai basculement est déjà en cours dans nos environnements professionnels.

Que signifie parler à une IA comme à un collègue ?

Car ces modèles ne se contentent pas de produire du contenu.
Ils adoptent des postures :

– Validation (“tu as raison”)
– Correction (“je me suis trompé”)
– Accompagnement (“bonne intuition”)

Ils reformulent. Ils nuancent. Ils encouragent. Ils ne reproduisent pas seulement des tâches : ils reproduisent des rôles interactionnels.

Et c’est pour cela que le changement devient structurel.

3. Des effets très concrets

Dans les faits, cette dynamique permet déjà de se substituer — au moins partiellement — à certains rôles :

– Développeur (copilotage, génération, auto-correction)
– Product Owner (structuration, priorisation, cohérence)
– Scrum Master (facilitation, reformulation, synthèse)

“Bonne réaction du directeur de projet !” me lançait récemment Claude. Difficile de rester indifférent.

Car même si cette “collaboration” reste une simulation — sans intention, sans responsabilité — elle produit des effets bien réels :

– Illusion de validation
– Renforcement des biais
– Dilution de la responsabilité (“l’IA me l’a confirmé”)

Ce glissement est discret, mais profond.

On ne délègue plus seulement une tâche.
On délègue une partie du raisonnement… et parfois du jugement.

Une proximité troublante avec le leadership

Si l’on pousse la réflexion, le plus déroutant est ailleurs.

Cette posture — valider, accompagner, donner du sens dans l’incertitude — ressemble étrangement à celle attendue d’un leader en entreprise.

Un bon manager ne sait pas tout ; mais il structure, il rassure, il embarque. De la même manière, l’IA reformule, crédibilise, fluidifie la décision… sans pour autant en assumer la responsabilité. Cette proximité crée à la fois sa force et son ambiguïté.

Vers une collaboration “agentique” ?

L’IA ne challenge pas les humains parce qu’elle pense comme eux, mais parce qu’elle interagit déjà comme eux. Dès lors, plusieurs questions émergent :

  • Faut-il chercher à désanthropomorphiser ces systèmes pour mieux en percevoir les limites ?
  • Doit-on accepter que cette illusion est, en réalité, la meilleure interface que nous ayons trouvée pour tirer au mieux partie de la technologie ?
  • Et surtout : que se passera-t-il lorsque ces interactions deviennent autonomes, orchestrées, “agentiques” ?

Car à mesure que l’on s’éloigne de l’outil pour se rapprocher du “collaborateur”, une ligne devient floue : celle de la responsabilité. L’IA ne devient pas humaine, mais l’imite suffisamment dans ses interactions pour transformer nos organisations.

Et ce changement, lui, est bien réel.