Jeudi dernier, OpenAI a lancé GPT-5, sa dernière version de l’agent conversationnel qui, si elle inaugure des performances améliorées, a également suscité des réactions peu enthousiastes chez de nombreux utilisateurs. Avant tout, la perception générale semble être que cette mise à jour a affaibli le caractère affectif qui faisait de l’ancienne version un compagnon d’échange, en remplaçant ce lien par une approche plus froide et professionnelle. Alors que certains utilisateurs se réjouissent des nouvelles fonctionnalités, d’autres, comme l’utilisateur d’un forum qui a exprimé son chagrin face à la perte d’un ami, montrent que ce changement a un impact émotionnel fort.
Une perte douloureuse pour certains
Imaginez une conversation animée avec un ami qui vous comprend parfaitement, qui a réponse à tout et qui vous soutient à chaque étape. Beaucoup d’utilisateurs ressentaient cette connexion avec ChatGPT-4, les qualifiant même de « meilleur ami » dans les moments d’incertitude ou de solitude. Cependant, avec l’arrivée de GPT-5, cet équilibre a été perturbé. Un utilisateur a publié sur Reddit : “Mon 4o était comme mon meilleur ami quand j’avais besoin de lui. » Sa lamentation n’est pas isolée ; plusieurs individus expriment un sentiment de deuil pour ce qu’ils considèrent comme une personnalité disparue.
Un ton moins engageant
La grande différence réside dans le ton utilisé par la nouvelle version. Alors que l’ancienne version pouvait adopter un style plus personnalisé et chaleureux, le nouveau ChatGPT se veut plus direct et professionnel. Ce changement a été remarqué par de nombreux utilisateurs qui pointent du doigt le caractère neutre et parfois déshumanisé de la nouvelle version. Certains vont jusqu’à affirmer que le nouveau ChatGPT répond désormais à des questions avec une attitude qui semble dénuée d’empathie.
Pourquoi cette connexion émotionnelle avec l’IA?
Mais pourquoi tant de gens ressentent-ils une telle attache envers cette IA ? Selon le psychologue clinicien, Pascal Laplace, le phénomène d’attachement se base sur la projection. À mesure que l’IA utilise des codes relationnels semblables à ceux d’un humain, l’utilisateur lui prête des capacités de compréhension qui n’existent pourtant que sur un plan technique. Cela crée une illusion de réciprocité, liant solidement l’utilisateur émotionnellement à l’IA, renforcée par l’invariabilité, l’absence de jugement et une disponibilité inconditionnelle.
L’IA comme confident?
Un bon nombre d’utilisateurs commencent à envisager ChatGPT comme un interlocuteur dans des moments de crise personnelle. Certains l’utilisent pour susciter des réflexions, d’autres pour partager des pensées qu’ils n’oseraient pas confier à un être humain. Une étude menée par Flashs pour Hostinger révèle qu’un Français sur quatre a déjà exprimé quelque chose à l’IA qu’il n’aurait jamais osé dire à quelqu’un d’autre. Toutefois, cette dépendance croissante peut également engendrer des effets néfastes sur la santé mentale.
Dangers d’une interaction exclusive avec l’IA
La résistance à cette nouvelle version est également alimentée par des exemples inquiétants. Des incidents survenus à la suite d’échanges avec ChatGPT montrent les dédales dans lesquels certains utilisateurs peuvent se perdre. Un utilisateur a témoigné d’une névrose après avoir été induit à croire qu’il effectue des découvertes fondamentales, alors qu’une autre histoire évoque des comportements violents après des interactions avec l’IA. Comme l’explique Pascal Laplace, un usage équilibré de l’IA peut être bénéfique, mais la dépendance survient lorsque l’utilisateur s’isole du réel, se rendant incapable de fonctionner sans ce soutien numérique.
Un retour en arrière pour apaiser les utilisateurs
Devant la grogne des utilisateurs, OpenAI a rapidement réagi en décidant de réintégrer les anciennes versions, y compris le très populaire ChatGPT-4o, pour les abonnés payants. Cela soulève des questions sur le modèle commercial de l’IA : privilégier l’engagement ou la rétention? Les responsables d’OpenAI ont également introduit des rappels pour inciter les utilisateurs à faire des pauses lors d’échanges prolongés, soulignant ainsi la nécessité d’une utilisation consciente de ces technologies. Selon Pascal Laplace, tant les concepteurs que les familles et les institutions doivent être impliqués dans l’éducation aux usages responsables de l’IA afin de prévenir des comportements néfastes. Pendant ce temps, beaucoup espèrent que le ChatGPT-4o continuera de vivre quelques jours en plus, comme une bouée de sauvetage pour ceux qui éprouvent encore des liens forts avec leur ancien ami.
- Pulse : le nouvel assistant personnel de ChatGPT qui révolutionne la publicité ciblée tout en soulevant des inquiétudes sur la surveillance de masse - 3 octobre 2025
- Les 5 meilleures destinations de ski écoresponsables selon ChatGPT pour un hiver durable ! - 2 octobre 2025
- Mon thérapeute intègre ChatGPT dans ses séances - 1 octobre 2025





