Dans un monde où l’information abonde, il est parfois difficile de distinguer le bon grain de l’ivraie. Un homme de 60 ans, désireux d’adopter un régime alimentaire plus sain, a fait confiance à ChatGPT pour remplacer le sel de table. Malheureusement, son choix s’est porté sur le bromure de sodium, une substance chimique dangereuse, entraînant des conséquences dramatiques : un séjour à l’hôpital. Cette histoire, à la fois tragique et éducative, souligne les dangers de se fier à des conseils non vérifiés, en particulier en matière de santé.
Une quête d’alternatives culinaires
Comme beaucoup de personnes soucieuses de leur santé, notre sexagénaire a décidé de se pencher sur son alimentation. Il a cherché un substitut au précieux chlorure de sodium, communément connu sous le nom de sel. Avec la multitude d’informations disponibles en ligne, il a logiquement pensé que demander conseil à une intelligence artificielle était une bonne idée. Précisément, il a posé une question sur ChatGPT concernant les alternatives au sel, espérant découvrir une option plus saine.
Le choix dangereux du bromure de sodium
Suite aux recommandations qu’il a reçues, l’homme a décidé d’utiliser du bromure de sodium comme substitut à son sel habituel. Ignorant qu’il s’agissait d’une substance souvent employée pour des applications industrielles et médicales, il s’est mis à en saupoudrer ses plats à la place du sel. Pendant trois mois, il a ainsi ingéré ce composé chimique, persuadé qu’il faisait le bon choix pour sa santé. Cette méprise, liée à l’information potentiellement erronée, aurait pu lui coûter très cher.
Des symptômes inquiétants émergent
Après plusieurs semaines de consommation, le sexagénaire a commencé à ressentir de drôles d’effets secondaires. Des symptômes tels que des hallucinations, une paranoïa grandissante, une confusion mentale et une extrême fatigue se sont progressivement installés. Inquiet et ne reconnaissant plus son état mental, il a finalement été amené à l’hôpital, où son diagnostic s’est révélé bien plus inquiétant que prévu.
Un état de santé alarmant et une hospitalisation nécessaire
Les médecins ont rapidement identifié un cas de bromisme, une intoxication rare mais sérieuse due à la consommation excessive de bromure. À son arrivée à l’hôpital, l’homme était dans un état psychologique très altéré, refusant de s’hydrater de crainte que l’eau ne soit nocive. Les médecins ont facilement remarqué que son comportement et son état mental n’étaient pas ceux d’un patient ordinaire, surtout pour quelqu’un sans antécédents psychiatriques.
Un traitement adapté et des semaines de soins
Après plusieurs soins, incluant des fluides et des électrolytes, notre homme a finalement commencé à se stabiliser. Bien qu’il ait pu être transféré dans une unité de psychiatrie, son parcours n’était pas encore terminé. En état de lucidité, il a expliqué aux médecins qu’il avait voulu mener une expérience personnelle inspirée de ses études de nutrition à l’université. Malheureusement, il n’a pas réalisé que ses informations pouvaient être trompeuses, ajoutant encore un peu d’ironie à cette situation tragique.
Leçons à retenir de cette mésaventure
Après trois longues semaines d’hospitalisation, l’homme a enfin pu quitter l’hôpital, mais cet épisode met en lumière les risques réels d’une dépendance excessive aux conseils d’IA. Les auteurs du rapport médical cité par des médias comme 01net rappellent que ChatGPT et d’autres outils d’IA ne possèdent pas le sens critique nécessaire pour fournir des recommandations fiables, en particulier dans le domaine de la santé.
Cette histoire sert d’avertissement aux personnes cherchant des alternatives saines, comme mentionné dans cet article sur les risques liés aux substituts de sel. Avant de faire des choix alimentaires, mieux vaut consulter des experts et se méfier des conseils trouvés dans le vaste océan d’internet.
- Pulse : le nouvel assistant personnel de ChatGPT qui révolutionne la publicité ciblée tout en soulevant des inquiétudes sur la surveillance de masse - 3 octobre 2025
- Les 5 meilleures destinations de ski écoresponsables selon ChatGPT pour un hiver durable ! - 2 octobre 2025
- Mon thérapeute intègre ChatGPT dans ses séances - 1 octobre 2025





