Résultats inattendus pour le dernier modèle d’OpenAI
Le nouveau venu d’OpenAI, ChatGPT-5, fait déjà parler de lui, mais pas pour les raisons escomptées. Présenté par son créateur, Sam Altman, comme doté d’un niveau de connaissances digne d’un doctorat, ce modèle d’intelligence artificielle est sous le feu des critiques. Des chercheurs s’interrogent sur ses capacités réelles après avoir observé ses performances décevantes lors d’exercices basiques, comme ceux réalisés par des élèves de maternelle.
Des erreurs qui interrogent
Le défi était simple : tester la capacité de GPT-5 à exécuter des tâches élémentaires. Un chercheur, Gary Marcus, a partagé ses résultats sur les réseaux sociaux, illustrant les insuffisances de l’IA. « GPT-5, échouant sur un exercice de maternelle. Pas les mots », a-t-il écrit, mettant en évidence des réponses à la fois incorrectes et inadaptées. Les réactions ne se sont pas faites attendre, car de nombreux utilisateurs exhibent les incohérences du système, remettant en question son prétendu niveau d’expertise avancé.
Les hallucinations de l’IA
Le phénomène des hallucinations de l’IA est souvent évoqué pour expliquer ce manque de fiabilité. Dans le cadre de ChatGPT, ces erreurs semblent survenir principalement lors de la génération d’images ou de cartes. En effet, lors d’une présentation en direct, un graphique fourni par GPT-5 avait suscité l’indignation du public en raison de son inexactitude frappante. Les chercheurs tentent alors de comprendre si ces erreurs trouvent leurs origines dans l’algorithme ou dans des lacunes dans l’apprentissage.
Des tests peu concluants
Dans le cadre de tests réalisés par les équipes de Tech&Co, les résultats étaient tout aussi décevants. On a demandé à l’IA de produire une carte de la France, illustrant les douze villes les plus peuplées. Le résultat fut ahurissant : la région du Centre-Val de Loire s’est retrouvée à la place de l’Aquitaine, tandis que l’Île-de-France se mêlait aux Hauts-de-France. Mieux encore, la célèbre ville de Paris n’a pas été listée parmi les douze villes les plus densément peuplées, une performance que l’on pourrait certes attribuer à une cours de jardin d’enfants, mais pas à un modèle aussi sophistiqué.
Des réactions variées dans la communauté scientifique
Les réactions varient au sein de la communauté scientifique. Alors que certains chercheurs s’indignent, d’autres prennent ces échecs avec humour. Il est intéressant de noter qu’une chercheuse, en tentant de générer une carte de l’Amérique du Nord, a également rencontré des résultats complètement à l’opposé de la réalité. Les inexactitudes continuent d’alimenter le débat sur la précision des modèles d’IA et sur la manière dont leur réputation pourrait être impactée.
Un impact sur la réputation d’OpenAI
Les critiques s’intensifient autour de GPT-5, suscitant des inquiétudes quant à l’avenir d’OpenAI. Gary Marcus, dans une note de blog, déclare qu’il ne s’attendait pas à une telle performance de la part d’OpenAI, décrivant leur produit comme « médiocre ». Pour lui, ces révélations pourraient à terme affecter la valorisation de l’entreprise. Ce point de vue est partagé par bon nombre d’observateurs qui soulignent que l’expectative d’un niveau doctoral ne devrait pas être prise à la légère.
Les conséquences sur les utilisateurs
Cette situation soulève des questions essentielles sur l’utilisation de l’IA dans l’éducation et d’autres secteurs. Les élèves et enseignants se demandent dans quelle mesure ces outils peuvent réellement bénéficier à leur apprentissage. Les témoignages recueillis indiquent un mélange de fascination et de méfiance envers cette technologie évolutive. Pour de nombreux étudiants, l’IA pourrait se révéler à la fois une aide précieuse et un obstacle, comme l’ont montré certains témoignages dans des établissements comme ceux de Marmande.
Quelles solutions possibles ?
Afin de limiter ces inexactitudes, il semblerait essentiel d’améliorer le système d’apprentissage de GPT-5. Pour cela, une meilleure structuration des données utilisées pourrait s’avérer nécessaire. Les chercheurs exhortent OpenAI à prendre ces critiques au sérieux et à œuvrer vers une IA qui soit non seulement impressionnante, mais surtout fiable. L’avenir du système dépend á son tour de la capacité d’OpenAI à répondre à ces attentes grandissantes de manière efficace.
En attendant, les essais continuent de faire le tour des réseaux sociaux, prouvant que même les IA les plus avancées peuvent parfois sembler aussi perdues que des élèves de maternelle face à un exercice de calcul simple.
- Pulse : le nouvel assistant personnel de ChatGPT qui révolutionne la publicité ciblée tout en soulevant des inquiétudes sur la surveillance de masse - 3 octobre 2025
- Les 5 meilleures destinations de ski écoresponsables selon ChatGPT pour un hiver durable ! - 2 octobre 2025
- Mon thérapeute intègre ChatGPT dans ses séances - 1 octobre 2025




