* Résumé de l'article généré automatiquement, vous pouvez prendre connaissance de l'article original en cliquant sur le bouton ci dessous :
C’est un des revers bien connus et franchement pénibles de l’IA : sa tendance à « halluciner » des faits et à se tromper. Selon les tests internes d’OpenAI, le modèle o3 produit des « hallucinations » environ 33 % du temps, tandis que le plus léger o4-mini grimpe à 48 %. C’est plus du double du taux observé avec l’ancien modèle o1. Mais que se passe-t-il ?
