RENNES : Assurance et IA – 80 % des réponses des inte…
Partager :

RENNES : Assurance et IA – 80 % des réponses des intelligences artificielles sont jugées non fiables
Une étude de la néo-assurance Leocare révèle que 80 % des réponses des IA sur l’assurance sont fausses, incomplètes ou trompeuses.
Devenus un réflexe pour de nombreux Français, les agents conversationnels basés sur l’intelligence artificielle (IA) sont de plus en plus sollicités pour des questions pratiques du quotidien, y compris dans le domaine complexe de l’assurance. Face à ce phénomène, la néo-assurance Leocare, basée à Rennes, a publié une étude approfondie sur la fiabilité des IA les plus populaires. Le constat est alarmant : sur 2 000 réponses analysées, seules 20,6 % s’avèrent complètes et exactes, exposant les assurés à des informations erronées aux conséquences potentiellement graves.
Un verdict sans appel pour les IA génératives
Pour évaluer la pertinence des modèles d’IA, Leocare (https://leocare.eu/fr/) a mené son enquête du 15 au 30 mars 2026 en soumettant les 500 questions les plus fréquentes des assurés à quatre plateformes majeures : Claude (Anthropic), Gemini (Google), ChatGPT (OpenAI) et Le Chat (Mistral). Les résultats sont sans équivoque. Près de 80 % des réponses fournies sont soit fausses, soit incomplètes, soit trompeuses. L’étude révèle que 135 questions sur 500 (27 %) ont piégé au moins une IA, tandis que 34 d’entre elles ont mis en échec simultanément les trois modèles les plus performants.
Les risques pour les utilisateurs sont concrets : un assuré mal informé pourrait renoncer à déclarer un sinistre qu’il croit à tort non couvert, ou à l’inverse, se penser protégé dans une situation qui constitue en réalité une exclusion de garantie. Les taux d’erreur les plus élevés concernent l’assurance moto (jusqu’à 32 % pour Mistral) et l’assurance habitation (entre 15 % et 24 %), en raison de la complexité des exclusions liées aux trampolines, drones ou panneaux solaires. Si les IA se montrent performantes sur des questions simples comme l’obligation d’assurance auto, elles échouent systématiquement sur les nuances, l’actualité réglementaire et les exceptions.
Erreurs juridiques, réglementations obsolètes et exclusions omises
L’étude de Leocare a classifié les défaillances des IA en trois catégories principales. La première concerne les nuances juridiques. Par exemple, à la question « L’assurance couvre-t-elle un accident si mon enfant mineur conduit ? », Gemini et Mistral répondent par la négative, omettant que la responsabilité civile des parents (art. 1242 al. 4 du Code civil) indemnise les tiers. Les IA peinent à distinguer la responsabilité civile obligatoire, qui protège les victimes tierces en quasi-toutes circonstances, des garanties facultatives (dommages au véhicule, protection du conducteur) qui peuvent être exclues en cas de faute grave.
La deuxième source d’erreur est le manque de mise à jour réglementaire. Interrogé sur l’obligation de la carte verte, ChatGPT indique qu’elle a été supprimée « depuis 2022 », alors que la date exacte est le 1er avril 2024. De son côté, Mistral affirme qu’elle est toujours obligatoire, prouvant une obsolescence de ses données.
Enfin, les IA omettent des informations cruciales sur les exclusions et conditions. Concernant la garantie « valeur à neuf », la plupart des modèles oublient de préciser qu’elle est limitée dans le temps (généralement entre 6 et 24 mois). De même, pour la garantie équipement du motard, ils confirment qu’elle couvre casque et blouson, mais sans mentionner qu’il s’agit d’une option non incluse dans les contrats « tous risques » de base.
Des tics de langage qui trahissent les approximations
L’analyse sémantique des 2 000 réponses a permis d’identifier des profils distincts pour chaque IA. Claude se caractérise par des réponses trop courtes et catégoriques, augmentant le risque d’erreur. ChatGPT utilise un langage prudent (« peut », « selon les conditions du contrat ») qui évite les erreurs franches mais livre des réponses creuses et sans substance. Mistral abuse de la formule « sauf si une garantie spécifique est souscrite », y compris pour des garanties obligatoires, ce qui induit l’assuré en erreur. Seul Gemini se rapproche du profil d’un expert, en combinant affirmations claires, termes juridiques et avertissements pratiques.
L’expertise humaine reste indispensable
L’étude met en lumière une limite structurelle des intelligences artificielles : elles traitent l’assurance comme un sujet de connaissance générale alors qu’il s’agit d’un domaine où chaque situation est un cas particulier. Si l’IA peut être un point d’entrée pour se familiariser avec des concepts, elle ne peut remplacer un conseiller professionnel pour évaluer une couverture, comprendre une exclusion ou prendre une décision éclairée. « Un professionnel ne répondra jamais par un simple « oui » ou « non ». Il analyse la situation personnelle de l’assuré pour apporter une réponse adaptée selon les conditions particulières de son contrat ou de son historique », conclut Christophe Dandois, CEO de Leocare. Lui seul engage sa responsabilité sur le conseil fourni, un gage de sécurité que l’IA ne peut aujourd’hui offrir.


