L’Agence pour la Lutte contre la Fraude à l’Assurance (ALFA) estime que des tentatives de fraude entacheraient 15% des sinistres déclarés et représenteraient 5% des primes perçues, pour un total de 2 à 2,5 milliards d’euros. Des chiffres corroborés par Insurance Europe, fédération européenne de l’assurance, dans un rapport daté de 2013 qui évaluait le poids des fraudes à 10% du coût des sinistres remboursés par les assureurs. Ces derniers restent sous-outillés pour la découverte d’opérations frauduleuses, et ne parviennent à détecter les tentatives de falsification qu’à hauteur de 300 millions d’euros annuels. Mais l’Intelligence Artificielle pourrait jouer un rôle prépondérant dans l’optimisation de la détection au cours des prochaines années…

IA et lutte contre la fraude : d’importants bénéfices potentiels

Les systèmes de détection des fraudes actuellement utilisés par les assureurs se basent sur des algorithmes de recherche de patterns de fraude déjà connus dans d’important volume de données. Ce modèle est doublement limité : par un biais de circularité d’une part, car les seuls schémas de fraudes recherchés sont ceux pré-identifiés par l’analyse humaine, et par le volume et la structuration des données à la disposition de l’assureur d’autre part. L’intégration de solutions d’IA fondées sur des systèmes autonomes d’apprentissage (machine learning) et d’exploration des données (deep learning) vise à combler ces faiblesses, et notamment à détecter des schémas de fraude inconnus a priori à partir de données structurées ou non.

Ces modèles d’IA devraient également permettre de diminuer le nombre de faux positifs (cas pointés à tort comme frauduleux par les algorithmes) remontés chaque année grâce à l’amélioration continue des techniques de scoring. La lutte contre ces faux positifs demeure un levier d’économie majeur pour les assureurs qui doivent investiguer chaque cas suspect : devant un taux de fraude de l’ordre de 15%, si l’on dispose d’un système de détection fiable à 75%, les deux tiers des cas remontés pour examen par les algorithmes seront des faux positifs ! (*) Afin de réduire ce taux, les assureurs devront enrichir les bases de données à disposition de leurs IA. Sans nécessiter de restructuration des datas, l’agrégation des bases de données issues de différents SI (par exemple les CRM des commerciaux et de l’assistance) élargira le potentiel de détection par l’intelligence artificielle en lui délivrant un surcroît d’information.

L’amélioration de la typologie des fraudes identifiées et la diminution du nombre de faux positifs constituent deux bénéfices majeurs de l’implémentation par l’assureur de solutions d’Intelligence Artificielle. Néanmoins, on aurait tort de considérer l’IA comme une panacée. Les applications employées – machine et deep learning – rendent des diagnostics opaques (on parle de « boîtes noires »). La détection de la fraude par l’IA ne peut en aucun cas être opposables à des tiers dans le cadre d’une procédure, et doit par conséquent être complétée par l’investigation de l’assureur. Sauf à assister à une évolution juridique majeure en la matière, conjuguée à une amélioration spectaculaire des fonctionnalités de l’intelligence artificielle, les dossiers remontés par l’IA resteront instruits par l’expertise humaine comme c’est actuellement le cas. L’IA ne se substituera pas aux agents de contrôle, mais leur simplifiera grandement la tâche.

Implémentation d’IA de détection des fraudes, mode d’emploi

Aujourd’hui, peu d’assureurs font le choix d’un développement interne, en raison des délais de conception et d’un déficit chronique de développeurs. De nombreux acteurs ont donc recours aux éditeurs de logiciels de business intelligence généralistes qui renouvellent leurs offres avec des modules d’IA. Parmi les plus connus figurent SAP Leonardo, IBM Watson ou encore la dernière mouture de SAS Visual Data Mining and Machine. Ceux-ci proposent généralement des contrats pluriannuels incluant l’intégration de logiciels et la prise en charge des besoins en formation.

Les majors de l’informatique décisionnelles ne sont toutefois pas les seuls à s’inscrire sur le segment de la lutte contre la fraude à l’assurance. De plus en plus de sociétés d’IA adaptent leur technologie au secteur de l’assurance, avec des offres SaaS légères, plus aisées à implémenter sur les SI internes et avec un ticket d’entrée moins élevé que les éditeurs traditionnels. C’est notamment le cas de Shift Technology (société française créée en 2014), qui commercialise une application dédiée à la lutte contre la fraude à l’indemnisation baptisée FORCE. La solution s’applique pour tous types de contrats (assurance automobile, habitation, santé, prévoyance, assurance vie). À ce jour, près de 70 assureurs de 25 pays (parmi lesquels AG2R-La Mondiale, Crédit Agricole, Macif, le groupe VYV, Axa Espagne, ou encore la fédération des assureurs de Hong Kong) revendiquent l’utilisation de Shift, Il existe ainsi des alternatives crédibles aux solutions des majors de la business intelligence.

Le modèle de Shift repose sur une analytique sophistiquée qui croise les datas de l’assureur avec des sources de données externes. L’éditeur gère en cloud le nettoyage et l’analyse des données de l’assureur puis renvoie les résultats à ce dernier. FORCE revendique ainsi un taux de pertinence de l’ordre de 75% pour la détection des fraudes, contre 30 à 40% pour la plupart de ses concurrents.

Vers une mutualisation des ressources et l’exploration d’autres sources de données ?

Les assureurs tendent à privilégier des offres de plus en plus agiles. Ils sont moins enclins à s’engager dans des projets impliquant l’adaptation de l’architecture entière de leur SI, et attendent des solutions sur mesure.

En ce sens, les assureurs pourraient un jour expérimenter la mutualisation des ressources de la filière, au sein d’une plateforme commune de lutte contre la fraude, le blanchiment et le cyber-risque qui verrait les acteurs de l’assurance centraliser une partie de leurs bases de données respectives sous couvert de la CNIL. Nourrie par une base de données ainsi élargie, l’IA verrait sa capacité de diagnostic s’améliorer sensiblement. Un tel dispositif partagé impliquerait de plus une répartition des coûts de la lutte contre la fraude au prorata du nombre d’assurés, et une diminution du coût marginal de détection des cas suspects.

Enfin, s’il est vraisemblable que la majorité des gains liés à l’utilisation de l’IA résident dans le traitement des data, l’intelligence artificielle pourrait également se révéler une précieuse auxiliaire pour faciliter les investigations des assureurs. L’application mise au point par les sociétés Intelligent Voice, Strenuus en partenariat avec l’Université d’East London, qui combine IA et reconnaissance vocale, permet l’analyse du langage naturel et des émotions exprimées afin d’évaluer la crédibilité des réclamations de dédommagement adressé aux compagnies assurances. D’autres entreprises à l’image de Hanzo collaborent avec les acteurs du secteur pour déployer des systèmes d’apprentissage automatique exploitant des flux de données tels que les publications sur les réseaux sociaux ou les achats passés sur les sites de vente en ligne, afin d’y déceler d’éventuels indices de fraude. Ce type d’application permet par exemple de rechercher sur eBay des annonces correspondant à des objets déclarés volés.

L’intelligence artificielle jouera indubitablement un rôle central dans l’optimisation des dispositifs de lutte contre la fraude à l’assurance les prochaines années. Les assureurs pourront s’appuyer sur les éditeurs de logiciels afin de réussir l’intégration de l’IA à leurs dispositifs. Dans leur quête d’efficience opérationnelle, ils pourraient être tentés d’explorer en parallèle des pistes stratégiques complémentaires, comme la mutualisation de leurs bases de données ou l’exploration de data externes à l’assurance.

 

(*) Proportion de faux positifs :

Pour une population de 100, avec 15% de fraudeurs=> 11,25 cas de fraude avérée seront détectés (75% des 15 fraudeurs); on peut prévoir 25% de faux positifs sur les 85 honnêtes gens, soit 21,25 cas (75% de 85). Le test fiable 75% du temps avec 15% de fraudeurs va donc donner un total de 32,5% de positifs, dont 21,25% seront des faux positifs. 3,75% des fraudeurs passeront sous le radar. Un cas examiné par un expert en fraude assurantielle après ce test a donc un peu plus de 66% de chance d’être un faux positif.