Un marché devenu de plus en plus concurrentiel

  • Les mutuelles sectorielles conservent une bonne part de leurs adhérents sur leurs branches professionnelles d’origine, mais observent des attitudes de plus en plus consuméristes
  • Elles s’ouvrent à une clientèle extra-sectorielle. La MGEN propose ainsi une offre prévoyance aux professionnels des hôpitaux traditionnellement acquis à la MNH.
  • De nouveaux acteurs interviennent sur le marché :  Bancassureurs et Insurtech
  • Les contraintes règlementaires standardisent les offres et les marges techniques baissent en conséquence

Il devient nécessaire de se démarquer sur les marchés, de rechercher constamment la création de valeur et l’optimisation des coûts.

Une relation client de plus en plus personnalisée, multi canal et temps réel

  • La force commerciale s’adapte à de nouvelles interactions (digital multicanal)
  • De nouveaux comportements sont pris en compte : souhait d’une plus forte personnalisation, assurance à l’usage, développement de services
  • Dans un marché saturé, la mise à disposition de nouvelles offres s’accélère

Pour répondre à ces enjeux, comment exploiter le capital data des mutuelles ?

Cela fait plus de 200 ans que les mutuelles cherchent à prédire l’avenir à partir des événements du passé. La bonne prédiction de la sinistralité future engage leur survie économique : c’est même leur cœur de métier. En mettant en œuvre des algorithmes puissants sur les données dont ils disposent, leurs actuaires apprennent du passé pour affiner sans cesse leurs modèles de risques. L’analyse de la sinistralité réelle permet ensuite d’affiner les hypothèses. L’assurance est un pionnier du machine learning.

Ce qui est nouveau, c’est l’extension de son champ d’application.

  • Emergence de nouvelles exigences de la part des adhérents : couvertures à la demande, interactions en temps réel, personnalisation de la relation
  • Explosion du volume de données exploitables
  • Faible coût de la puissance de calcul sur le cloud

Quels objectifs et quelles démarches ?

L’optimisation s’appuie sur des algorithmes de type supervisé pour optimiser la détection de comportements (comme la fraude) à partir d’observations réelles.
La découverte s’appuie sur des algorithmes de type non-supervisé pour mettre en évidence les atypismes de comportements ou des profils en relation avec des schémas existants.

En combinant ces deux stratégies, il devient possible de prioriser par exemple les dossiers à traiter sur la fraude, de mettre en évidence de nouveaux schémas de fraude, et d’anticiper de nouveaux comportements. Les approches sont multiples : analyse fine de grands volumes de données, croisement de données internes ou externes, identification de signaux faibles, détection de nouveaux comportements atypiques, etc…

Selon les usages, les résultats de ces modèles peuvent aider à la décision ou bien permettre d’industrialiser tout ou partie de processus. Ainsi, les scores tirés des deux méthodes permettent de construire les moteurs de règles nécessaires à l’industrialisation des règlements de sinistres. Cependant, l’expertise métier reste incontournable pour bâtir ces algorithmes et justifier les résultats.

Voici quelques cas d’usages sur lesquels nous vous accompagnons

1 – Marketing: prédiction du taux de transformation des campagnes commerciales

Enjeux actuels Apports du Machine Learning
La grande volatilité des clients et la multiplication des comportements rendent l’acquisition de nouveaux clients plus difficile. D’autre part, la réduction des coûts d’acquisition passe par un meilleur ciblage des offres.

Deux leviers :

  • Accroitre la finesse de la segmentation client, pour une personnalisation maximale
  • Prédire le taux de transformation d’une action marketing, au travers d’un calcul de score d’appétence, modélisé selon les différentes populations sollicitées
Le Machine Learning permet d’accroitre l’efficacité de la segmentation en faisant appel à des méthodes non-supervisées comme K-means. Il permet aussi d’améliorer le ciblage des clients à forte appétence, via des méthodes de régressions, en particulier le XGBoost et Gradient Boosting Machine.

L’enjeu de la qualité des données en entrée des modèles est important : pousser une offre non pertinente affecte l’image de l’entreprise.

Les travaux de machine learning portent aussi sur l’identification des combinaisons d’actions capables d’accroire l’appétence du client (chemins d’inflexions).

2 – Marketing: Risque de churn

Enjeux actuels Apports du Machine Learning
L’essor des comparateurs d’assurance, la pression tarifaire et le décloisonnement des offres rendent les adhérents plus volatils.

La relation client s’est connaître son client mais aussi anticiper son départ tout en étant en capacité de prendre en charge à moindre couts sa rétention.

Au delà de la conquête, la connaissance client doit aussi détecter un risque de départ, tout en étant en capacité de prendre en charge à moindre coûts sa rétention.

Les bénéfices des solutions de Machine Learning sont multiples

  • Identifier les clients à risque, par un scoring de l’attrition en analysant leurs comportements passés et existants
  • Mettre en évidence des facteurs connexes en combinant de larges volumes de données et en croisant les données client avec les données comportementales
  • Aider à définir la méthode en œuvre, et passer d’une logique de curation à une logique de prévention

3 – Finance : Rapprochement de données

Enjeux actuels Apports du Machine Learning
La justification des comptes, la mise en qualité de la donnée financière, et la cohérence des données entre les différentes publications financières et prudentielles s’appuient sur de nombreux rapprochements de données :

  • Gestion / comptabilité
  • Comptabilité / inventaire
  • Lettrage
  • Rapprochement bancaire

Les règles de rapprochement sont définies a priori et sont statiques. Elles s’appuient principalement sur des correspondances entre identifiants et codifications, et peuvent mettre en jeu de multiples transcodifications.

Le reliquat n’est pas systématiquement traité et peut donner lieu à du provisionnement supplémentaire à inscrire au bilan.

Le reliquat peut-être traité selon des méthodes d’apprentissage, à partir de l’instruction manuelle des reliquats des arrêtés précédents.

Ces méthodes s’appuient notamment sur les algorithmes de distances entre chaines de caractères, comme les distances de Levenshtein.

4- Fraude sur les prestations en santé et prévoyance

Objectifs Apports du Machine Learning
En règle générale, la gestion de la fraude s’appuie sur des schémas et des règles complexes établis à partir des comportements, des usages des assurées et sur l’historique des cas. La mise à jour et l’adaptation des règles décisionnelles est un coût important en raison de leur complexité.

Les données ne sont pas forcément exhaustives et ne permettent pas de connaître l’ensemble des comportements de fraudes.

Malgré l’expertise, distinguer le comportement suspicieux du comportement standard peut s’avérer laborieux et consommateur de temps et de ressources, et peut pénaliser la résolution du dossier ou le client de bonne foi.

D’autre part, les techniques de fraude évoluent en permanence : le fraudeur a toujours un temps d’avance.

La mise à jour et l’adaptation des règles décisionnelles est un coût important en raison de leur complexité.

En s’appuyant sur des signaux faibles, le Machine Learning est en capacité de systématiser l’analyse et d’apporter une aide à la décision à l’expertise, qu’il s’agisse :
  • De limiter les faux positifs
  • D’identifier des comportements de fraude potentielle
  • De prioriser la gestion des dossiers en identifiant les cas les plus pertinents au regard de critères économiques
  • De mettre en évidence des schémas ou des profils anormaux et d’anticiper la détection de nouveaux scenarios de fraude

Supervisé
Pour prédire un comportement frauduleux à partir de signaux faibles, en se basant sur des observations réelles. Détection de signaux faibles via XGBoost, regression logistique, Gradient Tree Boosting.

Non-supervisé
Il permet de mettre en évidence les atypismes de comportements ou des profils en relation avec des schémas de fraude existants, via clustering par K-means, ou Isolation Forest. La difficulté des algorithmes à détecter une infime part de prestations frauduleuses peut être contournée par des méthodes de sur-échantillonnage (Resampling, weighting).

Forte de son expertise métier et data, BI consulting vous accompagne dans votre projet de mise en œuvre de solutions ML.
Notre démarche structurée adresse ces projets depuis les phases amont de validation de création de valeur, à l’intégration de nouveaux outils dans vos processus métiers.

Article
Suivant