L’intelligence artificielle va-t-elle condamner l’assurance ?

L’intelligence artificielle va-t-elle instaurer un système à deux vitesses dans le domaine de l’assurance ?

Par Thierry Foucart.

Les essais critiques de l’intelligence artificielle se multiplient et font apparaître de nombreuses inquiétudes sur ses applications. Éric Sadin1, Adrien Basdevant et Jean-Pierre Mignard2 craignent qu’elle permette aux compagnies d’assurance de calculer des primes individuelles au détriment de la mutualisation des risques pratiquée actuellement.

Cette inquiétude doit être prise au sérieux et examinée d’un point de vue scientifique3. Cette analyse critique du modèle actuel nous amène à proposer son remplacement par un modèle solidaire dans le cas des assurances responsabilité civile.

Préambule : la mesure du hasard

La mesure du hasard est fondée sur une expérience physique connue de tous : en lançant un grand nombre de fois un dé parfaitement équilibré à six faces, on observe chacune des six faces dans une proportion approximative de 1/6. Plus le nombre de lancers est élevé, plus la proportion se rapproche de 1/6, d’une façon plus ou moins régulière.

Lorsque le dé est mal équilibré, on ne connaît pas la probabilité d’une face donnée, mais le pourcentage observé en donne une approximation d’autant plus précise que le nombre de lancers est élevé. On peut donc définir la probabilité d’un événement aléatoire comme la valeur vers laquelle tendent les pourcentages de son observation au cours d’une série d’expériences toutes identiques et indépendantes. C’est le premier mode expérimental.

Il existe une façon équivalente de définir la probabilité : au lieu de lancer mille fois un dé, on lance une fois mille dés. L’équivalence des deux expériences est assurée lorsque les dés sont tous strictement identiques. La probabilité d’une face est alors la valeur vers laquelle tend la proportion dans laquelle elle est observée lorsque le nombre de dés augmente indéfiniment. C’est le second mode expérimental.

La théorie des probabilités est fondée historiquement sur ce modèle appelé fréquentiel. Elle a donné naissance à la statistique appliquée, très utilisée dans toutes les sciences de la vie et de la matière lorsque les expériences sont conformes à l’un des deux modèles expérimentaux précédents. Appliquées aux sciences de l’homme et de la société, elles perdent leur rigueur scientifique du fait de la nature particulière des données et de l’impossibilité de respecter ce modèle.

Quelle place laisser à l’imprévu individuel lorsqu’on détermine à 85% les probabilités d’échec scolaire d’un élève ou à 92% de chances la récidive pénale d’un détenu4 ? On lit fréquemment que la probabilité qu’un candidat soit reçu au baccalauréat est de 80 % (par exemple) : cela signifie précisément que, si l’on tire au hasard un individu dans l’ensemble des candidats, la probabilité qu’il fasse partie des reçus est de 80 %.

Elle n’a rien à voir avec celle qu’un candidat identifié obtienne son baccalauréat : les candidats étant tous différents les uns des autres, on ne peut pas considérer que la démarche suit le second modèle expérimental. Quant au premier, il est de toute évidence impossible à respecter puisque la répétition de l’expérience, ici le passage de l’examen par le candidat identifié, est par nature inconcevable. On ne peut donc évaluer la probabilité qu’un candidat identifié soit reçu : elle n’existe pas au plan scientifique.

Les jeux de hasard

Le modèle probabiliste fonctionne très bien dans tous les jeux de hasard qui le respectent et qui en sont d’ailleurs à l’origine. C’est le cas du loto commercialisé par la Française de jeux, et des jeux proposés par les casinos. La seule contrainte est ici matérielle : les personnels des casinos changent fréquemment de table de jeu, et les boules et dés sont régulièrement changés, immédiatement si la conformité des tirages aux probabilités est douteuse.

La Française des jeux commercialise aussi un certain nombre de loteries dont le principe consiste à gratter une case sur un billet (Astro, Banco…). Suivant le chiffre ou le dessin qui apparaît, le joueur gagne une ou plusieurs fois la valeur du billet. On peut considérer dans un premier temps qu’ils respectent l’égalité des chances si les billets sont distribués au hasard.  Ce n’est plus le cas quand on analyse la procédure de commercialisation5.

La vente aux joueurs est assurée par des commerçants, souvent des buralistes, qui les achètent par lots. Supposons tout d’abord que ces rouleaux soient constitués eux-mêmes par tirage au hasard des billets. La chance de gagner reste égale pour tous les joueurs, mais la théorie des probabilités montre qu’il est tout à fait possible que les billets vendus par un commerçant soient beaucoup plus souvent perdants que ceux vendus par un autre : la convergence concerne la proportion, pas les effectifs.

Cela mérite une explication. Imaginons le lancer d’un dé à six faces, parfaitement équilibré. La proportion d’observations d’une face converge vers 1/6 lorsque le nombre de lancers noté n tend vers l’infini, mais les nombres d’observations au cours de deux expériences ont de fortes chances de s’écarter  l’un de l’autre. Par exemple les proportions (n/6+√n)/n et  (n/6-√n)/n convergent vers 1/6, alors que la différence des effectifs  [n/6+√n] et [n/6-√n], égale à 2 √n, tend vers l’infini. Cette situation se produit d’autant plus souvent que le nombre de commerçants distribuant ces jeux de grattage sont nombreux.

La conséquence de cette propriété mathématique n’est pas considérée comme équitable parce que le hasard favorise des commerçants au détriment des autres : il n’y a pas égalité. Un joueur accepte évidemment le résultat du hasard, mais les commerçants ne sont pas des joueurs.

En achetant des lots, ils achètent un produit qu’ils revendent et dont la valeur doit à leurs yeux être fixée et égale pour tous. Ils refusent donc ce qu’ils considèrent comme une injustice. Cela justifie une intervention pour rétablir l’équité : on constitue les lots de façon qu’ils offrent tous le même nombre de billets gagnants (ou le même gain total).

La probabilité de gagner reste toujours la même si le billet est tiré au hasard dans un lot tiré lui-même au hasard, mais dans la pratique, ce n’est pas le cas : dans la mesure où un lot est presque épuisé sans que personne ou presque n’ait gagné, la probabilité de gagner en achetant les derniers billets devient très importante. Inversement, si les premiers billets vendus sont gagnants, les suivants sont perdants, et il faut bien se garder de les acheter.

Par suite, la volonté de la Française des jeux de répartir les billets gagnants de façon équitable entre les commerçants aboutit à fausser les probabilités. Forcer l’équité entre les revendeurs est contraire à l’égalité des chances des joueurs6.

Assurance et risque individuel

Le modèle assurantiel consiste à reporter le coût d’un évènement imprévu sur une compagnie d’assurance en fonction de la probabilité de cet évènement, en échange d’une prime. L’application de ce modèle nécessite donc de connaître cette probabilité, que l’on appelle risque. Son estimation est obtenue à l’aide du second modèle expérimental : on classe chaque individu dans une catégorie rassemblant ceux qui présentent le même risque.

La moyenne des pourcentages observés de l’évènement est alors une estimation de la probabilité cherchée dont la précision dépend de l’effectif de la catégorie considérée. C’est une démarche discriminatoire contrôlée par la loi (par exemple, le sexe ne peut être un critère de regroupement depuis 2015), utilisée en particulier dans l’assurance automobile (l’âge du conducteur, le modèle de la voiture, le nombre de kilomètres parcourus annuellement, l’adresse du domicile etc.), et qui assimile chaque individu d’une classe aux critères moyens de cette classe.

Reprenons l’exemple du baccalauréat. Des analyses de données montrent que l’échec au baccalauréat dépend d’un certain nombre de facteurs déterministes : le sexe et l’âge du candidat, la catégorie socio-professionnelle, la situation matrimoniale des parents, la série du baccalauréat, la réussite scolaire antérieure etc. La démarche consiste à construire des classes à partir de ces facteurs et à y répartir les candidats. On suppose ensuite que, dans chaque classe, leur similitude est suffisante pour qu’ils présentent le même risque individuel. On évalue donc ce dernier par le pourcentage d’échecs dans cette classe, suivant le second modèle expérimental. Ce risque n’est pas individuel, mais catégoriel.

Cette première hypothèse, qui est celle de l’identité des dés que l’on lance, doit être complétée par la seconde, c’est-à-dire par un nombre d’observations suffisamment élevé pour que l’estimation du risque soit précise. Elles sont très contestables.

La première est fondée sur une idée réductrice de la responsabilité individuelle puisqu’elle suppose une causalité entre des facteurs déterministes et le résultat au baccalauréat. La tendance naturelle consiste à multiplier les facteurs explicatifs de l’échec pour rassembler des candidats les plus ressemblants possibles et mieux mesurer le risque, et, comme le craint Éric Sadin, pour obtenir une estimation de plus en plus précise du risque individuel.

La deuxième hypothèse n’est alors plus vérifiée. Les effectifs des classes dépendent des facteurs explicatifs retenus, de leur nombre et de la méthode de classification. En considérant dix facteurs à quatre réponses possibles et en tenant compte de leurs interactions, on obtient 410 classes homogènes par rapport à l’ensemble des facteurs, soit environ un million. On obtient rapidement des classes qui ne rassemblent que quelques personnes, parfois une seule, parfois aucune, et l’estimation du risque par le second modèle expérimental est très instable et parfois impossible.

C’est le risque catégoriel et l’indemnisation prévue qui déterminent le montant de la prime d’assurance. Le calcul est assez simple.

Imaginons qu’une assurance couvre le risque d’échec au baccalauréat par une indemnisation I. Le taux d’échec observé l’année antérieure (20 %) sert de base de calcul. La prime P est calculée de façon que le total des primes versées (100 P pour un effectif total de 100) soit égal au total des indemnisations 20 I (20 échecs pour l’effectif de 100) : 100 P = 20 I. Pour une indemnisation de 1 000, la prime est de 200.

Le calcul est ci-dessus effectué sur l’ensemble des candidats, parmi lesquels certains sont quasiment sûrs d’être reçus et d’autres d’être collés : l’injustice est flagrante et suscite évidemment des refus et des protestations. Si, parmi les candidates, 15 % échouent et parmi les candidats, 30 %, il semble naturel de diminuer la prime des filles et d’augmenter celle des garçons.

Cette discrimination est interdite par la loi, et la norme qu’elle impose est difficile à accepter par les candidats7.

Effectuons tout de même les calculs : on obtient une prime de 150 € pour les filles et de 300 € pour les garçons pour une indemnisation de 1 000 €. Cela semble plus juste. Mais comme précédemment, certains garçons sont quasiment sûrs d’être reçus et versent 300 € de prime sans être indemnisés, et inversement certaines filles, quasiment sûres d’être collées, versent 150 € de prime et percevront l’indemnité.

L’injustice évoquée dans le premier paragraphe n’est pas réglée, au contraire : elle est aggravée dans les cas où les candidats sont mal classés. L’équité entre les filles et les garçons génère donc des injustices individuelles : on retrouve l’opposition entre équité et égalité évoquée à propos des jeux de grattage.

La prise en compte de facteurs explicatifs supplémentaires ne règle pas le problème, mais le généralise. Si les candidats au  baccalauréat sont répartis en quatre classes, dont les risques moyens d’échec sont par exemple 10 %, 20 %, 30 % et 40 %, les candidats les plus mal classés voient leur prime multipliée par quatre par rapport à d’autres.

L’exemple du baccalauréat peut être généralisé : les primes d’assurance automobile sont beaucoup élevées pour les jeunes conducteurs, dont certains conduisent prudemment, que pour des personnes plus âgées, mais qui conduisent très mal. De même, les primes d’assurance des emprunts, des complémentaires santé, etc. sont calculées en fonction des caractéristiques des assurés qui constituent leur profil et déterminent leur risque. Ces inégalités individuelles deviennent des injustices lorsque la souscription à une assurance est obligatoire.

Les big data

Il est légitime et urgent de s’inquiéter de l’évolution en cours parce que, bien que n’existant pas, ce risque individuel est un concept utilisé du fait de sa facilité et de son utilité. Son invalidité scientifique s’efface devant la nécessité économique et sociale.

Les big data sont présentées comme une solution possible. En enrichissant considérablement le profil des assurés, elles aboutiront selon certains auteurs à fixer un score individuel dont sera déduite une prime individuelle. Ce score dépend tout d’abord des données enregistrées, et ensuite des algorithmes de l’intelligence artificielle. Ces deux points donnent une illusion de vérité.

L’accumulation de données ne garantit pas l’objectivité de l’information, et peut créer un biais. En 1936, la revue Literary Digest avait prévu la victoire d’Alf Landon à l’élection présidentielle américaine à partir d’un échantillon de deux millions quatre cent mille électeurs. Roosevelt a été élu avec 61 % des voix. L’erreur de la revue s’explique par la constitution de cet échantillon non représentatif des électeurs américains.

Le très grand nombre de données, recueillies auprès des lecteurs de la revue et de leur entourage, a renforcé le biais de l’échantillon, et le résultat est vraisemblablement proche de ce qu’aurait donné l’élection par les électeurs dont l’échantillon est représentatif.

Le choix des critères de sélection de l’échantillon définissant le profil aboutit au même résultat : plus ils sont nombreux, plus ils représentent une conception précise du fait analysé, et ce dernier en est d’autant plus proche que l’effectif est élevé. Ce choix est soumis à la subjectivité du chercheur, et les big data n’y échappent pas : l’auto-enrichissement des bases de données ne peut introduire de nouveaux critères à observer.

Les algorithmes mettent en évidence des relations entre différents facteurs. Ce sont des relations purement numériques. Elles se confirment  ou se contredisent, et il est indispensable de faire le tri entre celles qui sont considérées comme significatives et les autres. C’est beaucoup plus compliqué qu’on ne le pense en général.

Par exemple, considérer une relation comme significative peut rendre obsolète une autre relation pourtant tout autant significative a priori. Deux ensembles de variables complètement différents peuvent être aussi significatifs l’un que l’autre. L’introduction d’un grand nombre de variables perturbe les analyses statistiques. Ces dernières ne donnent jamais de certitude, et provoquent des erreurs d’autant plus fréquentes que les variables sont nombreuses8.

Dans le cas des big data, ce tri ne peut être matériellement effectué que par l’intelligence artificielle, c’est-à-dire par d’autres algorithmes qui devraient aussi être contrôlés par l’intelligence humaine. C’est matériellement impossible, puisque l’homme est tout autant incapable de vérifier le « raisonnement » qu’elle a suivi à partir d’une base de de plusieurs millions ou milliards d’informations, que les calculs numériques qu’elle a effectués9. Les discriminations évoquées par Basdevant et Mignard sont très possibles, et même probables puisque l’intelligence, en multipliant les calculs, découvre automatiquement des inégalités ou des relations qu’elle ne peut interpréter que comme des injustices10.

L’intelligence artificielle est une « boîte noire » comme le disent Basdevant et Mignard, et l’exigence du législateur qu’elle soit relativement transparente est impossible à respecter. La seule information que l’on puisse donner (et encore !) c’est la liste totale des critères considérés qui peut être soumise au secret des affaires ou au droit de propriété intellectuelle cités par Basdevant et Mignard.

Ces derniers citent Franck Pasquale (pp. 96-97) : « Une étude réalisée sur 500 000 dossiers  montre que 29 % des consommateurs avaient des scores qui différaient d’au moins cinquante points d’un organisme de crédit à l’autre. […] Une telle différence laisse penser que le processus d’évaluation est on ne peut plus arbitraire. »   Ce qui choque apparemment, c’est que des intelligences artificielles donnent des résultats différents. En réalité, cela montre la différence des conceptions (profils et algorithmes) programmées dans les trois logiciels. Des profilages comportementaux effectués par deux experts humains peuvent être tout aussi différents.

L’intelligence artificielle ne fait que pousser à l’extrême la démarche humaine. Elle ne donne pas de solution au problème posé par l’inexistence du risque individuel, et augmente, en procédant à des profilages de plus en plus précis,  en écartant progressivement l’intervention de l’homme dans la prise de décision, la probabilité d’injustices individuelles de plus en plus fortes.  L’impression qu’elle donne de produire un résultat quasiment exact est une illusion.

Mutualisation et solidarité

Le problème posé est donc identique de trouver une autre solution permettant d’offrir une couverture sociale à tous. Elle existe dans le cas des assurances responsabilité civile. Considérons l’exemple de l’assurance automobile tierce collision.

  • l’assuré est le conducteur d’un véhicule. Sa prime dépend de son profil personnel, de la valeur de sa voiture (on ne sait pas pourquoi), et il est pénalisé a priori si ce profil lui attribue un risque d’être responsable d’un sinistre supérieur aux autres conducteurs. C’est le cas en particulier des jeunes conducteurs ;
  • lorsqu’il est responsable d’un accident, son risque est réévalué, et la compagnie d’assurance peut augmenter sa prime par un malus ou refuser de renouveler son contrat (même s’il n’est pas responsable). Il est donc pénalisé une seconde fois ;
  • il peut être condamné par un tribunal, ne plus avoir le droit de conduire et même faire de la prison. C’est la troisième pénalisation ;
  • il est remplacé par l’assurance pour indemniser la victime ; l’indemnité est fixée par le juge en fonction du préjudice subi, pas en fonction du profil du responsable, ni de la valeur de sa voiture.

Ce régime génère beaucoup d’injustices individuelles dues au profilage des assurés. Il arrive aussi fréquemment qu’un assuré soit exclu l’année suivante par l’assurance pour un sinistre dont il n’est pas responsable, dans l’intérêt financier exclusif de la compagnie. La proposition suivante règle toutes ces injustices en changeant de modèle :

  • le permis de conduire est indispensable à une vie normale dans la société. Ce dernier point justifie la création d’un régime solidaire obligatoire pour la garantie tierce collision au lieu d’un régime d’assurance proprement dit ;
  • dans le modèle précédent, l’assuré est pénalisé a priori suivant son profil, alors que le principe même de la justice est la présomption d’innocence. Cette dernière a pour conséquence l’égalité a priori de tous les profils, c’est-à-dire une prime unique pour tous ;
  • la seconde pénalisation est la modification du profil en cas d’accident responsable, en vertu du principe bonus/malus. Le malus fait double emploi avec la condamnation par le juge du responsable de l’accident, pénalisé donc deux fois pour la même cause. Ce sont deux raisons qui justifient la suppression de ce principe.
  • la condamnation par le juge tient compte de la gravité de la faute. Le tribunal peut décider d’imposer au fautif une amende, de suivre un nombre fixé de cours en auto-école, de repasser le permis de conduire, etc.
  • toutes les primes d’assurance tierce collision sont versées dans un fonds unique. L’indemnité accordée à la victime est prélevée sur ce fonds pour que la compagnie d’assurance ne soit pas pénalisée par rapport aux autres.
  • le calcul de la prime doit couvrir l’ensemble des dépenses tierce collision et représenter le coût individuel de ce régime solidaire.
  • chaque compagnie, mutuelle ou institution de prévoyance est libre de proposer des assurances complémentaires à des clients suivant leur profil mais ne peut les exclure de la garantie tierce collision.

Ce modèle est en fin de compte celui de l’assurance-maladie à la création de la Sécurité sociale en 1945 : une cotisation obligatoire unique, couvrant les dépenses de santé, avec des aménagements en faveur des faibles salaires. Le déficit actuel est dû à l’échec du régime paritaire, à l’intervention de l’État, à la création des prélèvements sociaux pour limiter la hausse des cotisations devenues proportionnelle aux salaires à partir de 1984.

  1. Sadin É., 2015, La vie algorithmique, critique de la raison numérique, L’Échappée, Paris.
  2.  Basdevant A, J.P. Mignard, 2018, L’empire des données, essai sur la société, les algorithmes et la loi, Don Quichotte, Paris.
  3. Les deux premiers paragraphes reprennent l’analyse publiée sur le site du Cercle Frédéric Bastiat (https://www.bastiat.net).
  4.  Basdevant A, J.-P. Mignard, op. cité, p. 270.
  5. Riblet F., G. Delbos, 2008, 100% des perdants ont tenté leur chance, Seuil, Paris.
  6. C’est une conclusion qui s’applique à d’autres situations : forcer l’équité entre des groupes suivant un critère quelconque revient à supprimer l’égalité des chances au niveau individuel.
  7. Cette interdiction est quasi générale. L’assurance retraite par exemple est obligée depuis peu de verser la même rente viagère à un homme et une femme de même âge et ayant cotisé de la même façon, alors que la femme, dont l’espérance de vie est supérieure, va la percevoir en moyenne plus longtemps.
  8. Foucart T., 2019, Théorie statistique et pratique sociologique, Les Cahiers européens des sciences sociales, à paraître.
  9. L’explication des choix d’un ordinateur au cours d’une partie d’échecs est par exemple impossible.
  10. Foucart T., 2007, Inégalité statistique, injustice sociale et discriminations, Commentaire, n° 117, p. 115-118.
Vous souhaitez nous signaler une erreur ? Contactez la rédaction.