L’intelligence artificielle va-t-elle condamner l’assurance ?

L’intelligence artificielle va-t-elle instaurer un système à deux vitesses dans le domaine de l’assurance ?

Partager sur:
Sauvegarder cet article
Aimer cet article 0

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

L’intelligence artificielle va-t-elle condamner l’assurance ?

Les points de vue exprimés dans les articles d’opinion sont strictement ceux de l'auteur et ne reflètent pas forcément ceux de la rédaction.
Publié le 21 février 2019
- A +

Par Thierry Foucart.

Les essais critiques de l’intelligence artificielle se multiplient et font apparaître de nombreuses inquiétudes sur ses applications. Éric Sadin1, Adrien Basdevant et Jean-Pierre Mignard2 craignent qu’elle permette aux compagnies d’assurance de calculer des primes individuelles au détriment de la mutualisation des risques pratiquée actuellement.

Cette inquiétude doit être prise au sérieux et examinée d’un point de vue scientifique3. Cette analyse critique du modèle actuel nous amène à proposer son remplacement par un modèle solidaire dans le cas des assurances responsabilité civile.

Préambule : la mesure du hasard

La mesure du hasard est fondée sur une expérience physique connue de tous : en lançant un grand nombre de fois un dé parfaitement équilibré à six faces, on observe chacune des six faces dans une proportion approximative de 1/6. Plus le nombre de lancers est élevé, plus la proportion se rapproche de 1/6, d’une façon plus ou moins régulière.

Lorsque le dé est mal équilibré, on ne connaît pas la probabilité d’une face donnée, mais le pourcentage observé en donne une approximation d’autant plus précise que le nombre de lancers est élevé. On peut donc définir la probabilité d’un événement aléatoire comme la valeur vers laquelle tendent les pourcentages de son observation au cours d’une série d’expériences toutes identiques et indépendantes. C’est le premier mode expérimental.

Il existe une façon équivalente de définir la probabilité : au lieu de lancer mille fois un dé, on lance une fois mille dés. L’équivalence des deux expériences est assurée lorsque les dés sont tous strictement identiques. La probabilité d’une face est alors la valeur vers laquelle tend la proportion dans laquelle elle est observée lorsque le nombre de dés augmente indéfiniment. C’est le second mode expérimental.

La théorie des probabilités est fondée historiquement sur ce modèle appelé fréquentiel. Elle a donné naissance à la statistique appliquée, très utilisée dans toutes les sciences de la vie et de la matière lorsque les expériences sont conformes à l’un des deux modèles expérimentaux précédents. Appliquées aux sciences de l’homme et de la société, elles perdent leur rigueur scientifique du fait de la nature particulière des données et de l’impossibilité de respecter ce modèle.

Quelle place laisser à l’imprévu individuel lorsqu’on détermine à 85% les probabilités d’échec scolaire d’un élève ou à 92% de chances la récidive pénale d’un détenu4 ? On lit fréquemment que la probabilité qu’un candidat soit reçu au baccalauréat est de 80 % (par exemple) : cela signifie précisément que, si l’on tire au hasard un individu dans l’ensemble des candidats, la probabilité qu’il fasse partie des reçus est de 80 %.

Elle n’a rien à voir avec celle qu’un candidat identifié obtienne son baccalauréat : les candidats étant tous différents les uns des autres, on ne peut pas considérer que la démarche suit le second modèle expérimental. Quant au premier, il est de toute évidence impossible à respecter puisque la répétition de l’expérience, ici le passage de l’examen par le candidat identifié, est par nature inconcevable. On ne peut donc évaluer la probabilité qu’un candidat identifié soit reçu : elle n’existe pas au plan scientifique.

Les jeux de hasard

Le modèle probabiliste fonctionne très bien dans tous les jeux de hasard qui le respectent et qui en sont d’ailleurs à l’origine. C’est le cas du loto commercialisé par la Française de jeux, et des jeux proposés par les casinos. La seule contrainte est ici matérielle : les personnels des casinos changent fréquemment de table de jeu, et les boules et dés sont régulièrement changés, immédiatement si la conformité des tirages aux probabilités est douteuse.

La Française des jeux commercialise aussi un certain nombre de loteries dont le principe consiste à gratter une case sur un billet (Astro, Banco…). Suivant le chiffre ou le dessin qui apparaît, le joueur gagne une ou plusieurs fois la valeur du billet. On peut considérer dans un premier temps qu’ils respectent l’égalité des chances si les billets sont distribués au hasard.  Ce n’est plus le cas quand on analyse la procédure de commercialisation5.

La vente aux joueurs est assurée par des commerçants, souvent des buralistes, qui les achètent par lots. Supposons tout d’abord que ces rouleaux soient constitués eux-mêmes par tirage au hasard des billets. La chance de gagner reste égale pour tous les joueurs, mais la théorie des probabilités montre qu’il est tout à fait possible que les billets vendus par un commerçant soient beaucoup plus souvent perdants que ceux vendus par un autre : la convergence concerne la proportion, pas les effectifs.

Cela mérite une explication. Imaginons le lancer d’un dé à six faces, parfaitement équilibré. La proportion d’observations d’une face converge vers 1/6 lorsque le nombre de lancers noté n tend vers l’infini, mais les nombres d’observations au cours de deux expériences ont de fortes chances de s’écarter  l’un de l’autre. Par exemple les proportions (n/6+√n)/n et  (n/6-√n)/n convergent vers 1/6, alors que la différence des effectifs  [n/6+√n] et [n/6-√n], égale à 2 √n, tend vers l’infini. Cette situation se produit d’autant plus souvent que le nombre de commerçants distribuant ces jeux de grattage sont nombreux.

La conséquence de cette propriété mathématique n’est pas considérée comme équitable parce que le hasard favorise des commerçants au détriment des autres : il n’y a pas égalité. Un joueur accepte évidemment le résultat du hasard, mais les commerçants ne sont pas des joueurs.

En achetant des lots, ils achètent un produit qu’ils revendent et dont la valeur doit à leurs yeux être fixée et égale pour tous. Ils refusent donc ce qu’ils considèrent comme une injustice. Cela justifie une intervention pour rétablir l’équité : on constitue les lots de façon qu’ils offrent tous le même nombre de billets gagnants (ou le même gain total).

La probabilité de gagner reste toujours la même si le billet est tiré au hasard dans un lot tiré lui-même au hasard, mais dans la pratique, ce n’est pas le cas : dans la mesure où un lot est presque épuisé sans que personne ou presque n’ait gagné, la probabilité de gagner en achetant les derniers billets devient très importante. Inversement, si les premiers billets vendus sont gagnants, les suivants sont perdants, et il faut bien se garder de les acheter.

Par suite, la volonté de la Française des jeux de répartir les billets gagnants de façon équitable entre les commerçants aboutit à fausser les probabilités. Forcer l’équité entre les revendeurs est contraire à l’égalité des chances des joueurs6.

Assurance et risque individuel

Le modèle assurantiel consiste à reporter le coût d’un évènement imprévu sur une compagnie d’assurance en fonction de la probabilité de cet évènement, en échange d’une prime. L’application de ce modèle nécessite donc de connaître cette probabilité, que l’on appelle risque. Son estimation est obtenue à l’aide du second modèle expérimental : on classe chaque individu dans une catégorie rassemblant ceux qui présentent le même risque.

La moyenne des pourcentages observés de l’évènement est alors une estimation de la probabilité cherchée dont la précision dépend de l’effectif de la catégorie considérée. C’est une démarche discriminatoire contrôlée par la loi (par exemple, le sexe ne peut être un critère de regroupement depuis 2015), utilisée en particulier dans l’assurance automobile (l’âge du conducteur, le modèle de la voiture, le nombre de kilomètres parcourus annuellement, l’adresse du domicile etc.), et qui assimile chaque individu d’une classe aux critères moyens de cette classe.

Reprenons l’exemple du baccalauréat. Des analyses de données montrent que l’échec au baccalauréat dépend d’un certain nombre de facteurs déterministes : le sexe et l’âge du candidat, la catégorie socio-professionnelle, la situation matrimoniale des parents, la série du baccalauréat, la réussite scolaire antérieure etc. La démarche consiste à construire des classes à partir de ces facteurs et à y répartir les candidats. On suppose ensuite que, dans chaque classe, leur similitude est suffisante pour qu’ils présentent le même risque individuel. On évalue donc ce dernier par le pourcentage d’échecs dans cette classe, suivant le second modèle expérimental. Ce risque n’est pas individuel, mais catégoriel.

Cette première hypothèse, qui est celle de l’identité des dés que l’on lance, doit être complétée par la seconde, c’est-à-dire par un nombre d’observations suffisamment élevé pour que l’estimation du risque soit précise. Elles sont très contestables.

La première est fondée sur une idée réductrice de la responsabilité individuelle puisqu’elle suppose une causalité entre des facteurs déterministes et le résultat au baccalauréat. La tendance naturelle consiste à multiplier les facteurs explicatifs de l’échec pour rassembler des candidats les plus ressemblants possibles et mieux mesurer le risque, et, comme le craint Éric Sadin, pour obtenir une estimation de plus en plus précise du risque individuel.

La deuxième hypothèse n’est alors plus vérifiée. Les effectifs des classes dépendent des facteurs explicatifs retenus, de leur nombre et de la méthode de classification. En considérant dix facteurs à quatre réponses possibles et en tenant compte de leurs interactions, on obtient 410 classes homogènes par rapport à l’ensemble des facteurs, soit environ un million. On obtient rapidement des classes qui ne rassemblent que quelques personnes, parfois une seule, parfois aucune, et l’estimation du risque par le second modèle expérimental est très instable et parfois impossible.

C’est le risque catégoriel et l’indemnisation prévue qui déterminent le montant de la prime d’assurance. Le calcul est assez simple.

Imaginons qu’une assurance couvre le risque d’échec au baccalauréat par une indemnisation I. Le taux d’échec observé l’année antérieure (20 %) sert de base de calcul. La prime P est calculée de façon que le total des primes versées (100 P pour un effectif total de 100) soit égal au total des indemnisations 20 I (20 échecs pour l’effectif de 100) : 100 P = 20 I. Pour une indemnisation de 1 000, la prime est de 200.

Le calcul est ci-dessus effectué sur l’ensemble des candidats, parmi lesquels certains sont quasiment sûrs d’être reçus et d’autres d’être collés : l’injustice est flagrante et suscite évidemment des refus et des protestations. Si, parmi les candidates, 15 % échouent et parmi les candidats, 30 %, il semble naturel de diminuer la prime des filles et d’augmenter celle des garçons.

Cette discrimination est interdite par la loi, et la norme qu’elle impose est difficile à accepter par les candidats7.

Effectuons tout de même les calculs : on obtient une prime de 150 € pour les filles et de 300 € pour les garçons pour une indemnisation de 1 000 €. Cela semble plus juste. Mais comme précédemment, certains garçons sont quasiment sûrs d’être reçus et versent 300 € de prime sans être indemnisés, et inversement certaines filles, quasiment sûres d’être collées, versent 150 € de prime et percevront l’indemnité.

L’injustice évoquée dans le premier paragraphe n’est pas réglée, au contraire : elle est aggravée dans les cas où les candidats sont mal classés. L’équité entre les filles et les garçons génère donc des injustices individuelles : on retrouve l’opposition entre équité et égalité évoquée à propos des jeux de grattage.

La prise en compte de facteurs explicatifs supplémentaires ne règle pas le problème, mais le généralise. Si les candidats au  baccalauréat sont répartis en quatre classes, dont les risques moyens d’échec sont par exemple 10 %, 20 %, 30 % et 40 %, les candidats les plus mal classés voient leur prime multipliée par quatre par rapport à d’autres.

L’exemple du baccalauréat peut être généralisé : les primes d’assurance automobile sont beaucoup élevées pour les jeunes conducteurs, dont certains conduisent prudemment, que pour des personnes plus âgées, mais qui conduisent très mal. De même, les primes d’assurance des emprunts, des complémentaires santé, etc. sont calculées en fonction des caractéristiques des assurés qui constituent leur profil et déterminent leur risque. Ces inégalités individuelles deviennent des injustices lorsque la souscription à une assurance est obligatoire.

Les big data

Il est légitime et urgent de s’inquiéter de l’évolution en cours parce que, bien que n’existant pas, ce risque individuel est un concept utilisé du fait de sa facilité et de son utilité. Son invalidité scientifique s’efface devant la nécessité économique et sociale.

Les big data sont présentées comme une solution possible. En enrichissant considérablement le profil des assurés, elles aboutiront selon certains auteurs à fixer un score individuel dont sera déduite une prime individuelle. Ce score dépend tout d’abord des données enregistrées, et ensuite des algorithmes de l’intelligence artificielle. Ces deux points donnent une illusion de vérité.

L’accumulation de données ne garantit pas l’objectivité de l’information, et peut créer un biais. En 1936, la revue Literary Digest avait prévu la victoire d’Alf Landon à l’élection présidentielle américaine à partir d’un échantillon de deux millions quatre cent mille électeurs. Roosevelt a été élu avec 61 % des voix. L’erreur de la revue s’explique par la constitution de cet échantillon non représentatif des électeurs américains.

Le très grand nombre de données, recueillies auprès des lecteurs de la revue et de leur entourage, a renforcé le biais de l’échantillon, et le résultat est vraisemblablement proche de ce qu’aurait donné l’élection par les électeurs dont l’échantillon est représentatif.

Le choix des critères de sélection de l’échantillon définissant le profil aboutit au même résultat : plus ils sont nombreux, plus ils représentent une conception précise du fait analysé, et ce dernier en est d’autant plus proche que l’effectif est élevé. Ce choix est soumis à la subjectivité du chercheur, et les big data n’y échappent pas : l’auto-enrichissement des bases de données ne peut introduire de nouveaux critères à observer.

Les algorithmes mettent en évidence des relations entre différents facteurs. Ce sont des relations purement numériques. Elles se confirment  ou se contredisent, et il est indispensable de faire le tri entre celles qui sont considérées comme significatives et les autres. C’est beaucoup plus compliqué qu’on ne le pense en général.

Par exemple, considérer une relation comme significative peut rendre obsolète une autre relation pourtant tout autant significative a priori. Deux ensembles de variables complètement différents peuvent être aussi significatifs l’un que l’autre. L’introduction d’un grand nombre de variables perturbe les analyses statistiques. Ces dernières ne donnent jamais de certitude, et provoquent des erreurs d’autant plus fréquentes que les variables sont nombreuses8.

Dans le cas des big data, ce tri ne peut être matériellement effectué que par l’intelligence artificielle, c’est-à-dire par d’autres algorithmes qui devraient aussi être contrôlés par l’intelligence humaine. C’est matériellement impossible, puisque l’homme est tout autant incapable de vérifier le « raisonnement » qu’elle a suivi à partir d’une base de de plusieurs millions ou milliards d’informations, que les calculs numériques qu’elle a effectués9. Les discriminations évoquées par Basdevant et Mignard sont très possibles, et même probables puisque l’intelligence, en multipliant les calculs, découvre automatiquement des inégalités ou des relations qu’elle ne peut interpréter que comme des injustices10.

L’intelligence artificielle est une « boîte noire » comme le disent Basdevant et Mignard, et l’exigence du législateur qu’elle soit relativement transparente est impossible à respecter. La seule information que l’on puisse donner (et encore !) c’est la liste totale des critères considérés qui peut être soumise au secret des affaires ou au droit de propriété intellectuelle cités par Basdevant et Mignard.

Ces derniers citent Franck Pasquale (pp. 96-97) : « Une étude réalisée sur 500 000 dossiers  montre que 29 % des consommateurs avaient des scores qui différaient d’au moins cinquante points d’un organisme de crédit à l’autre. […] Une telle différence laisse penser que le processus d’évaluation est on ne peut plus arbitraire. »   Ce qui choque apparemment, c’est que des intelligences artificielles donnent des résultats différents. En réalité, cela montre la différence des conceptions (profils et algorithmes) programmées dans les trois logiciels. Des profilages comportementaux effectués par deux experts humains peuvent être tout aussi différents.

L’intelligence artificielle ne fait que pousser à l’extrême la démarche humaine. Elle ne donne pas de solution au problème posé par l’inexistence du risque individuel, et augmente, en procédant à des profilages de plus en plus précis,  en écartant progressivement l’intervention de l’homme dans la prise de décision, la probabilité d’injustices individuelles de plus en plus fortes.  L’impression qu’elle donne de produire un résultat quasiment exact est une illusion.

Mutualisation et solidarité

Le problème posé est donc identique de trouver une autre solution permettant d’offrir une couverture sociale à tous. Elle existe dans le cas des assurances responsabilité civile. Considérons l’exemple de l’assurance automobile tierce collision.

  • l’assuré est le conducteur d’un véhicule. Sa prime dépend de son profil personnel, de la valeur de sa voiture (on ne sait pas pourquoi), et il est pénalisé a priori si ce profil lui attribue un risque d’être responsable d’un sinistre supérieur aux autres conducteurs. C’est le cas en particulier des jeunes conducteurs ;
  • lorsqu’il est responsable d’un accident, son risque est réévalué, et la compagnie d’assurance peut augmenter sa prime par un malus ou refuser de renouveler son contrat (même s’il n’est pas responsable). Il est donc pénalisé une seconde fois ;
  • il peut être condamné par un tribunal, ne plus avoir le droit de conduire et même faire de la prison. C’est la troisième pénalisation ;
  • il est remplacé par l’assurance pour indemniser la victime ; l’indemnité est fixée par le juge en fonction du préjudice subi, pas en fonction du profil du responsable, ni de la valeur de sa voiture.

Ce régime génère beaucoup d’injustices individuelles dues au profilage des assurés. Il arrive aussi fréquemment qu’un assuré soit exclu l’année suivante par l’assurance pour un sinistre dont il n’est pas responsable, dans l’intérêt financier exclusif de la compagnie. La proposition suivante règle toutes ces injustices en changeant de modèle :

  • le permis de conduire est indispensable à une vie normale dans la société. Ce dernier point justifie la création d’un régime solidaire obligatoire pour la garantie tierce collision au lieu d’un régime d’assurance proprement dit ;
  • dans le modèle précédent, l’assuré est pénalisé a priori suivant son profil, alors que le principe même de la justice est la présomption d’innocence. Cette dernière a pour conséquence l’égalité a priori de tous les profils, c’est-à-dire une prime unique pour tous ;
  • la seconde pénalisation est la modification du profil en cas d’accident responsable, en vertu du principe bonus/malus. Le malus fait double emploi avec la condamnation par le juge du responsable de l’accident, pénalisé donc deux fois pour la même cause. Ce sont deux raisons qui justifient la suppression de ce principe.
  • la condamnation par le juge tient compte de la gravité de la faute. Le tribunal peut décider d’imposer au fautif une amende, de suivre un nombre fixé de cours en auto-école, de repasser le permis de conduire, etc.
  • toutes les primes d’assurance tierce collision sont versées dans un fonds unique. L’indemnité accordée à la victime est prélevée sur ce fonds pour que la compagnie d’assurance ne soit pas pénalisée par rapport aux autres.
  • le calcul de la prime doit couvrir l’ensemble des dépenses tierce collision et représenter le coût individuel de ce régime solidaire.
  • chaque compagnie, mutuelle ou institution de prévoyance est libre de proposer des assurances complémentaires à des clients suivant leur profil mais ne peut les exclure de la garantie tierce collision.

Ce modèle est en fin de compte celui de l’assurance-maladie à la création de la Sécurité sociale en 1945 : une cotisation obligatoire unique, couvrant les dépenses de santé, avec des aménagements en faveur des faibles salaires. Le déficit actuel est dû à l’échec du régime paritaire, à l’intervention de l’État, à la création des prélèvements sociaux pour limiter la hausse des cotisations devenues proportionnelle aux salaires à partir de 1984.

  1. Sadin É., 2015, La vie algorithmique, critique de la raison numérique, L’Échappée, Paris.
  2.  Basdevant A, J.P. Mignard, 2018, L’empire des données, essai sur la société, les algorithmes et la loi, Don Quichotte, Paris.
  3. Les deux premiers paragraphes reprennent l’analyse publiée sur le site du Cercle Frédéric Bastiat (https://www.bastiat.net).
  4.  Basdevant A, J.-P. Mignard, op. cité, p. 270.
  5. Riblet F., G. Delbos, 2008, 100% des perdants ont tenté leur chance, Seuil, Paris.
  6. C’est une conclusion qui s’applique à d’autres situations : forcer l’équité entre des groupes suivant un critère quelconque revient à supprimer l’égalité des chances au niveau individuel.
  7. Cette interdiction est quasi générale. L’assurance retraite par exemple est obligée depuis peu de verser la même rente viagère à un homme et une femme de même âge et ayant cotisé de la même façon, alors que la femme, dont l’espérance de vie est supérieure, va la percevoir en moyenne plus longtemps.
  8. Foucart T., 2019, Théorie statistique et pratique sociologique, Les Cahiers européens des sciences sociales, à paraître.
  9. L’explication des choix d’un ordinateur au cours d’une partie d’échecs est par exemple impossible.
  10. Foucart T., 2007, Inégalité statistique, injustice sociale et discriminations, Commentaire, n° 117, p. 115-118.
Voir les commentaires (7)

Laisser un commentaire

Créer un compte Tous les commentaires (7)
  • « les primes d’assurance automobile sont beaucoup élevées pour les jeunes conducteurs, dont certains conduisent prudemment, que pour des personnes plus âgées, mais qui conduisent très mal. »

    çà c’est une bêtise si on observe la sociologie des accidentés..
    quand a la probabilité .. vaste discussion.. ainsi comme il est peu probable d’avoir 3 bombes dans un avion en transporter deux dans sa valise permettrait de limiter les risques d’attentat?

    La mutualisation est une escroquerie, je crois plutôt a la personnalisation , ainsi un bon conducteur se verrait rembourser une partie de ses primes pour les années ou il n’a pas provoqué d’accident .. mais çà fait bien longtemps que le marché de l’assurance en France n’est pas concurrentiel..sinon nous aurions deja accès a des sociétés d’assurance européennes..
    Les assurances en france sont une escroquerie de plus a ranger dans « privilèges et pompe a fric » institutionnalisés, comme la sécurité sociale et les mutuelles

    • Rien ne vous empêche de souscrire un contrat dans une compagnie d’un autre pays européen. C’est possible !

      On est pas obligé d’opposer systématiquement mutualisation et individualisation, l’idéal serait de combiner les deux, ce qui est déjà le cas aujourd’hui, cependant de manière plus transparente et ouverte. C’est ce que essaie de montrer cet article si j’ai bien compris, aucun système n’est parfait, la combinaison permettant de corriger les défauts de chacun.

    • En effet, l’assurance et la mutualisation sont deux choses bien distinctes, et l’article n’aide pas non plus à éclaircir ces notions en ne distinguant pas clairement le risque et ses estimations imparfaites probabilistes. En théorie, l’assurance couvre le risque, par définition incertain. Elle est totalement indépendante de la mutualisation, on peut très bien imaginer qu’un milliardaire se propose comme assureur, évalue les risques individuels, en déduise le montant de la prime pour chacun en fonction de l’indemnisation demandée et de sa meilleure estimation du risque encouru, et paie les dommages. C’est juste l’externalisation de ce que fait chacun quand il ne s’assure pas, c’est justifié par le fait qu’un dommage trop élevé peut avoir des conséquences largement supérieures à son simple montant, et induire par exemple une faillite par manque de liquidités. En revanche, s’assurer pour couvrir des dépenses récurrentes quasi-certaines est parfaitement idiot, l’assureur se contente de reverser la prime à celui qui l’a payée en prélevant sa commission au passage. Enfin, idiot du point de vue de l’assuré… Mais quand l’assureur est l’état, il s’arrange pour faire paraître des avantages via la mutualisation, la redistribution par des biais sur les montants des primes, et se goinfre sur ses commissions.
      L’IA, ou le traitement correct des big data pour rester dans le classique, permet de faire payer à chacun la prime la plus juste pour le risque couvert. Cela permet aussi à chacun d’adopter un comportement qui réduit sa prime, et l’assureur n’en tenant compte qu’à l’échéance suivante garde la possibilité de faire sa marge. Donc en assurances privées, c’est un mode optimal de fonctionnement.

  • Que vient fait l’intelligence artificielle la dedans ?
    Fairee de la discrimination , le vilain mot est lance..mais n’a aucune importance pour une assurance, son but faire payer un max a beaucoup de gens , le plus possible, en fait les risques de non rentabilité sont infimes , aucune raison de faire payer moins parce que vos risques sont faibles …la solidarité n’est pas dans le vocabulaire d’une société d’assurances mutuelle ou pas.

  • Concernant le Big data et les résultats farfelus qui en sont tirés, cela me rappelle un dicton de nos amis anglophones, qu’on m’a appris dès le début de ma carrière d’ingénieur en modélisation numérique : « sh.t in, sh.t out… ». Un modèle numérique, une analyse statistique ne crée pas d’information, ils la transforment.
    Mais la tendance générale est de croire qu’un modèle va créer de l’information et va dispenser des créateurs de devoir réfléchir. D’où des échecs cinglants et cocasses, le plus commun étant de confondre corrélation et causalité… Il suffit d’écouter les « études » scientifiques mises en avant par les propagandi.. euh journalistes de France Inter pour se rendre compte que cette confusion règne en maître sur la science bon marché qu’on nous sert à toutes les sauces…

    • Je connaissais l’acronyme « GIGO », comme « FIFO – First In First Out », mais pour « Garbage In, Garbage Out ». Depuis, le langage semble s’être radicalisé 🙂

  • Caser « réchauffement climatique », « blockchain » ou « intelligence artificielle » dans son discours est actuellement le meilleur moyen d’attirer les fonds, notamment les fonds publics.

    Il n’y a pas de raison que les assurances échappent à la manne miraculeuse de l’argent gratuit imprimé par les banques centrales.

    Tant que ça dure…

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don
inflation immobilier
3
Sauvegarder cet article

Une crise ne devait jamais se produire. Pas après la Grande Modération des 30 dernières années. Mais la plupart des actifs sont sur le point de chuter.

Depuis plus de 100 ans, l’immobilier a baissé lors des périodes comme celles-ci, où l’inflation surpasse les taux d’intérêts et les force à grimper.

Le graphique ci-dessous (source) donne l’indice des prix de l’immobilier en France, en fonction du revenu des ménages.

 

 

Vous pouvez observer trois périodes de chute des prix pour l’immobilier... Poursuivre la lecture

La réalité rattrape parfois la fiction et c’est sûrement de plus en plus vrai ces dernières années. Avec l’évolution de certaines technologies comme le Métavers, la réalité virtuelle et bien évidemment  l'Intelligence Artificielle (IA), on sent que le monde est en train de changer. Certains avancent plus vite que d’autres, comme la Chine, où un robot vient d’être nommé à la tête d’une multinationale.

Une IA va donc gérer NetDragon Websoft, une entreprise de jeux vidéo comptant plusieurs milliers de salariés. Cette IA se nomme Tang Yu. ... Poursuivre la lecture

IA
4
Sauvegarder cet article

Pour celui qui se tient (même vaguement) au courant des progrès de l'informatique, il est évident que l'intelligence artificielle a beaucoup évolué en 20 ans. L'actualité récente montre que nous sommes à présent bien loin des pathétiques essais de l'époque, qui permettaient péniblement d'obtenir de ces programmes un peu plus qu'une reconnaissance approximative des caractères, des systèmes experts un peu déséquilibrés ou des analyses d'images qui ne se trompaient pas la moitié du temps.

Ces dernières années ont notamment vu apparaître d... Poursuivre la lecture

Voir plus d'articles