Par Robert Aro.
En début de semaine, CNBC a fait part de ses inquiétudes concernant l’intelligence artificielle :
Le régulateur bancaire de la Fed avertit que l’intelligence artificielle pourrait conduire à des pratiques de prêt illégales, comme l’exclusion des minorités.
Le XXIe siècle approche à grands pas de son quart.
Avec l’émergence d’outils d’I.A. accessibles et de plus en plus populaires, il ne serait pas mauvais de parier que la croissance, le développement et, à terme, l’omniprésence de l’I.A. sont tout à fait inévitables. Il sera fascinant d’observer la manière dont l’I.A. influencera le changement dans diverses industries, en particulier dans le secteur financier et à Hollywood.
L’avertissement de CNBC provient d’un discours prononcé le même jour par le vice-président chargé de la supervision à la Fed, Michael S. Barr, intitulé “Furthering the Vision of the Fair Housing Act” (Promouvoir la vision de la loi sur le logement équitable) :
L’économie numérique a produit des sources de données alternatives, dont certaines peuvent fournir une fenêtre sur la solvabilité d’une personne qui n’a pas d’historique de crédit standard.
Jusqu’à présent, tout va bien. Avec un coût relativement faible, l’apprentissage automatique peut trouver de nouvelles façons d’aider les personnes rencontrant des difficultés à obtenir un crédit. Cependant, il ajoute :
Bien que ces technologies aient un potentiel énorme, elles ne sont pas encore tout à fait au point : si ces technologies ont un potentiel énorme, elles comportent aussi le risque de violer les lois sur l’équité des prêts, et de perpétuer les disparités qu’elles ont le potentiel de corriger.
Il est préoccupant de constater que de mauvais intrants conduisent à de médiocres résultats. Pire encore, des problèmes fondamentaux peuvent exister dans le système lui-même :
L’utilisation de l’apprentissage automatique ou d’autres formes d’intelligence artificielle peuvent perpétuer ou même amplifier les biais ou les inexactitudes inhérents aux données utilisées pour former le système, ou faire des prédictions incorrectes si cet ensemble de données est incomplet, ou non représentatif.
Il a donné un exemple :
Par exemple, le redlining numérique dans le marketing – l’utilisation de critères pour exclure les minorités ou leurs demandes – est un risque….
C’est certainement possible. On pourrait s’attendre à ce que, dans un rapport de crédit, l’emploi passé et présent et les antécédents financiers soient pris en compte dans l’évaluation d’une personne, et non sa race.
En fin de compte, l’utilisation de l’I.A. devrait être adoptée pour son potentiel d’économie de temps et d’argent. Bien qu’elle puisse être utilisée pour aider les agents de crédit dans les demandes de crédit, elle pourrait conduire à des pratiques de redlining. Définir ces pratiques et prouver leur existence pourrait être un défi coûteux pour les régulateurs fédéraux qui ne comprennent probablement pas eux-mêmes la technologie. Nous n’en sommes pas encore au stade où une IA malveillante peut être tenue pour responsable de nos problèmes. Si ce jour devait arriver, nous aurions des problèmes bien plus importants à résoudre !
Néanmoins, dans un monde plus libre, sans un système de Réserve fédérale responsable des hausses et des baisses d’activité, il y aurait moins de communautés appauvries et beaucoup moins de disparités économiques. Au fur et à mesure que l’I.A. progresse, sans régulateur financé par le contribuable, le potentiel de l’I.A. aiderait les entrepreneurs de tout le spectre socio-économique à mettre sur le marché des produits de grande valeur.
—
est ce une question d’intelligence???
exclure des gens de crédit est le “role” dun banquier…
favoriser l’acces aux crédits à certains groupes ne l’est pas.. c’est contradictoire …il faut donc trancher et ce assez arbitrairement…
sauf à établir des règles ou de objectifs.. qu’on s’imagine facile à respecter par une “intelligence”.
juste un logiciel…
En effet, c’est assez surréaliste de voir rejeter la logique de la prime d’assurance proportionnée au risque. Le problème dans l’IA serait-il que les idéologues ont appris à contrer l’intelligence naturelle, mais pas encore son avatar artificiel ?
Dans “l’intelligence artificielle”, le terme le plus ambigu est “l’intelligence” car si l’on se réfère à wikipedia, sa définition pose de nombreux problèmes et reste particulièrement floue selon le domaine auquel elle s’applique, humain animal, végétal? ou encore informatique?
Les mécanismes d’apprentissage souffrent apparemment des mêmes défauts selon que l’on “nourrit” l’intelligence qui apprend avec des données de piètre qualité, ou que “l’enseignant” souffre lui-même de biais inhérents à sa propre formation. Et on ne peut ignorer également l’aspect “culturel” qui semble aussi pouvoir orienter les résultats vers des situations inattendues!
et on se plait a articuler cette définition sur celle de l’homme;.. qui est AUSSI compliquée..
je crois qe le concet ne sert à rien..
toute vie est intelligente car elle résout le problème de sa survie…
il y a un risque avec une machine conçue pour survivre et se multiplier…
et il y a le risque de CROIRE qu’nemachine est intelligente.. “chatgpt dit que”..