Donald Trump annonce un plan de 500 Mds $ d’investissement dans l’IA. Financé par des fonds privés, ce plan doit permettre à l’Amérique de gagner face à son concurrent chinois. Mais se pose le problème de l’accès à l’énergie pour faire tourner les data center.
Excellente présentation de l IA dans le monde ou l on voit les USA et la Chine se tirer la bourre….l UE qui régule et les russes obnubilés par l invasion en ukraine…..😇😇😇
Le recours au nucléaire est indispensable pour faire tourner les data centers!
Et le cerveau humain qui consomme à peine 20 watts reste encore bien plus performant qu’une IA nourrie d’une centrale nucléaire. Ce qui signifie que l’algorithme utilisé (rétropagation de gradient) est nul à chier.
C’est très américain d’utiliser un caterpillar là où une petite cuiller suffirait avec un peu d’astuce.
Le plus de l IA est sa faculté à utiliser d énormes bases de données pour réaliser de nombreuses tâches répétitives et assez basiques ce qui laisse plus de liberté a la créativité du cerveau humain
Vous faites un complet contre-sens sur l IA…😂😂😂.
J’ai écouté J.B Noé qui aborde utilement l’incidence géopolitique de l’IA.
Pour être éclairé sur le concept même de l’IA il faut prendre un peu de recul.
L’essentiel des interminables invocations actuelles de l’IA relève plutôt d’une manie de marketing bien à la mode mais très superficielle. On l’invoque même pour vendre des recettes de cuisine alors qu’il s’agit de l’informatique la plus ordinaire …
Et puis il y a l’authentique “Artificial Intelligence” qui prospère plus ou moins discrètement depuis 1963 (SAIL à Stanford) et qui a connu plusieurs phases:
1- réduction de la complexité algorithmique parfois spectaculaire mais insuffisante pour des problèmes d’optimisation dits “NP complets” qui ont fait dire au rapport Lighthill que l’IA était définitivement sans espoir.
2- “connexionnisme” faisant appel à la dynamique des réseaux cellulaires avec ou sans arrière-pensée neuromimétique;
Cette approche a décollé avec l’algorithme de Hinton&Sejnowski d’apprentissage par “rétropropagation de gradient” à convergence trop lente pour fonctionner par simulation sur le matériel de l’époque. Il aurait fallu un algorithme “en marche avant” que Hinton espère toujours trouver.
3- gigantisme du hardware qui permet par la miniaturisation et le parallélisme massif d’accélérer les temps de réponse:
un algorithme poussif qui aurait demandé naguère un an de calcul peut donner la même réponse en quelques secondes si bien qu’au lieu de chercher un algorithme plus astucieux on préfère un équipement plus lourd, plus coûteux, plus consommateur d’énergie et plus facile à concevoir puisque ce n’est qu’une question de sous.
Bien entendu si ce rêve de Hinton (Lauréat Nobel 2024) se réalise on n’aura plus besoin de ce gigantisme pour faire le travail, ce qui ne serait pas nécessairement une bonne nouvelle si c’est à la portée de n’importe qui.