Nvidia : un colosse aux pieds d’argile

Partager sur:
Sauvegarder cet article
Aimer cet article 1
Siège de Nvidia à Santa Clara, en Californie.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Nvidia : un colosse aux pieds d’argile

Publié le 5 septembre 2024
- A +

Nvidia est la surprise de la décennie. L’entreprise conçoit des cartes graphiques, un composant optionnel sur les ordinateurs, nécessaire uniquement pour jouer aux jeux vidéo, faire du montage vidéo ou de la conception 3D. L’entreprise restait depuis des années sur ce gros marché de niche, avec une forte concurrence de la part d’AMD, Gygabyte, ASUS ou autre.

 

Un gros marché de 3,6 milliards de dollars, mais de niche, comparé à l’électronique grand public comme les ordinateurs portables, smartphones ou TV. On imaginait donc mal Nvidia, la troisième entreprise tech la plus valorisée, passer devant des mastodontes présents sur des marchés plus gros comme Google ou Samsung. Tout le monde possède un produit Apple, Samsung, Google ou Microsoft, mais qui possède une carte graphique Nvidia chez lui ?

Pour comprendre l’ascension du fabricant, il faut comprendre la différence entre les cartes graphiques, appelées Graphical Process Unit (GPU) et les processeurs, appelés Central Process Unit (CPU). Les deux exécutent du code pour réaliser des calculs.

Les tâches comme lire les mails, ouvrir un document ou naviguer sur internet tournent sur CPU qui ont 4, 8, 16 voire 32 cœurs puissants. Or, les rendus graphiques demandent beaucoup de calculs simples en même temps. On les lance donc sur les GPU qui disposent de 10 000 cœurs de faible puissance.

Historiquement dédiées aux calculs graphiques, les GPU s’ouvrent à d’autres domaines, comme les simulations physiques, le minage de cryptomonnaies ou encore le cassage de mot de passe.

Maintenant, c’est autour de l’IA de migrer ses tâches de calcul vers les GPU pour gagner en performance. Cela fait des années que l’on entraîne les IA sur GPU, par exemple une IA type yoloV5 pour détecter des objets demande 4 GPUs pour être entraînée. Puis cette IA peut tourner sur n’importe quel CPU (ordinateur ou smartphone) sans besoin de GPU.

Cependant, les nouvelles IA comme chatGPT ou Midjourney sont des ogres de puissance. Une IA type chatGPT-4 (falcon-180B) nécessite 4096 GPUs pour être entraînée, et 8 GPUs pour être utilisée.

Or, actuellement, seule Nvidia dispose de GPU assez puissants pour l’IA. L’entreprise vend par palette entière son best-seller, le H100 pour 30 000 euros pièce. Rien qu’Elon Musk en a commandé 100 000 pour concevoir sa propre IA.

 

Les IA n’ont pas besoin de Nvidia

Les briques logiques qu’on assemble pour former une IA ne sont pas liées à des GPU Nvidia. On les construit à travers un framework logiciel open source comme pyTorch de Meta, ou Tensorflow de Google.

Un modèle IA est concrètement une suite d’instructions pour pyTorch ou Tensorflow. Par la suite, le framework va convertir ses instructions en instructions pour CPU ou GPU.

Ces frameworks sont open source, utilisable et modifiable par n’importe qui. Nvidia dispose du meilleur hardware dans l’IA, mais n’est pas « vendor lock ». Si demain une meilleure alternative débarque, on l’intégrera dans les frameworks, et toutes les IA pourront tourner sur le nouveau hardware sans modifications.

Si l’IA était une voiture, Nvidia serait les roues, et le framework le moteur. Changer de framework demande de refaire toute la voiture. Mais passer d’un GPU Nvidia à autre chose revient juste à changer les pneus.

La situation de monopole de Nvidia est moins établie qu’imaginée. Le moindre concurrent peut tout faire basculer, et les concurrents sont déjà là.

 

Nvidia déjà sous pression

Sans modifier le hardware, on peut déjà optimiser le software. Soit en concevant des IA plus frugales, comme la société Mistral. Son modèle Mistral 7B tourne sur un mac mini M1 d’une valeur de 800 euros. On peut aussi optimiser le framework et ses instructions. Une équipe de chercheurs pense pouvoir contourner un blocage qui réduira le calcul d’une IA au point de réduire par 100 sa consommation d’énergie.

Nvidia peut voir son chiffre d’affaires fondre, avec une seule mise à jour des frameworks apportant des optimisations dans les calculs.

Ensuite, on peut changer de hardware. Des entreprises travaillent sur du hardware dédié à l’IA, appelé Tensor Process Unit (TPU). Google était le pionner dans ce domaine avec sa filiale Coral.ia. Apple semble avoir repris le flambeau en proposant ses TPU (appelés Neuronal Engine) dans ses produits iPhone, iPad ou Mac. L’entreprise souhaite rester dans la course en musclant toujours plus son hardware afin de suivre les IA type chatGPT.

Enfin, une myriade de startups se lancent sur le secteur des TPU tels Hailo, Groq, Tenstorrent ou Sima. Encore une fois, si un seul TPU est plus performant que les GPU Nvidia, toutes les IA pourront tourner sur ce nouveau TPU, laissant Nvidia sur le carreau.

Nvidia peut bien sûr riposter en proposant ses propres TPU ou en rachetant des startup prometteuses. Elle va devoir se battre pour rester au niveau, car il est sûr que de meilleures alternatives que ses GPU arriveront.

L’entreprise fait la course en tête, mais pour combien de temps encore ?

Voir le commentaire (1)

Laisser un commentaire

Créer un compte Tous les commentaires (1)
  • Il y a une erreur dans le chapô de l’article : le seul réel concurrent de Nvidia listé est AMD, les autres sont des partenaires. En pratique, l’entreprise ne fournit pas de cartes, elle conçoit, fait fabriquer par TSMC et fournit des puces, qui seront intégrées par des fabricants dans des cartes graphiques. Gigabyte ou Asus sont à ce titre partenaires de NVidia, pas des concurrents.
    Les concurrents de l’entreprise sont plutôt AMD ou Intel pour les GPU sur PC, et tout l’écosystème ARM pour le reste.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L'Union européenne fut très fière de proposer un plan de "régulation" de l'IA. C'est bien connu, seules la régulation et la planification permettent de développer des technologies nouvelles. Un député et un fonctionnaire de l'UE sont plus à même de développer les sciences et les techniques qu'un inventeur et un entrepreneur.

Thierry Breton, fier de son attitude bureaucratique, avait ainsi épinglé son tweet en décembre 2023.

Il y a de quoi enrager...

Et l'autre génie de @ThierryBreton qui a littéraleme... Poursuivre la lecture

OpenAI, avec sa vision d'une IA géante et coûteuse, se retrouve face à des concurrents proposant des IA plus économiques.

OpenAI persiste et signe, pour le futur il faut une IA encore plus grosse que chatGPT-4. Son CEO, Sam Altman, réclame donc 50 milliards de dollars par an, après avoir déjà englouti 11 milliards dont 700 000 dollars par jour rien que pour les coûts des serveurs.

Le pape de l’IA est surtout de plus en plus seul dans sa vision d’IA gigantesque et coûteuse. La startup française Mistral a marqué le début d’une aut... Poursuivre la lecture

Rêve pour certains, cauchemar pour d'autres, toujours est-il que OpenAI a ouvert une nouvelle fonction de Chat GPT 4 avec un système de traduction simultanée. Plus fluide que Google Translate, il permet des conversations entre des personnes qui ne parlent pas la même langue.

C'est probablement l'un des domaines où l'IA obtient les résultats les plus spectaculaires et les plus directement utiles pour les populations. Que ce soit pour voyager ou pour le travail, c'est la possibilité de pouvoir se faire comprendre partout.

Poursuivre la lecture

Voir plus d'articles