top of page

Nvidia & AMD, House of Cards, be back !

Photo du rédacteur: Caroline BONNOTCaroline BONNOT

L'épopée de Nvidia et AMD : Une guerre technologique au cœur de l'affrontement mondial de 2025

Nvidia & AMD, House of Cards, be back !

Dans un monde de plus en plus connecté, les semi-conducteurs sont devenus les nerfs de la guerre économique et technologique. Nvidia et AMD, deux mastodontes de cette industrie, se trouvent aujourd'hui au centre d'une lutte globale impliquant les États-Unis, la Chine et, dans une moindre mesure, la France. Ces pays ne se battent pas seulement pour la domination technologique, mais aussi pour le contrôle des matières premières, l'énergie, les infrastructures et l'avenir de l'intelligence artificielle.


Je mets en lumière dans cet article une analyse détaillée autour 2 sociétés de la Tech ‘‘Nvidia & AMD’’ qui me semblent très représentatives des enjeux des états ‘‘USA, Chine, France’’ qui façonnent notre époque en matière d'innovation, de rivalité, d’affrontements financiers et … familial (Jensen Huang et Lisa Su, CEO de ces deux sociétés, sont nés tous deux à Taïwan et sont cousins) !


L'importance de se renseigner avant d'investir est essentielle. Faire ses recherches, comprendre le secteur, analyser les risques, et ne jamais se contenter de ce qui brille en surface. Trop de personnes apprennent à leurs dépens que les promesses éclatantes cachent parfois des réalités décevantes.


Si vous ne voulez pas être le prochain, souvenez-vous toujours de ceci : "Un investissement éclairé est la graine d’un avenir solide."


Une question se pose : Est-il judicieux d’investir sur Nvidia ou AMD cette année ?


" Les tensions entre les grandes puissances économiques se sont intensifiées courant 2024 et pourrait bien être un tournant décisif augurant une guerre technologique totale pour 2025."
RDV Consultation Patrimoniale


Les origines d'une rivalité historique


Fondée en 1993, Nvidia est rapidement devenue une référence dans le domaine des cartes graphiques et par la suite dans l'intelligence artificielle. En 2024, la société américaine devrait enregistrer un chiffre d'affaires de 56,22 milliards de dollars* grâce à ses solutions GPU et ses plateformes d'intelligence artificielle. Son célèbre fondateur, Jensen Huang, a su transformer une entreprise naissante en un leader mondial grâce à des innovations comme CUDA (modèle de programmation introduit en 2007, qui utilise le processeur graphique pour exécuter des calculs généraux à la place du processeur central CPU), qui a révolutionné le calcul parallèle.


De l'autre côté, AMD, société américaine fondée en 1969, a longtemps été perçue comme l'éternel challenger d’Intel. Cependant, à partir de 2014, sous la direction de Lisa Su, la société a effectué un retour spectaculaire. Avec des processeurs Ryzen et EPYC, AMD devrait enregistrer un chiffre d’affaires proche de 23 milliards de dollars pour 2024, rivalisant directement avec Nvidia dans des segments clés tels que le Cloud Computing, le Gaming et l'I.A.


Dès le début des années 2020, les deux entreprises se sont affrontées sur des marchés stratégiques, mais en 2025, la rivalité technologique va se transformer en un enjeu géopolitique !


*Sources : Boursorama



Une guerre technologique ‘‘globale’’


Les tensions entre les grandes puissances économiques se sont intensifiées courant 2024 et pourrait bien être un tournant décisif augurant une guerre technologique totale pour 2025.


En 2022, après la pandémie de Covid-19 soulevant les risques en matière d’approvisionnement et comprenant l’importance cruciale des technologies Nvidia et AMD dans des secteurs stratégiques comme la défense, Washington lance le programme CHIPS Act.


Doté d’une enveloppe de 52,7 milliards de dollars, le programme prévoit de subventionner massivement sa propre industrie en relocalisant la production de semi-conducteurs aux États-Unis.


La Chine, leader mondial de la production de terres rares, éléments cruciaux pour les semi-conducteurs, décide de restreindre ses exportations dès 2023.


Les États-Unis, réagissent en renforçant régulièrement leurs sanctions et certaines restrictions, notamment sur l’exportation des semi-conducteurs. La situation tendue à Taïwan illustre bien les tensions entre les 2 pays.


La France, de son côté adopte une posture originale :


  • Avec d’une part, un budget 4 milliards d’euros pour 2023 qui concernent la sécurisation des composants pour renforcer nos capacités de production et investir dans la R&D ;


  • Et d’autre part, une allocation dédiée à l’European Chips Act, sujet lancé en 2023 et dont le montant réservé à la recherche est de 325 millions d’euros.


  • Enfin, la France, s’efforce de construire une souveraineté technologique européenne en s’alliant avec AMD et en explorant des solutions énergétiques durables pour alimenter les futures usines.



 Les enjeux des matières premières


Le monopole de la Chine sur les terres rares, qui représente 70% de la production mondiale*, a mis en lumière l’urgence de trouver des alternatives.


Les États-Unis ont intensifié leurs activités minières, découvrant de nouveaux gisements au Texas, tandis que l’Europe mise sur le recyclage des composants existants.


Toutefois, ces efforts restent insuffisants face à une demande mondiale des matériaux utilisés prévue de 88,66 milliards de dollars** pour les semi-conducteurs à l’horizon de 2029.


*Sources : Institut d’étude géologique des états unis (USGS).

**Source : Nordorintelligence.



 L'énergie : un facteur décisif


La production de semi-conducteurs est incroyablement énergivore. En 2024, la consommation annuelle des usines TSMC à Taïwan était évaluée à 5% de l’électricité nationale.


La Chine a répondu en construisant des centrales solaires massives, tandis que les États-Unis investissent dans l’énergie nucléaire.


La France, pionnière dans le domaine, propose des réacteurs modulaires pour alimenter les futures usines européennes, espérant ainsi réduire les coûts de production.



 L'IA et l'informatique quantique : une bataille pour l'avenir


En 2024, l’informatique quantique n’est plus une simple promesse. Nvidia et Quantum se sont associées et ont investi massivement dans le développement de GPU quantiques hybrides, tandis qu’AMD mise sur une architecture de processeurs évolutive combinant classique et quantique.


Ces avancées, qui devraient générer un marché estimé à 12 620,7 millions de dollars* d’ici 2032, redéfinissent des secteurs entiers, de la santé à la finance.


*Sources : Fortune business insight.



 Cryptomonnaies et blockchain


En 2024, le marché des cryptomonnaies a représenté un écosystème de 75,8 milliards de dollars. Nvidia, avec ses GPU optimisés, a capté 45% du marché des matériels de minage (processus de validation des transactions et de création de nouvelles unités de monnaie), tandis qu’AMD détient une part de 25% grâce à ses solutions à haut rendement.


La Chine, après avoir interdit le minage en 2021, mise sur sa propre cryptomonnaie d’État, renforçant la concurrence sur les technologies sous-jacentes.


" L'ascension de Nvidia face à AMD est une histoire d'innovation technique mais surtout d'une stratégie logicielle éclairée. En misant sur sa communauté de développeurs et un écosystème logiciel robuste, Nvidia a su se positionner comme un acteur incontournable de la révolution technologique. Pendant ce temps, AMD, bien qu'efficace sur le matériel, lutte pour égaler l'influence de son rival dans l'univers logiciel."


Nvidia : Une guerre technologique au cœur de l'affrontement mondial de 2025


En 1993, Nvidia émerge sur le marché des semi-conducteurs avec une vision audacieuse : développer des solutions graphiques capables de transformer les performances visuelles des ordinateurs. Mais c'est en 2006 que l'entreprise fait un pari qui va redéfinir son avenir : le lancement de CUDA (Compute Unified Device Architecture).


CUDA n'est pas qu'un simple outil pour exploiter la puissance des GPU (processeur graphique). C'est une invitation lancée aux développeurs du monde entier pour repousser les limites du calcul parallèle. Cette stratégie s'est avérée décisive. En quelques années, Nvidia crée une véritable communauté de chercheurs et d'ingénieurs exploitant ses outils dans des domaines variés : intelligence artificielle, santé, astrophysique ou encore finance.


En 2012, l'avènement des réseaux neuronaux convolutifs (CNN) marque une révolution dans l'IA. Nvidia, grâce à CUDA, se positionne rapidement comme le leader des plateformes d'entraînement pour les modèles d'apprentissage profond. À cette époque, son chiffre d'affaires annuel atteint 4 milliards de dollars*, mais ce n'est que le début.


En 2020, Nvidia dévoile la série A100, des GPU spécialisés dans l'IA et le calcul intensif. Ces cartes deviennent le choix par excellence des data centers, avec une adoption massive par des entreprises comme Google, Microsoft et Amazon. Cette année-là, la division des data centers de Nvidia génère 10,92 milliards de dollars*, soit une augmentation de 124 % par rapport à l'année précédente.


Mais ce qui distingue Nvidia d'AMD n'est pas seulement le matériel. L'entreprise investit dans des écosystèmes logiciels tels que TensorRT, Nvidia Omniverse ou Triton Inference Server, créant des solutions end-to-end (qui contrôlent et gèrent toutes les phases d'un processus) pour ses clients.


*Sources : Statista.com



AMD : l'éternel challenger


Fondée en 1969, AMD s'est souvent retrouvé dans l'ombre de ses concurrents, mais la situation change avec l'arrivée de Lisa Su en 2014 (Cousine d’origine taïwanaise du CEO de Nvidia). Sous sa direction, AMD se concentre sur deux priorités : les processeurs et les GPU.


En 2017, AMD lance les processeurs Ryzen, qui regagnent rapidement des parts de marché face à Intel. La série EPYC, destinée aux serveurs, devient un choix populaire pour les centres de données grâce à son rapport performance-prix.


Cependant, dans le domaine des GPU et de l'IA, AMD reste derrière Nvidia. En 2024, AMD détient environ 12 % du marché des GPU*, contre 88 % pour Nvidia*.


Le défaut majeur d'AMD a toujours été son retard dans l'écosystème logiciel. Contrairement à Nvidia, l'entreprise a tardé à développer des plateformes complètes pour ses produits, limitant leur adoption dans des domaines émergents comme l'IA ou les superordinateurs.


*Sources : Tom’s Harware du Cabinet John Peddie Research.



La communauté de développeurs : l’arme décisive de Nvidia


Le succès de Nvidia repose en grande partie sur sa communauté. Plus de 4 millions de développeurs actifs utilisent CUDA*, et l'entreprise organise chaque année des conférences GTC (GPU Technology Conference) qui rassemblent des dizaines de milliers de participants. Par comparaison, les outils ROCm d'AMD, bien que performants, peinent à attirer un public large.


De plus, Nvidia investit massivement dans des programmes de formation, collaborant avec des universités ou écoles prestigieuses pour intégrer ses technologies dans les cursus académiques, dont l’École Centrale Paris qui a reçu le label ‘‘CUDA Research Center’’ de Nvidia** pour les travaux menés par le professeur Frédéric Magoulès et son équipe.


*Sources : The Economic Times

**Sources : Le Monde Informatique



 Les chiffres clés à retenir


2024* : Nvidia qui a accumulé un trésor de guerre de 9 milliards de dollars, devrait dépasser un chiffre d’affaires global de plus de 64 milliards de dollars sur 2024.


2024** : AMD a relevé ses prévisions de revenus liés aux puces d'IA, anticipant désormais des ventes supérieures à 5 milliards de dollars, soit une augmentation de 500 millions de dollars par rapport aux estimations précédentes très prudentes.


2025 : On estime que la communauté CUDA représente 80 % des développeurs travaillant sur des solutions basées sur GPU Nvidia.


L'ascension de Nvidia face à AMD est une histoire d'innovation technique mais surtout d'une stratégie logicielle éclairée. En misant sur sa communauté de développeurs et un écosystème logiciel robuste, Nvidia a su se positionner comme un acteur incontournable de la révolution technologique. Pendant ce temps, AMD, bien qu'efficace sur le matériel, lutte pour égaler l'influence de son rival dans l'univers logiciel.


*Sources : Les Échos.

**Sources : Barrons.com.


" La réussite de Nvidia repose sur une vérité simple mais puissante : la perception vaut souvent plus que la réalité. Avec un marketing efficace, un écosystème fermé et des partenariats stratégiques, Nvidia transforme des produits parfois moins performants en objets indispensables."


La stratégie cachée du leader Nvidia


Leur idée initiale est simple : transformer les cartes graphiques en outils de haute performance. À une époque où les jeux vidéo en 3D émergent timidement, Nvidia lance son premier produit phare, le NV1, en 1995. Bien qu’il soit loin d’être parfait, Nvidia montre une capacité remarquable à s’adapter et à évoluer.


En 1999, Nvidia invente le terme GPU avec le lancement de la GeForce 256. Le succès est fulgurant : Nvidia domine rapidement le marché des cartes graphiques, dépassant des concurrents comme 3dfx, qu’elle finira par racheter le 15 décembre 2000 pour 120 millions de dollars* et ce pour consolider son monopole.


La décennie suivante voit Nvidia exploiter le potentiel du GPU au-delà des jeux vidéo. En 2006, l’introduction de CUDA, une plateforme de calcul parallèle, change la donne. Les chercheurs et ingénieurs adoptent les GPU Nvidia pour des applications scientifiques, l’intelligence artificielle (IA) et les centres de données.


Cependant, Nvidia commence à prendre une direction stratégique intrigante : elle mise sur le branding premium. Les GPU GeForce sont positionnés comme des produits de luxe, souvent plus chers que leurs équivalents chez AMD. Les chiffres parlent d’eux-mêmes : entre 2010 et 2020, le prix moyen des GPU double**, passant de 250 $ à plus de 500 $.


En 2020, Nvidia réalise un chiffre d'affaires record de 16,7 milliards de dollars, porté par la montée en puissance de l’intelligence artificielle et de l’apprentissage profond. Des plateformes comme TensorFlow et PyTorch sont optimisées pour CUDA, rendant presque obligatoire l’utilisation de GPU Nvidia dans les centres de données.


Mais une question persiste : Pourquoi Nvidia reste leader alors que ses produits sont souvent plus chers et, dans certains cas, moins performants que ceux d’AMD ?


*Sources : Wikipédia

**Sources : Overcloking.com



 L'art du marketing et du branding


Nvidia a su transformer ses produits en objets de désir. Le lancement des cartes RTX en 2019*, avec le ray tracing, en est l’exemple parfait. Bien que peu de jeux soient capables d’exploiter pleinement cette technologie à l’époque, Nvidia crée un récit autour de l’innovation, convainquant les consommateurs qu’ils doivent absolument avoir ces cartes.


En 2023, la RTX 4090 est commercialisée à 1 599 $, un prix exorbitant pour une carte graphique. Pourtant, elles se vendent comme des petits pains, générant plus de 11,9 milliards de dollars de revenus** en un an à Nvidia pour ce segment.


*Sources : Grobill.com

**Sources : Learnthings.fr/statistique-Nvidia



 Un écosystème fermé et captif


Avec CUDA, Nvidia verrouille les développeurs dans son écosystème. Bien que des alternatives comme OpenCL existent, elles sont souvent moins performantes ou moins bien supportées.


Résultat : les entreprises et chercheurs préfèrent Nvidia, même si les alternatives AMD ou Intel pourraient être suffisantes pour leurs besoins.


Les centres de données représentent 60 % du chiffre d’affaires* de Nvidia prévu pour 2025, avec des marges brutes atteignant 67 %.


*Sources : Learnthings.fr/statistique-Nvidia



 Des partenariats stratégiques


Nvidia investit massivement dans des partenariats. Par exemple :


  • Avec Microsoft et Amazon pour optimiser leurs Clouds avec les GPU Nvidia.


  • Avec les éditeurs de jeux vidéo pour intégrer des technologies comme DLSS (Deep Learning Super Sampling), rendant les jeux “meilleurs” sur les cartes Nvidia, même si les performances brutes sont similaires à celles d’AMD.


Ces alliances verrouillent l’écosystème. En 2025, 75 % des jeux AAA (le Triple-A permet de classifier des jeux vidéo, dotés de budget de développement et de promotion conséquents, en produit premium de l’industrie) sont optimisés pour Nvidia, renforçant encore son monopole.



 Des limitations stratégiques


Nvidia est également connue pour imposer des restrictions dans ses produits :


  • Les versions ‘‘Lite Hash Rate’’ (LHR) des GPU limitent volontairement les performances pour le minage de cryptomonnaies. Cela oblige les mineurs à acheter des cartes plus chères destinées aux centres de données.


  • Certaines fonctionnalités avancées, comme NVLink ou des drivers spécifiques, sont réservées aux cartes professionnelles, vendues à des prix bien plus élevés.



 Une maîtrise des pénuries


Lors des crises comme celle de 2021 (post Covid), où la demande pour les semi-conducteurs dépasse largement l’offre, Nvidia joue sur l’effet de rareté.


En limitant volontairement la production de certains modèles, la société maintien des prix élevés. En 2025, le prix moyen d’une carte graphique Nvidia est de 850 $, contre 500 $ pour AMD.



 Le coût du monopole


En 2024 Nvidia réalise un chiffre d'affaires de prêt de 64 milliards de dollars*, dont 27 milliards proviennent des centres de données et 15 milliards des GPU grand public. AMD, malgré des produits souvent plus performants dans certains segments, ne parvient à générer que 25 milliards de dollars.


Les critiques fusent, mais Nvidia continue de prospérer grâce à une stratégie implacable : elle ne vend pas seulement des produits, elle vend un statut et un écosystème captif.


La réussite de Nvidia repose sur une vérité simple mais puissante : la perception vaut souvent plus que la réalité. Avec un marketing efficace, un écosystème fermé et des partenariats stratégiques, Nvidia transforme des produits parfois moins performants en objets indispensables. Pour l’instant, ni AMD ni aucune autre entreprise ne semble en mesure de renverser ce monopole, qui façonne le paysage technologique mondial.


*Sources : Learnthings.fr/statistique-Nvidia


L’IA est le pilier central de la stratégie diplomatique américaine. À travers des investissements massifs, une maîtrise technologique inégalée et des partenariats mondiaux, les États-Unis consolident leur rôle de leader mondial. Mais cette domination n’est pas sans conséquences : elle alimente une course technologique effrénée et pose des défis éthiques majeurs, redéfinissant les règles du jeu géopolitique pour les décennies à venir."


Histoire croisée : l’éthique dans la médecine, la cryptomonnaie, l’IA et les processeurs quantiques


Depuis des siècles, la médecine s’appuie sur une éthique fondamentale, formalisée par le serment d’Hippocrate (Vème siècle avant J.-C.), qui établit des principes comme le respect de la vie, la confidentialité et le devoir de soigner sans nuire.


Cette base a évolué pour inclure des cadres modernes, comme le Code de Nuremberg en 1947, né des atrocités médicales de la Seconde Guerre mondiale, ou encore les principes de la Déclaration d’Helsinki de 1964.


Des avancées majeures, comme la transplantation d’organes ou la thérapie génique, n’auraient pas été acceptées sans des comités d’éthique garantissant des standards élevés, l'équilibre entre innovation et protection des droits humains.



 Cryptomonnaie : l’éthique de la liberté financière, mais à quel prix ?


Les cryptomonnaies, depuis la création du Bitcoin en 2008*, promettent une liberté économique sans précédent : un système décentralisé, transparent, et hors du contrôle des gouvernements et banques centrales. Cependant, ce modèle, bien que séduisant, pose d’immenses défis éthiques.


Bien que, la blockchain, technologie sous-jacente, garantit un registre public immuable. Et qu’elle a permis à des millions de personnes non bancarisées dans le monde d’accéder à des services financiers.


Le travail qui reste à faire est important car, l’absence de régulation dans les cryptomonnaies a favorisé des usages criminels. En 2022, la plateforme Tornado Cash a été sanctionnée pour avoir permis de blanchir plus de 1,2 milliards de dollars**. Sans oublier que, le minage de Bitcoin consomme autant d’électricité qu’un pays comme l’Argentine, mettant en lumière un problème éthique lié à l’écologie.


*Sources : banque de France

**Sources : Zoltan Vardai de cointelegraph.com



IA : l’éthique de la puissance et de la responsabilité


L’intelligence artificielle promet de révolutionner le monde, tout comme l’a fait la médecine. Mais elle est également une arme à double tranchant.


Souvenons-nous que, des systèmes comme Watson d’IBM aident à détecter des cancers précocement, tandis que l’IA analyse des millions de données pour prévoir des épidémies, et qu’il existe déjà dans l’industrie, des modèles prédictifs qui réduisent les coûts et optimisent les ressources.


Mais prenons garde aux IA comme les algorithmes de reconnaissance faciale qui se sont avérées biaisées, entraînant des discriminations raciales. Sans oublier, Les drones et robots équipés d’IA qui posent la question de leur utilisation dans les conflits armés.


Exemple : Une étude de 2019* a montré que certains systèmes identifiaient mal les personnes de couleur, avec un taux d’erreur de 35 % contre 1 % pour les individus blancs.


*Sources : l'Institut national des normes et de la technologie des États-Unis (NIST).



 Processeurs quantiques : une éthique à construire


Les processeurs quantiques, qui en sont encore à leurs débuts dans bon nombre de pays, représentent à eux seuls la puissance de calcul exponentielle qui pourrait bien bouleverser l’échiquier mondial. IBM et Google ont déjà atteint les jalons de la “suprématie quantique” (résolution de problèmes insolubles par des ordinateurs classiques).


Les processeurs quantiques peuvent briser en quelques secondes tous les cryptages actuels protégeant nos données sensibles (civiles et militaires).


La question n’est plus de savoir ‘‘Qui ?’’, mais belle et bien ‘‘Quand, Comment et par Qui ?’’ seront intégrées les puces quantiques à un ordinateur ‘‘classique grand public’’ qui possèdera à terme, l’équivalent de 3 processeurs (le traditionnel, le GPU et le quantique) dans son architecture.



 Mais que reste-t-il à faire et à quel niveau ? 


Un certain nombre de mesures doivent être prises. Cela commence par chaque pays qui doit adopter des lois claires et contraignantes pour garantir l’usage éthique de la technologie.


Exemple : Le RGPD en Europe (pour la protection des données) ou des initiatives comme la publication le 1 août 2024 du Règlement Européen sur l’Intelligence Artificielle (IA)* en France.


Puis cela doit s’étendre avec un maillage international pour se structurer autour d’organisations comme l’ONU ou l’OMS qui doivent jouer un rôle similaire à celui qu’elles ont joué dans la médecine.


Exemple : Une "Organisation Mondiale pour l’Éthique de l’IA et de la Technologie"** est engagée pour encadrer ces innovations avec le 2e forum mondial sur l’éthique de l’IA a eu lieu les 5 et 6 février 2024 en Slovénie.


En 2025, le prochain forum notable sur l'éthique de l'IA aura lieu en France, le Sommet pour l'Action sur l'Intelligence Artificielle se tiendra les 10 et 11 février à Paris. Cet événement est décrit comme un rassemblement international visant à prendre des mesures concrètes pour un développement raisonné de l'IA, garantissant le progrès économique, l'impact environnemental et l'intérêt général. Il s'articulera autour de cinq axes majeurs : l'IA au service de l'intérêt général, l'avenir du travail, l'innovation et la culture, l'IA de confiance, et la gouvernance mondiale de l'IA.


De plus, le Forum mondial de l’UNESCO sur l’IA est prévu pour les 12 et 13 février 2025, également à Paris. Ce forum répond au besoin urgent de renforcer les capacités du secteur public pour exploiter l'IA de manière efficace, en mettant l'accent sur des outils innovants, une gouvernance éthique, et des politiques inclusives.


Mais cela commence surtout au niveau individuel car les entreprises et chercheurs doivent s’engager dans une démarche responsable, en adoptant des chartes éthiques et en refusant de participer à des projets contraires aux droits humains.


L’histoire montre que le progrès sans éthique peut être une menace. La médecine nous a appris à équilibrer innovation et responsabilité. Les domaines comme la cryptomonnaie, l’IA et les processeurs quantiques doivent s’en inspirer, sous peine de créer un monde où la technologie dépasse l’humain au lieu de le servir.


*Sources : Journal officiel de l’union européenne du 12 juillet 2024.

**Sources : UNSECO.


Il est important de comprendre ici que le monopole de Nvidia sur certaines technologies entrave les efforts des pays pour garantir leur indépendance technologique. Mais aussi que l’utilisation de logiciels propriétaires soulève des problèmes de dépendance excessive, particulièrement pour les infrastructures critiques comme les systèmes militaires, les réseaux électriques, ou les hôpitaux."


Retour sur les cas Nvidia & AMD : quand technologie et ingérence se croisent


Depuis leur émergence, Nvidia et AMD ne sont pas seulement des entreprises technologiques : elles sont devenues des piliers stratégiques de l’économie mondiale. En 2025, leur influence s’étend bien au-delà des cartes graphiques et des processeurs.


Ces entreprises sont au cœur des enjeux liés à l’intelligence artificielle (IA), au Cloud Computing, et même à la cybersécurité. Cependant, leur contrôle quasi exclusif sur des technologies critiques soulève des questions sur la frontière entre innovation et ingérence.



 Ingérence économique et droit du commerce 


Nvidia domine le marché des GPU avec une part de marché avoisinant 80 % en 2024 dans les secteurs des centres de données et de l’IA. Les centres de recherche, les entreprises et même les gouvernements dépendent de technologies spécifiques, comme CUDA, qui est exclusivement compatible avec les GPU Nvidia.


Cette exclusivité crée un verrouillage du marché, où les alternatives sont soit inexistantes, soit inefficaces.


Exemple concret :


En 2023, des Start-Ups Européennes spécialisées dans l’IA (ex : la société LightOn*) ont été contraintes de revoir leurs projets et d’exprimer leurs préoccupations lorsqu’elles n’ont pas pu accéder aux GPU Nvidia, car la société Nvidia priorisait des clients américains.


AMD, bien qu’offrant des produits compétitifs, n’a pas la même emprise, car son écosystème logiciel est moins étendu.


Il est important de bien comprendre que si Nvidia ou AMD décidaient de couper l’accès à leurs technologies dans un pays, cela pourrait paralyser des secteurs entiers, des banques exploitant des algorithmes pour sécuriser leurs transactions aux hôpitaux utilisant l’IA pour diagnostiquer des maladies.


*Sources : lemagit.fr



 Libertés individuelles et surveillance 


Les GPU de Nvidia et AMD alimentent une grande partie des infrastructures d’IA utilisées pour l’analyse de données massives (big data). Ces infrastructures sont souvent déployées pour des projets de surveillance nationale.


Exemples concrets :


Chine* : En 2024, un scandale éclate lorsqu’il est révélé que des GPU Nvidia étaient utilisés dans le système de surveillance sociale chinois. Ce système suit les comportements des citoyens, attribue des "scores sociaux" et restreint les libertés en cas de "mauvaise conduite".


Occident** : Les GPU sont également utilisés dans le cadre de la sécurisation des grands événements. La France expérimente des ‘‘caméras augmentées’’ pour signaler, en temps réel, aux opérateurs ‘‘vidéo’’ des situations inhabituelles prédéterminées. Ce dispositif a été déployé pour la sécurisation des JO Paris 2024, dans un cadre juridique clair et préservateur des libertés interdisant expressément la reconnaissance faciale et toute forme de recoupement avec des fichiers. 


Nous devons retenir ici que toutes ces technologies, bien que neutres en elles-mêmes, peuvent être détournées pour violer le droit à la vie privée. L’accès à des algorithmes d’apprentissage automatique, souvent optimisés pour Nvidia ou AMD, donne aux gouvernements et aux entreprises privées des outils puissants pour surveiller, profiler et influencer les individus.


Sans oublier que lorsque ces technologies sont mal utilisées, elles dépassent leur but initial et deviennent des outils d’ingérence directe dans les vies privées.


*Sources : Jade EMY de developpez.com

**Sources : Ministère de l’Intérieur Français



 La politique de sanctions et la géopolitique des semi-conducteurs 


En 2015, en 2021, 2 fois en 2022 et 2024 les États-Unis imposent des restrictions sur l’exportation de GPU avancés* vers la Chine, citant des raisons de sécurité nationale. Le dernier bloc de restrictions inclut les processeurs Nvidia A100 et H100, essentiels pour entraîner des modèles d’IA complexes. AMD est également affecté par ces restrictions.


Il faut bien comprendre que ces restrictions, bien qu’encadrées par les lois américaines, posent des questions sur leur conformité avec les principes de l’Organisation Mondiale du Commerce (OMC). Elles constituent une forme d’ingérence dans le développement économique d’un concurrent global.


Sans oublier que si ces restrictions empêchent effectivement l’accès de la Chine à des technologies critiques, elles nuisent également aux entreprises américaines qui perdent un marché lucratif, montrant les limites de cette approche.




 Les logiciels sources et la souveraineté technologique 


Les logiciels propriétaires, comme CUDA pour Nvidia, limitent la souveraineté technologique des pays. Si une nation souhaite développer ses propres applications d’IA ou d’apprentissage automatique, elle est contrainte de rester dépendante des infrastructures américaines.


Exemple concret :


En 2020, la France lance avec l’Allemagne un programme ambitieux pour développer un Cloud Souverain Européen* (infrastructure de données européenne), le GAIA-X.


En 2024, L’Autorité de la concurrence publie un Rapport sur l’IA Générative* soulevant des ‘‘préoccupations relatives à la dépendance du secteur envers le logiciel de programmation de puces CUDA de Nvidia (seul environnement parfaitement compatible avec les GPU devenus incontournables pour le calcul accéléré)’’.


Cependant, faute d’alternatives viables à CUDA, elle doit collaborer avec Nvidia, ce qui limite sa capacité à développer une solution entièrement indépendante.


Il est important de comprendre ici que le monopole de Nvidia sur certaines technologies entrave les efforts des pays pour garantir leur indépendance technologique.


Mais aussi que l’utilisation de logiciels propriétaires soulève des problèmes de dépendance excessive, particulièrement pour les infrastructures critiques comme les systèmes militaires, les réseaux électriques, ou les hôpitaux.


*Sources : les Échos.

**Sources : Autorité de la Concurrence.



  Un équilibre fragile entre innovation et ingérence


Aujourd’hui, Nvidia et AMD illustrent la double nature des technologies modernes : elles sont à la fois des moteurs d’innovation et des vecteurs d’influence. Cela pourrait se résumer en 3 points :


  • D’une part, avec un degré d’ingérence économique élevé, en raison de pratiques monopolistiques qui limitent la concurrence et imposent des dépendances ;


  • D’autre part, avec un degré d’ingérence dans les libertés individuelles à géométrie variable allant de ‘‘modéré’’ à ‘‘élevé’’ et dépendant des politiques des gouvernements qui utilisent ces technologies.


  • Et enfin, avec un degré de proportionnalité graduelle quant à l’utilisation légitime des GPU liés aux abus potentiels dans les domaines de la surveillance sans oublier les possibles restrictions économiques déloyales tous azimuts, montrent ici la nécessité d’un encadrement plus strict et éthique.


Pour éviter que cette ingérence ne devienne incontrôlable, des régulations internationales sur la gouvernance technologique et les droits numériques sont cruciales. Nvidia et AMD ne sont pas seulement des entreprises, mais des acteurs géopolitiques. Leur influence façonne non seulement le marché, mais aussi la liberté et la souveraineté des nations.


Entre compétition technologique, tensions géopolitiques et défis environnementaux, le futur des semi-conducteurs redéfinira les équilibres globaux. Il semble inéluctable que la maîtrise de ces technologies sera la clé pour façonner l’avenir de notre civilisation voulu par ‘os dirigeants mondiaux."


Conclusion


Nvidia et AMD ne sont plus seulement des entreprises ; elles sont devenues des symboles de puissance et des leviers d’influence mondiale. Nvidia est devenue la 1ere capitalisation boursière mondiale en juin 2024, une valorisation portée alors à 3 335 milliards de dollars.


Aujourd’hui, elle maintient sa 1ere position avec une capitalisation boursière de 3 572 milliards de dollars à la suite des dernières annonces de Donald Trump et son plan d’investissement de 500 Md € dans l’IA (le projet Stargate). Mais cela va-t-il durer ?


La capitalisation boursière d’AMD s’élève quant à elle à 199 milliards de dollars. Avec des chiffres d’affaires combinés atteignant les 80 milliards de dollars et des investissements stratégiques massifs, leur rôle dans l’économie mondiale est inéluctable. L’association d'AMD avec le chinois DeepSeek contre Nvidia peut-il rebattre les cartes du podium ?


Entre compétition technologique, tensions géopolitiques et défis environnementaux, le futur des semi-conducteurs redéfinira les équilibres globaux. Il semble inéluctable que la maîtrise de ces technologies sera la clé pour façonner l’avenir de notre civilisation voulu par ‘‘nos dirigeants mondiaux’’.


En ce 28 janvier 2025, trois questions persistent dans notre actualité :

 

  • Comment Nvidia, Elon Musk et Donald Trump préparent l’avenir avec le mystérieux projet Stargate ?


  • Après une chute de près de 16% de l’action Nvidia en ce lundi 27 janvier faisant suite à l’annonce d’une IA révolutionnaire sur le marché, comment le Chinois DeepSeek associé à AMD vont tous deux pouvoir s’imposer sur ce marché et écraser Nvidia et ChatGPT ?


  • Après 4 ans de préparation, est-ce que le plan impérialiste de Trump peut vaciller ?

 

Ne laissez pas vos projets attendre ! Faites appel à un ingénieur patrimonial Arturo Wealth Management pour transformer vos ambitions en réalité. Ensemble, nous bâtirons un avenir solide et prospère, adapté à vos rêves et à vos besoins !


RDV Consultation Patrimoniale


bottom of page