Mémoire et puces pour l’IA : HBM4, 3D DRAM et le pari des acteurs européens
HBM4, 3D DRAM, matériaux 2D, neuromorphique, SiPearl, Axelera : comment la mémoire et les puces européennes se positionnent dans la course mondiale à l’infrastructure IA.
Les modèles d’IA ne manquent plus vraiment de FLOPS.
Ce qui les limite de plus en plus, c’est la mémoire : sa bande passante, sa proximité avec le calcul, les matériaux utilisés… et surtout qui contrôle la chaîne de production.
Aujourd’hui, la bataille pour l’IA se joue autant sur les HBM4 autour des GPU que sur les futurs matériaux 2D, les mémoires neuromorphiques et l’émergence de puces européennes comme SiPearl ou Axelera.
Dans cet article, on fait le point sur :
- l’évolution des mémoires pour l’IA (HBM, 3D DRAM, neuromorphique) ;
- les nouveaux matériaux qui arrivent dans les architectures ;
- et la vraie place des concurrents européens dans cette bataille.
1. IA & mémoire : pourquoi tout le monde parle de “mur de la mémoire”
Depuis 10 ans, les GPU et accélérateurs ont explosé en puissance de calcul.
Mais l’IA moderne (LLM, vision, recommender systems) est massivement limitée par la mémoire :
- bande passante : faire circuler des tera-octets de poids de modèles ;
- latence : éviter des allers-retours coûteux vers la RAM “loin du calcul” ;
- capacité : stocker des LLM entiers au plus près du processeur.
D’où trois grandes tendances :
- HBM (High Bandwidth Memory) collée aux GPU / CPU via 2.5D/3D packaging ;
- 3D DRAM et empilement vertical des couches mémoire ;
- À plus long terme : mémoires “non classiques” (memristors, 2D materials, neuromorphique).
La newsletter SemiAnalysis parle très clairement d’un “Scaling the Memory Wall” : on ne sait plus seulement faire des puces plus rapides, il faut craquer la mémoire pour continuer à accélérer l’IA (SemiAnalysis).
2. HBM4, HBM4E : la RAM surboostée qui nourrit les GPU d’IA
2.1. HBM aujourd’hui : un oligopole à 3 acteurs
La HBM (HBM3, HBM3E, HBM4…) est produite quasi exclusivement par :
- SK hynix
- Samsung
- Micron
D’après une analyse récente d’Astute Group, SK hynix détiendrait ~62 % du marché HBM, avec Micron qui a dépassé Samsung et une bataille qui se déplace désormais sur HBM4 (Astute Group).
Concrètement :
- HBM = piles de dies DRAM empilés en 3D, reliées à un die logique via TSV et interposer 2.5D ;
- on gagne un énorme débit par watt par rapport à la DDR ou à la GDDR classique.
2.2. HBM4 & HBM4E : ce qui arrive pour les GPU/TPU de 2026–2028
Quelques signaux récents :
- Micron a annoncé des échantillons de HBM4 avec
2,8 To/s de bande passante et des vitesses par pin > 11 Gbit/s, au-dessus du standard JEDEC, ce qui le place en tête sur les specs brutes (TechRadar Pro). - SK hynix affirme avoir fini le développement de HBM4, avec +40 % d’efficacité énergétique et des débits de l’ordre de 10 Gbit/s, la production de masse étant conditionnée par les qualifications des clients GPU (Astute Group).
- Selon TrendForce, la génération HBM4E (encore plus rapide) pourrait représenter 40 % du marché HBM dès 2027, Samsung et SK hynix visant une finalisation du développement dès le 1er semestre 2026 (TrendForce).
L’autre changement clé :
HBM4E pousse vers des “base dies” custom (logique sous la pile HBM) adaptés aux besoins de clients comme NVIDIA ou AMD, ce que Micron revendique comme un différenciateur majeur (SemiAnalysis).
👉 En clair :
la mémoire n’est plus un simple composant sur étagère, mais un bloc co-designé avec le GPU / NPU. C’est stratégique pour le futur des puces IA.
3. 3D DRAM & nouveaux matériaux : la réponse au mur de densité
HBM ne suffit pas : il faut aussi densifier la DRAM elle-même.
3.1. Vers la DRAM en 3D
En 2025, imec et l’université de Gand ont démontré la croissance de 120 paires de couches Si/SiGe sur des wafers 300 mm, une étape clé vers la DRAM véritablement 3D :
- 120 bilayers Si / Si\₀.₈Ge₀.₂ empilés verticalement,
- dépôt épitaxial contrôlé à l’échelle atomique,
- gestion fine des contraintes mécaniques (ajout de carbone, tuning du germanium) pour limiter les défauts.
Source : Tom’s Hardware et Semiconductor Engineering.
Le principe est similaire à la 3D NAND :
- au lieu d’étendre la DRAM sur la surface du die,
- on empile les cellules en hauteur,
- ce qui permet beaucoup plus de capacité à surface constante.
Pour l’IA, ça ouvre la voie à :
- des HBM et DRAM beaucoup plus denses,
- donc des GPU/CPU pouvant embarquer encore plus de mémoire directement dans le package.
3.2. 2D materials & nouveaux transistors (Imec, roadmap A7–A3)
Imec pousse aussi l’introduction de matériaux 2D (type MoS₂ et consorts) dans les transistors de logique :
- intégration dans des architectures CFET (Complementary FET)
- pour les nœuds A7 à A3 (au-delà du 2 nm),
- avec l’objectif de continuer à miniaturiser tout en gardant des transistors performants et peu énergivores.
Voir, par exemple, les articles d’Imec sur les 2D-FET et 2D-CFET dans leur roadmap logique (Imec, EE News Europe).
Les mêmes matériaux 2D sont aussi étudiés comme canaux de conduction pour la DRAM 3D, ce qui montre bien que logique, mémoire et matériaux se rapprochent.
4. Neuromorphique & mémoires non volatiles : le pari européen sur l’IA frugale
Au-delà de la HBM “classique”, l’Europe investit pas mal dans des approches plus radicales :
4.1. Mémoires neuromorphiques à base de matériaux 2D
Le projet européen ENERGIZE, cofinancé par l’UE et la Corée, vise à développer :
- des mémoires memristives, ferroélectriques et à grille flottante
- basées sur des matériaux 2D
- pour implémenter du hardware neuromorphique très basse consommation, adapté à l’edge computing et à l’IA embarquée.
Sources :
L’idée : ramener le calcul dans la mémoire elle-même (“in-memory computing”) en utilisant des dispositifs qui se comportent comme des synapses physiques, avec des transitions résistives ou ferroélectriques.
4.2. Pourquoi c’est important pour l’IA
À terme, ce type de mémoire permettrait :
- des inférences très peu énergivores sur des capteurs, montres, robots, véhicules ;
- de casser le modèle “tout GPU dans le cloud”, en ayant une IA plus distribuée, locale, résiliente.
On est encore loin de la production en volume, mais l’Europe a clairement des cartes à jouer sur ces sujets, car :
- elle est forte en science des matériaux et dispositifs (Imec, CEA-Leti, universités) ;
- la pression réglementaire et environnementale pousse vers des solutions plus sobres.
5. Les concurrents européens côté puces IA : où en est-on vraiment ?
On ne va pas se mentir :
sur la DRAM/HBM en volume, l’Europe est quasiment absente.
Le cœur du marché reste en Corée (Samsung, SK hynix) et aux États-Unis (Micron, Nvidia, AMD…).
Mais côté puces IA et écosystème mémoire, l’Europe bouge.
5.1. Le cadre : European Chips Act & critiques
L’European Chips Act vise à :
- renforcer l’écosystème semi-conducteurs en Europe,
- doubler la part de marché mondiale de l’UE à 20 % d’ici 2030,
- attirer des investissements publics/privés massifs via l’initiative “Chips for Europe” (Commission européenne, European-Chips-Act.com).
Un rapport de la Cour des comptes européenne (ECA) et plusieurs analyses (The Guardian, MoneyWeek, think tanks) restent cependant très critiques :
- objectif de 20 % jugé peu réaliste au vu des montants investis par TSMC, Samsung & co ;
- stratégie jugée fragmentée, lente, avec un risque de rester sur des nœuds ou segments “moyenne gamme” (ECA – Special Report 12/2025, The Guardian, MoneyWeek).
En parallèle, un rapport de SEMI Europe détaille les enveloppes budgétaires et projets pilotes financés dans le cadre de l’Acte, y compris les lignes pilotes et les investissements “first-of-a-kind” (SEMI Europe – Chips Act Report).
Bref :
👉 beaucoup de discours, des projets concrets, mais un retard structurel difficile à combler sur la DRAM/HBM.
5.2. SiPearl : processeurs HPC/IA européens avec HBM intégrée
SiPearl est probablement le cas européen le plus emblématique côté compute IA/HPC :
- processeur Rhea1, 80 cœurs Arm Neoverse V1,
- intégration de 4 stacks de HBM “in-package” + DDR5,
- design pensé pour les supercalculateurs EuroHPC et l’inférence IA (SiPearl – Rhea1, SiPearl – press release Rhea1).
Quelques infos intéressantes :
- selon EE Times, Rhea1 embarque plus de 64 Go de HBM, ce qui permet de loger des modèles LLM entiers dans la mémoire intégrée, sans aller chercher de la RAM externe pour certaines tailles de modèle (EE Times Europe) ;
- SiPearl a noué un partenariat avec Samsung pour la HBM de Rhea, ce qui souligne bien que l’Europe dépend toujours des géants de la mémoire pour ses processeurs (SiPearl – partenariat Samsung HBM).
SiPearl se présente aujourd’hui comme un designer fabless de processeurs souverains pour HPC, IA et data centers, avec un positionnement très assumé sur la souveraineté et la dualisation civil/défense (SiPearl press kit 2025).
5.3. Axelera AI : du edge à la data center
Axelera AI (Pays-Bas) est un autre acteur clé :
- initialement positionné sur des puces d’inférence edge (“Metis AIPU”) pour la vision, l’industriel, les smart cities (Axelera – site, Axelera-FAST – STEP) ;
- en 2025, Axelera annonce Europa, une AIPU (AI Processor Unit) délivrant jusqu’à 629 TOPS pour des workloads multimodaux du edge au data center (Axelera – Europa AIPU) ;
- la même année, l’UE lui accorde jusqu’à 61,6 M€ de subvention pour développer Titania, une puce data center pour l’inférence LLM basée sur RISC-V, dans le cadre de la stratégie européenne de “AI factories” (Reuters).
Axelera ne fabrique pas de mémoire, mais ses accélérateurs représentent un point d’ancrage pour :
- intégrer de la HBM / LPDDR de façon plus optimisée ;
- proposer une alternative européenne (au moins partielle) à certaines cartes d’inférence Nvidia/AMD.
5.4. Infineon, STMicro, NXP & co : les briques autour
En parallèle :
- Infineon investit dans une nouvelle méga-usine à Dresde (MEGAFAB-DD), soutenue par un aide d’État de 920 M€ validée par la Commission en 2025, pour produire une large gamme de puces (automobile, industriel, etc.) dans le cadre du Chips Act (Reuters).
- STMicroelectronics et NXP restent très forts sur l’automobile, la puissance, l’embarqué : autant de secteurs qui auront besoin de mémoire proche du calcul pour l’IA embarquée.
Ces acteurs jouent un rôle important dans la chaîne de valeur, même s’ils ne produisent pas directement la DRAM/HBM de demain.
6. Ce que ça veut dire pour l’IA… et pour l’Europe
6.1. À court terme : dépendance assumée sur la HBM asiatique
Soyons lucides :
- toute la HBM qui nourrit les GPU/TPU/NPUs IA vient de Corée ou des États-Unis ;
- les puces européennes comme Rhea1 dépendent de HBM Samsung / SK hynix / Micron ;
- l’Europe peut attirer des fabs (TSMC, Intel, etc.), mais reste très en retard sur la DRAM.
À court terme, la priorité réaliste pour l’UE, c’est plutôt :
- sécuriser des volumes (accords long terme, co-investissements, supply chain) ;
- développer des capacités d’assemblage/packaging avancé pour rester pertinente dans la chaîne.
6.2. À moyen/long terme : jouer la carte des matériaux & des niches IA
Là où l’Europe peut vraiment peser :
- Matériaux & dispositifs avancés
- 3D DRAM (Si/SiGe 120 couches d’imec et Ghent) ;
- matériaux 2D pour transistors et mémoires (Imec, Max Planck, ENERGIZE, etc.) ;
- memristors, neuromorphique, in-memory computing.
- Accélérateurs IA spécialisés
- edge (Axelera, Kalray, autres startups),
- HPC/LLM (SiPearl, projets EuroHPC),
- domaines régulés (santé, défense, énergie) où la souveraineté compte plus que le simple prix par TFLOP.
- Packaging et intégration système
- 2.5D/3D, advanced packaging, co-intégration logique/mémoire ;
- architecture de systèmes où l’Europe garde une forte expertise (automobile, avionique, spatial, énergie).
Si les grands acteurs asiatiques courent la course à la HBM4/HBM5 généraliste, l’Europe peut gagner sur des architectures plus verticales, ultra optimisées pour certains cas d’usage, avec des contraintes de souveraineté, d’efficacité énergétique ou de durabilité.
7. Pour les fondateurs, ingénieurs & décideurs européens
Si tu construis des produits ou des infrastructures autour de l’IA, quelques points à garder en tête :
- Comprendre la roadmap HBM
- HBM3E → HBM4 (2026) → HBM4E (2027+) avec de la customisation base-die ;
- ça impacte directement le coût et la disponibilité de tes futurs GPU/NPUs.
- Regarder les puces européennes comme des options sérieuses
- Rhea1 / Athena1 (SiPearl) pour certains workloads HPC/IA souverains ;
- Axelera (Metis, Europa, Titania) pour l’edge et l’inférence.
- Suivre de près les innovations mémoire/matériaux
- 3D DRAM & 2D materials ne sont pas encore dans ton datacenter,
- mais ce sont potentiellement les briques des architectures IA de la prochaine décennie.
- Participer à l’écosystème Chips Act / EuroHPC / STEP
- programmes de cofinancement,
- accès à des AI factories publiques,
- place de test pour des architectures expérimentales.
8. À retenir
- L’IA est de plus en plus limitée par la mémoire : bande passante, densité, proximité avec le calcul.
- HBM4/HBM4E vont dominer les GPU/TPU/NPUs de 2026–2028, avec plus de customisation et un marché toujours contrôlé par SK hynix, Samsung et Micron.
- Des travaux comme la 3D DRAM à 120 couches (imec + Ghent) ou les mémoires neuromorphiques basées sur matériaux 2D (ENERGIZE) préfigurent les générations suivantes de mémoire pour l’IA.
- L’Europe reste très en retrait sur la DRAM en volume, mais se positionne sur :
- les processeurs IA/HPC souverains (SiPearl, Axelera),
- les matériaux avancés et les architectures neuromorphiques,
- le packaging et les systèmes orientés secteurs régulés.
La vraie question, côté européen, n’est pas seulement :
“Comment rattraper Samsung ou Micron sur la DRAM classique ?”
mais plutôt :
“Sur quels types de mémoire et de puces IA spécialisées voulons-nous être incontournables d’ici 2030 ?”
Sources
- SemiAnalysis – Scaling the Memory Wall: The Rise and Roadmap of HBM
https://newsletter.semianalysis.com/p/scaling-the-memory-wall-the-rise-and-roadmap-of-hbm - Astute Group – SK hynix holds 62% of HBM, Micron overtakes Samsung, 2026 battle pivots to HBM4
https://www.astutegroup.com/news/general/sk-hynix-holds-62-of-hbm-micron-overtakes-samsung-2026-battle-pivots-to-hbm4 - TrendForce – HBM4E Seen Hitting 40% of 2027 Market; Samsung, SK hynix Reportedly Aim for 1H26 Completion
https://www.trendforce.com/news/2025/11/13/news-hbm4e-seen-hitting-40-of-2027-market-samsung-sk-hynix-reportedly-aim-for-1h26-completion - TechRadar Pro – Micron takes the HBM lead with fastest ever HBM4 memory with a 2.8TB/s bandwidth
https://www.techradar.com/pro/micron-takes-the-hbm-lead-with-fastest-ever-hbm4-memory-with-a-2-8tb-s-bandwidth-putting-it-ahead-of-samsung-and-sk-hynix - Tom’s Hardware – Next-generation 3D DRAM approaches reality as scientists achieve 120-layer stack…
https://www.tomshardware.com/tech-industry/next-generation-3d-dram-approaches-reality-as-scientists-achieve-120-layer-stack-using-advanced-deposition-techniques - SemiEngineering – Epitaxial growth of up to 120 Si/SiGe bilayers in view of 3D DRAM applications (imec, Ghent Univ.)
https://semiengineering.com/epitaxial-growth-of-up-to-120-si-sige-bilayers-in-view-of-3d-dram-applications-imec-ghent-univ - Imec – Introducing 2D-material based devices in the logic scaling roadmap
https://www.imec-int.com/en/articles/introducing-2d-material-based-devices-logic-scaling-roadmap - ENERGIZE project – Energy-efficient Neuromorphic 2D Devices and Circuits for Edge AI
https://energize-project.eu/
https://cordis.europa.eu/project/id/101194458 - European Commission – European Chips Act
https://digital-strategy.ec.europa.eu/en/policies/european-chips-act - SEMI Europe – Chips Act Report
https://www.semi.org/sites/semi.org/files/2025-11/SEMI_Chips_Act_Report_Full_Report.pdf - European Court of Auditors – Special report 12/2025 – The EU’s strategy for microchips
https://www.eca.europa.eu/ECAPublications/SR-2025-12/SR-2025-12_EN.pdf - The Guardian – EU microchip strategy “deeply disconnected from reality”, say official auditors
https://www.theguardian.com/business/2025/apr/28/eu-microchip-strategy-deeply-disconnected-from-reality-say-official-auditors - SiPearl – Rhea1 et communiqués
https://sipearl.com/rhea1
https://sipearl.com/wp-content/uploads/2024/05/PR_SiPearl_Rhea1_EN.pdf
https://sipearl.com/wp-content/uploads/2024/05/PR_SiPearl_partnership_Samsung_EN.pdf
https://sipearl.com/wp-content/uploads/2025/09/SiPearl_presskit_September_25.pdf - EE Times Europe – SiPearl tapes out Rhea1 processor…
https://www.eetimes.eu/sipearl-tapes-out-rhea1-processor-closes-series-a-preps-series-b - Axelera AI – site & annonces
https://axelera.ai/
https://axelera.ai/news/axelera-announces-europa-aipu-setting-new-industry-benchmark-for-ai-accelerator-performance-power-efficiency-and-affordability
https://strategic-technologies.europa.eu/step-results/step-stories/axelera-fast-fast-fuelling-eu-ai-transformation_en - Reuters – Dutch chipmaker AxeleraAI gets €66m EU grant
https://www.reuters.com/technology/artificial-intelligence/dutch-chipmaker-axeleraai-gets-66-million-eu-grant-2025-03-06 - Reuters – EU approves €920m German aid for Infineon chips plant
https://www.reuters.com/technology/eu-approves-920-mln-euro-german-aid-infineon-chips-plant-2025-02-20