L’histoire des semi-conducteurs [Partie 1/3] : La révolution technologique
Les semi-conducteurs, ces composants omniprésents dans les appareils électroniques modernes, ont façonné le monde technologique, économique et géopolitique tel que nous le connaissons aujourd’hui. Leur histoire, débutant au milieu du XXe siècle, est une véritable épopée, mêlant avancées scientifiques, rivalités industrielles et enjeux stratégiques internationaux.
CULTURE
Matthieu D.
1/22/20259 min read
Dans ce premier article (d’une série de trois) basé sur le livre « La guerre des semi-conducteurs » de Chris Miller, Finance-Aces retrace pour vous l’histoire des semi-conducteurs, depuis leur création jusqu'à 2021, en décrivant leur évolution technologique et les entreprises qui ont marqué cette industrie.
Dans le deuxième article à paraître, Finance Aces vous présentera les enjeux géopolitiques autour de l’industrie des semi-conducteurs au XXe siècle. Le troisième article se concentrera sur la Chine et les enjeux géopolitiques actuels.
Pour les investisseurs, comprendre cette industrie et son histoire, c'est mieux anticiper les mouvements de ce secteur qui pèse aujourd'hui des milliers de millards de dollars en bourse au travers du secteur technologique et de valeurs porte-drapeaux tels que Nvidia, TSMC, Qualcomm, ASML, Intel, AMD, Apple et bien d’autres !


Émergence d'une nouvelle technologie
Des transistors aux circuits intégrés
Tout commença après la Seconde Guerre mondiale, lorsque les besoins en puissance de calcul augmentèrent, notamment pour des usages militaires (tir d'artillerie, aéronautique). Des calculateurs mécaniques à engrenages, puis électroniques reposant sur des tubes à vide, furent développés au milieu du XXe siècle (machine de Turing, ENIAC). Ces premiers calculateurs électroniques, bien que révolutionnaires pour leur époque, utilisaient des tubes à vide encombrants et inefficaces.
La situation changea en 1947, avec l’invention du transistor au Bell Labs par John Bardeen, Walter Brattain, et William Shockley, pionnier des matériaux semi-conducteurs. Plus petits et robustes, ces composants posèrent les bases d’une nouvelle ère technologique.
En 1958, Jack Kilby de Texas Instruments et Robert Noyce de Fairchild Semiconductor révolutionnèrent l’industrie en développant, de manière indépendante et parallèle, le circuit intégré. Celui-ci permettait de combiner plusieurs transistors sur une seule puce, marquant ainsi le début de la miniaturisation et de l’intégration des composants électroniques.
À la même époque, le chimiste Jay Lathrop eut l'idée d'inverser la lumière de son microscope pour la diriger sur un matériau semi-conducteur, afin d’imprimer un grand motif en petit sur du germanium. Il inventa ainsi la photolithographie, un processus clé dans la fabrication des semi-conducteurs. Cette technique permit de produire des puces miniatures contenant aujourd’hui des milliards de transistors gravés directement sur de minuscules surfaces de matériau semi-conducteur.
L’émergence de la Silicon Valley
La première société de semi-conducteurs, Shockley Semiconductor, fut fondée à Palo Alto par l’inventeur des matériaux semi-conducteurs, William Shockley. Cependant, ce dernier, bien qu’il fût un génie scientifique, se révéla être un gestionnaire et un manager exécrable. Quelques années plus tard, en 1957, huit jeunes ingénieurs démissionnèrent pour fonder une société appelée Fairchild Semiconductor. Parmi ces cofondateurs figuraient Gordon Moore, célèbre pour sa « loi de Moore » (qui prédit que le nombre de transistors sur un microprocesseur double tous les deux ans), Robert « Bob » Noyce, et Eugene Kleiner, qui fut plus tard à l’origine du fonds d’investissement Kleiner Perkins. Fairchild Semiconductor, aux côtés de Texas Instruments (TI), devint un pilier de ce qui allait bientôt être connu sous le nom de Silicon Valley.
Ces deux sociétés prospérèrent grâce à l’obtention de contrats avec le gouvernement américain. Fairchild décrocha un contrat avec la NASA pour fournir des calculateurs à semi-conducteurs destinés à la mission Apollo, ce qui permit aux États-Unis de rattraper une partie de leur retard dans la course à l’espace face à l’URSS. Texas Instruments, quant à elle, obtint un contrat pour concevoir l’ordinateur du missile Minuteman II, porteur de têtes nucléaires.
Au milieu des années 1960, Bob Noyce, chez Fairchild, comprit qu’il était nécessaire de se détacher de la dépendance aux contrats gouvernementaux, qui représentaient alors 95 % des débouchés pour les semi-conducteurs. Il eut l’idée de réduire drastiquement les prix de vente, quitte à vendre parfois à perte, afin d’attirer de nouveaux clients et de générer une demande croissante. Cette stratégie permit de créer un marché pour les applications civiles et d’élargir l’usage des semi-conducteurs au-delà du domaine militaire.
Peu de temps après, de nombreux employés entrèrent en désaccord avec les propriétaires de Fairchild et quittèrent l’entreprise. Parmi eux, Gordon Moore et Robert Noyce fondèrent en 1968 Intel, qui devint rapidement un acteur central de l’industrie des semi-conducteurs.
L’Amérique : terre d’innovation
Deux ans après sa fondation, Intel lança son premier produit : la puce mémoire DRAM (pour Dynamic Random Access Memory, ou mémoire à accès aléatoire dynamique). Cette technologie révolutionnaire permettait de stocker davantage de données de manière plus fiable. Encore aujourd’hui, elle constitue une pierre angulaire des systèmes de mémoire utilisés dans les appareils électroniques modernes.
Au début des années 1970, alors que chaque puce était conçue pour un usage précis et que les appareils fonctionnaient essentiellement avec du matériel sans ou avec peu de logiciels, Intel inventa le microprocesseur. Cette innovation marqua le développement des premières puces logiques généralisées, capables d’exécuter des instructions variées et d’être programmées pour différents usages.
Avant cette époque, les puces étaient conçues manuellement, au stylo et à la règle, avant d’être imprimées sur des filtres. Lynn Conway et Carver Mead réalisèrent que la conception de circuits plus complexes, nécessaire à la révolution numérique, demandait une approche algorithmique. Ensemble, ils élaborèrent un ensemble de règles pour automatiser la conception des puces.
Parallèlement, Irwin Jacobs, spécialiste des communications sans fil, identifia une limite critique : le spectre radio étant restreint, ne pouvait répondre à la demande croissante de communications. En 1967, son collègue Andrew Viterbi développa un algorithme complexe capable d’augmenter la capacité du spectre radio. Toutefois, cet algorithme nécessitait une puissance de calcul trop élevée pour être utilisé efficacement. Jacobs comprit que les puces électroniques pourraient résoudre ce problème et, avec Viterbi, fonda Qualcomm, une entreprise spécialisée dans les puces de communication sans fil.
D’autres entreprises émergèrent dans des domaines variés. Micron, fondée dans l’Idaho par deux frères, naquit à un moment difficile pour les fabricants américains, alors que beaucoup faisaient faillite face à la concurrence japonaise. Cependant, l’entreprise bénéficia du soutien de Jack Simplot, un milliardaire ayant fait fortune dans l’industrie de la pomme de terre. Simplot investit massivement dans la société et adopta une stratégie audacieuse : devenir le producteur de puces le moins cher tout en maintenant une qualité élevée, prenant ainsi les Japonais à leur propre jeu.
Durant cette période, Intel connut également des difficultés. Le marché des puces mémoires DRAM, devenu extrêmement concurrentiel, mit l’entreprise en péril. Face à cette crise, Intel prit une décision radicale : abandonner les puces mémoires pour se concentrer sur les microprocesseurs. Cette réorientation permit à l’entreprise de dominer presque entièrement le marché émergent des ordinateurs personnels, un positionnement stratégique qui transforma Intel en leader mondial des semi-conducteurs.
Les années 2000 : nouveau millénaire, nouvelles innovations
L’avènement des entreprises fabless
Dès la fin des années 1980, un nouveau modèle industriel émergea : les entreprises fabless. Ces sociétés se concentraient exclusivement sur la conception des puces et confiaient leur production à des fonderies spécialisées comme TSMC ou Samsung. Les fonderies, à leur tour, fabriquaient les puces conçues par leurs clients. Ce modèle permit de réduire les coûts de production tout en maximisant l’innovation, ouvrant ainsi la voie à de nombreuses start-ups dans l’industrie des semi-conducteurs.
Le monopole d’Intel et son déclin
Intel domina longtemps le marché des processeurs grâce à son architecture x86, omniprésente dans les PC et serveurs, qu’elle partageait en quasi-monopole avec AMD. Cependant, au début des années 2000, sous la direction de Paul Otellini, Intel privilégia le maintien de marges élevées au détriment de l’innovation. Bien que l’entreprise ait collaboré avec Apple pour fournir les processeurs des Macintosh, elle refusa de produire les puces pour le premier iPhone, jugeant le projet peu rentable et sous-estimant l’avenir des appareils mobiles.
Cette erreur stratégique fut une aubaine pour d’autres acteurs, comme Arm, de s’imposer. Arm, une start-up spécialisée dans l’architecture RISC (Reduced Instruction Set Computing), développa une alternative plus simple et plus économe en énergie par rapport à l’architecture x86. En vendant des licences de conception à des entreprises fabless, Arm favorisa une adoption massive de sa technologie, qui s’étendit à des secteurs variés, des smartphones aux consoles de jeux comme Nintendo. Selon Chris Miller, en 2022, « le marché des appareils mobiles consomme aujourd’hui près d’un tiers des puces vendues. »
La révolution des smartphones
L’arrivée des smartphones bouleversa l’industrie des semi-conducteurs sous l’impulsion d’Apple. Initialement, la société assemblait ses produits en s’appuyant sur de nombreux sous-traitants, notamment Samsung pour ses puces. Plus tard, Apple se lança dans la conception de ses propres processeurs, notamment avec l’A4 introduit dans l’iPhone 4, tout en continuant à collaborer avec des partenaires comme TSMC pour la production. Cette stratégie permit à la marque à la pomme de capitaliser sur son expertise en gestion de la chaîne d’approvisionnement (Supply Chain), tout en intégrant des technologies innovantes dans ses produits.
Nvidia et le traitement parallèle
D’autres entreprises prospérèrent également dans cet écosystème fabless. Nvidia, par exemple, se spécialisa dans les GPU (Graphics Processing Units), destinés initialement au traitement d’images 3D pour les jeux vidéo et l’informatique. Contrairement aux processeurs x86, qui exécutaient les tâches de manière séquentielle, les GPU étaient conçus pour effectuer de nombreux calculs simples simultanément, répondant ainsi à des besoins spécifiques.
Nvidia développa également CUDA, une plateforme logicielle permettant de programmer les GPU et de les adapter aux besoins des utilisateurs. Cette innovation ouvrit de nouvelles opportunités pour les GPU, qui trouvèrent des applications dans des domaines variés tels que la météorologie, la chimie et l’intelligence artificielle. Grâce à ces avancées, Nvidia devint un leader incontesté dans ces secteurs émergents.
À partir de la fin des années 2010, le marché des serveurs et des centres de calcul commença à se tourner massivement vers les GPU pour le traitement parallèle, marquant ainsi le déclin progressif d’Intel dans ces segments stratégiques.
La lithographie : l’outil fondamental
Petit retour en arrière pour comprendre une dimension essentielle des semi-conducteurs : l’industrie qui permet de les produire !
La lithographie, technologie centrale dans la fabrication des semi-conducteurs, repose sur un principe fondamental développé dans les années 1960 par Jay Lathrop : utiliser la lumière pour graver des motifs microscopiques sur une plaque de silicium. Ce processus, bien qu’il se soit complexifié au fil des décennies, conservait des bases inchangées. Une lumière traversait des masques et des lentilles pour imprimer des formes sur une plaque de silicium recouverte de résine photosensible. Cette résine réagissait à la lumière et, après lavage, laissait apparaître des sillons modifiant la conductivité du matériau, permettant ainsi de créer des circuits électroniques. Cependant, l’évolution de cette technique rencontra des défis majeurs, notamment pour suivre la loi de Moore en réduisant continuellement la taille des transistors.
Dans les années 1980, GCA Corporation dominait le marché de la lithographie. Pourtant, des problèmes internes, tels qu’une gestion inefficace et un service client médiocre, entraînèrent son déclin. Malgré le soutien du programme Sematech, créé par des industriels et le Département de la Défense des États-Unis pour revitaliser l’industrie des semi-conducteurs, GCA ne retrouva pas sa compétitivité et finit par faire faillite. Ce vide laissé par les entreprises américaines ouvrit la voie à de nouveaux acteurs.
Dans les années 1990, la réduction des longueurs d’onde devint cruciale pour améliorer la précision des gravures. La lumière ultraviolette extrême (Extreme Ultraviolet, EUV) s’imposa comme la solution, mais son développement représenta un défi technologique immense. Tandis qu’Intel investissait massivement dans cette technologie, d’autres entreprises, comme GlobalFoundries et les sociétés japonaises Nikon et Canon, renoncèrent à poursuivre l’EUV, laissant la petite société néerlandaise ASML prendre l’avantage. Ancienne filiale de Philips, ASML bénéficia de financements américains et établit des partenariats avec des géants comme TSMC.
Dans les années 2000 et 2010, la technologie EUV repoussa les limites de la physique. Produire des longueurs d’onde aussi petites nécessitait l’utilisation de lasers d’une puissance et d’une précision sans précédent pour frapper des gouttes d’étain qui réémettent des ondes EUV.
Le succès d’ASML repose également sur une chaîne d’approvisionnement mondiale complexe, impliquant des partenaires tels que Trumpf pour les lasers, Cymer pour les sources lumineuses, et Zeiss pour les optiques de précision. Bien qu’ASML ne produise que 15 % des pièces qui composent ses machines, elle détient aujourd’hui 100 % du marché des équipements lithographiques EUV.
Aujourd’hui, la lithographie EUV constitue le cœur de la production des puces les plus avancées. Elle illustre les efforts colossaux nécessaires pour suivre le rythme effréné de la miniaturisation, en repoussant toujours plus loin les frontières technologiques.
P.S. : Un grand merci à toi, Valérie, de m'avoir fait découvrir cet ouvrage.
Finance Aces
La connaissance enrichissante.
COntact
Newsletter
contact@finance-aces.com
© 2024. All rights reserved.