B. UNE INDUSTRIE PARADOXALEMENT FRAGILE
L'histoire industrielle, pourtant très récente, de la microélectronique est jalonnée d'autant de succès économiques et financiers qu'en leur temps celles des chemins de fer ou de l'électricité.
Pourtant, ce secteur économique, dont la croissance moyenne est de 15 % par an depuis une trentaine d'années, et qui irrigue en aval, de façon décisive, non seulement l'industrie mais également les services, est paradoxalement fragile.
Cette fragilité résulte principalement des conditions de constitution de son offre et de sa confrontation avec une demande mondialisée et très aléatoire.
Ceci induit des situations très mouvantes, tant entre nations qu'entre entreprises, et exacerbe les tentations de concentration.
1. Les données de la confrontation de l'offre et de la demande
a) Les contraintes pesant sur l'offre : la malédiction de la loi de Moore ?
La prophétie de la loi de Moore , évoquée en introduction, s'est à peu près vérifiée : le premier microprocesseur contenait 4 000 transistors, les plus récents en regroupent, sur une même surface, près de 80 millions.
Mais cette mise en perspective, qui a depuis trente ans imprimé une dynamique technologique impressionnante au secteur, porte en elle-même ses limites :
- le renchérissement parallèle des coûts de fabrication, c'est-à-dire de recherche, de développement technologique et de production (que Moore avait également envisagé),
- le dépassement de l'homme par la vitesse de la technologie qu'il met en oeuvre, qui se traduit par des problèmes de conception et de formation et d'usages.
La croissance quasi-exponentielle des coûts
- Les coûts de recherche et de développement
La chaîne, classique dans les productions de haute technologie, « recherche académique/développement technologique/recherche appliquée » est extrêmement intégrée dans la filière microélectronique.
C'est une des raisons du succès de ce secteur depuis trente ans, mais c'est également aujourd'hui une source de problèmes.
Car cela signifie que les industries du secteur doivent simultanément :
- améliorer l'ingénierie de production de la génération de puces en fabrication,
- assurer le développement de la génération suivante à un horizon de 3 à 4 ans auparavant et de 2 à 3 ans maintenant ,
- et canaliser les efforts de recherche fondamentale pour préparer les générations ultérieures.
Il en résulte que le pourcentage de chiffre d'affaires directement réinvesti dans la recherche-développement par le secteur est de l'ordre de 15 % - ce qui en fait un des plus élevés de toute l'industrie.
A eux seuls, par exemple, en 2001, les fabricants américains de semi-conducteurs ont exposé pour 12 milliards de $ de dépenses 6 ( * ) de recherche-développement.
Ce coût de recherche-développement a tendance à s'accroître très rapidement en valeur absolue.
Par exemple, en quinze ans, les dépenses de recherche-développement de très grands fabricants européens sont passées de 250 millions à 2.500 millions d'euros, soit une progression d'un facteur dix.
Cette pesée sur les coûts amont est amplifiée par deux phénomènes :
tout d'abord , l'accélération des séquences menant de la recherche au développement technologique et du développement technologique à la production. A titre d'illustration, les grandes entreprises de semi-conducteurs commencent à mettre en oeuvre des lignes de production de microprocesseurs avec des transistors de taille de section de 130 nm, mais doivent en même temps investir dans la prochaine génération de 90 nm qui commencera à être mise en oeuvre d'ici deux ans, et préparer à l'horizon 2006-2007 la génération des 70 nm.
De fait, on assiste, depuis 1995, à une accélération des sauts technologiques qui n'interviennent plus tous les trois-quatre ans, mais plutôt tous les deux-trois ans. Avec les dérives de coût que l'on peut imaginer.
ensuite , il est clair qu'au fur et à mesure que l'on va vers le toujours plus petit, les coûts augmentent du fait de la sophistication croissante des équipements et de la nécessité d'augmenter les équipes de chercheurs et de développeurs pour faire face à des contraintes physiques de plus en plus diversifiées.
Cette poussée des charges de recherche a une conséquence indirecte assez préoccupante : elle pèse tout autant sur les coûts des recherches publiques menées très en amont et sur ceux des développements technologiques.
A titre d'illustration, le coût estimé des équipements de base d'un laboratoire (par exemple une « salle blanche » dont les fluides doivent être vierges d'impureté, coûte au moins un million d'euros pour 100 m², un appareil de lithographie élémentaire de 2 à 3 millions d'euros). Les frais de fonctionnement de ce type d'installation sont du même ordre de grandeur. Mais il ne s'agit que des équipements de base d'une unité de recherche simple.
Pour donner une idée de ce que coûte réellement une très grande unité de recherche et de développement technologique de dimension internationale , on peut citer l'exemple du centre de recherche et de formation en nanotechnologies en voie de constitution auprès de l'université d'Albany, dans l'État de New-York. Le coût des bâtiments est de l'ordre de 250 millions d'euros, mais le coût des équipements qu'il est prévu d'y implanter est évalué entre 1 milliard d'euros (hypothèse basse) et 1,5 milliard d'euros (hypothèse haute) .
- Des lignes de production de plus en plus chères
Les contraintes de production sont de plus en plus lourdes.
Le rapport fait figurer en annexe de cette étude le détail du processus de production des microprocesseurs.
Pour fabriquer un disque de 300 mm sur lequel sont imprimés près de deux milliards de transistors sur 250 microprocesseurs, il est nécessaire que celui-ci fasse l'objet de 700 opérations différentes, qu'il soit aplani avec des tolérances de l'ordre d'un Angström (10 -10 m), soumis à des fluides dont les taux d'impureté admissibles sont de l'ordre du milliardième, testé à chaque stade de l'élaboration du produit, et que la moindre poussière dans des objets dont la taille approche le dixième de micron peut aboutir à porter au rebut toute une journée de production.
Ce processus de production dure de 4 à 8 semaines. N aturellement, au fur et à mesure que la taille des composants se réduit, le cahier des charges de production de l'infiniment petit s'épaissit : les coûts des équipements sont à l'échelle des défis technologiques qu'ils sont destinés à surmonter.
La visite de Crolles le confirme. Cette usine, qui est l'une des plus modernes du monde, fabrique près de Grenoble des disques de 300 mm. Les appareils de photolithographie destinés à une seule étape du processus de fabrication y coûtent 20 millions d'euros l'unité , et il en faut plusieurs dizaines .
Autre exemple, les masques servant à cette photolithographie, et que l'on doit changer périodiquement, coûtent 100 000 euros pièce et la fabrication d'un circuit intégré nécessite 30 masques différents.
De ce fait, en plus des 15 % du chiffre d'affaires de réinvestissement dans la recherche, le secteur provisionne en moyenne annuellement 20 % de ce chiffre pour le passage de ces installations de production d'une génération à l'autre.
Ceci explique que les courbes de coût de ces installations sont très ascendantes.
Une usine servant à fabriquer des disques de 200 mm coûtait 1,5 milliard de $ en 2000, en 2003 pour des disques de 300 mm le coût correspondant sera de 2,5 milliards de $ et en 2010, pour des unités de 450 mm 7 ( * ) , de l'ordre de 6 milliards de $. Soit, dans ce dernier cas, le coût de quatre centrales nucléaires.
L'intensité capitalistique de cette industrie peut également se mesurer par la répartition directe des coûts d'exploitation d'une usine de 300 nm :
- le matériel de production y représente 7 % des charges,
- le personnel et les services externalisés 22 %,
- l'amortissement des bâtiments 4 %,
- et l'amortissement de l'équipement 67 %, soit plus des deux tiers des coûts d'exploitation .
Le risque de surpassement des hommes par les technologies qu'ils mettent en oeuvre
La course à la puissance miniaturisée, constante et presque acharnée, du secteur de la microélectronique a été une réussite. Elle s'est adossée à une intensité capitalistique croissante.
Mais le succès de cette démarche a créé des goulets d'étranglement humains qui sont, à terme, autant de facteurs de fragilité. Et en particulier ceux qui ont trait à la CAO (la conception assistée par ordinateur) et à la formation des personnels.
Cette évolution est préoccupante car le capital financier n'est plus le seul facteur de production. La gestion de la connaissance devient tout aussi décisive.
- Les incertitudes de la CAO
En amont de la fabrication proprement dite des microprocesseurs, leur configuration est établie grâce à une conception assistée par ordinateur (CAO).
Pour aboutir à la création des masques nécessaires à la fabrication, celle-ci doit assurer plusieurs opérations :
• Au niveau élémentaire : Ø Simuler le comportement individuel des transistors : tensions, intensités, charges, délais, etc. car il existe plusieurs formes de transistors Ø Simuler le comportement des interconnexions et interactions • Et au niveau collectif : Ø Définir les spécifications des circuits Ø Définir l'organisation et simuler mathématiquement le comportement collectif des : ü dispositifs élémentaires : portes et/ou/non, point mémoire, etc. ü dispositifs analogiques de base : convertisseurs numérique/analogique, dispositifs de filtrage ü ensembles complexes : cellules (Unité arithmétique et logique, mémoire cache, décodeur, etc.) ü microprocesseurs et systèmes sur puce : simulations de fonctionnement complet, y compris le logiciel. |
Pour imaginer la complexité de cette activité, il faut savoir qu'un microprocesseur est 10 000 000 de fois plus petit que Paris, mais qu'il doit intégrer, sur une surface d'1,4 cm 2 , les mêmes implantations d'habitation et de fonctionnement (voiries, fluides, galeries souterraines, transports, etc.) que la ville toute entière.
Cette activité de la CAO est essentielle, et il est capital qu'elle soit conduite avec exactitude.
Une erreur majeure et non détectée dans la conception peut avoir pour effet de retarder la mise en oeuvre d'une ligne de production coûtant plusieurs milliards d'euros, comme c'est arrivé il y a quelques années à un des plus grands industriels du secteur.
Or, la conception assistée par ordinateur enregistre des retards inquiétants. Et son taux d'erreur est devenu plus élevé en modélisation qu'en prototypage de production.
En premier lieu, sa vitesse de réaction est médiocre . Ceci se traduit par une accumulation d'architectures déjà anciennes qui font qu'une partie des progrès de puissance dus à la miniaturisation technologique sont absorbés par la redondance et l'obsolescence des architectures.
Ensuite, sa productivité est insuffisante . Elle ne croît que de 20 % par an alors que le taux de complexité des technologies auxquelles elle s'applique croît de 58 % par an.
Ceci s'explique par le fait que cette activité est très consommatrice en moyens financiers (les grandes entreprises investissent autant sur la recherche en CAO que sur les recherches en technologie) et en hommes (on estime, par exemple, que si la conception proprement dite d'un microprocesseur mobilise 100 ingénieurs par an, la modélisation de celui-ci en mobilise plus du double).
La question se pose désormais de savoir si la CAO pourra suivre le rythme de progression de la technologie, parce qu'il ne sera pas possible, faute de ressources suffisantes, de poursuivre la progression géométrique des recrutements d'ingénieurs dans cette spécialité.
Dans un proche avenir, les difficultés de la CAO risquent de se multiplier .
D'une part , parce que dans le domaine des composants numériques la réduction continuelle de la taille des composants accroît plus que proportionnellement les défis de leur modélisation.
S'il est déjà difficile de modéliser l'architecture de microprocesseurs où l'on place 32 000 transistors sur la surface d'une section de cheveu, on conçoit que cette tâche ne va pas être simplifiée par le doublement ou le triplement de ces implantations.
Ainsi, la diminution de l'épaisseur des traits de gravure des masques fait qu'ils deviennent de plus en plus difficiles à modéliser. De même, la prise en compte des phénomènes thermiques devient plus aléatoire.
D'autre part , parce que la montée des microsystèmes et systèmes sur puce rend la conception de circuits de plus en plus difficile et de plus en plus exigeante.
Au-delà des interfaces classiques qu'il doivent modéliser (par exemple celle du silicium et de ses supports), les logiciels sont appelés à modéliser non seulement l'architecture des fonctions des microprocesseurs et leur comportement propre, mais également les interfaces de l'ensemble du microsystème (matériel/logiciel, analogique/numérique).
Les architectures de circuits et de systèmes sont de plus en plus appelées à s'imbriquer.
Or, si la modélisation des composants numériques - en dépit des incertitudes et des imperfections qui ont été relevées - est relativement automatisée, celle des terminaux analogiques ou des périphériques à l'échelle micrométrique (capteurs de pression et de chaleur, transpondeurs, etc.) s'effectue de façon trop artisanale, avec des coûts très lourds en productivité.
La formation des hommes
Les missions accomplies aux États-Unis et au Japon ont confirmé l'acuité d'un problème qui devient de plus en plus inquiétant : le déficit en formations scientifiques des grandes économies mondiales.
Ainsi, pour la seule Europe on estimait, en 2001, qu'il manquait 110 000 personnes dans les emplois qualifiés proposés par les secteurs de la haute technologie.
La baisse des vocations scientifiques est particulièrement préoccupante pour les grandes nations dont l'économie repose, en grande partie, sur les valeurs ajoutées technologiques de la production.
Il se décline, bien entendu, dans le secteur de la microélectronique.
En France, celui-ci a, par exemple, besoin de 800 ingénieurs de haut niveau (Bac+5 ou plus) par an. Ce chiffre correspond à peu près au nombre de formations dispensées par an par le Centre national de formation en microélectronique.
Mais l'appel de l'étranger (car le secteur est très largement mondialisé) et l'évasion vers des secteurs, plus rentables ou plus attractifs (commerce, banques), réduit le quota disponible de 50 %.
Les problèmes posés par ce déficit quantitatif se doubleront à terme d'une dimension qualitative.
La complexité croissante des systèmes, qu'il s'agisse du microsystème (pour lequel l'interface microélectronique/informatique se développe) ou des avancées des nanotechnologies (qui font de plus en plus appel à des compétences chimiques ou biochimiques ou biologiques) nécessite des formations interdisciplinaires de haut niveau.
Or, de façon assez logique, mais contradictoire, les systèmes d'enseignement supérieur sont plus conçus en fonction d'une spécialisation progressive que d'une intégration des savoirs .
À l'opposé, la multidisciplinarité des formations dispensées aux doctorants et aux ingénieurs va devenir de plus en plus nécessaire à la microélectronique.
*
* *
Au total, ce qui a fait la force du secteur de la microélectronique - rassembler des moyens humains et financiers de plus en plus massifs pour produire des composants de plus en plus puissants et de moins en moins chers pour des applications de masse - pourrait se transformer en faiblesse.
Les incertitudes financières et humaines qui pèsent sur la constitution de cette offre et risquent d'en entraver le rythme de progression pourraient se multiplier, du fait de sa confrontation avec une demande qui devient de plus en plus aléatoire.
b) Une demande traditionnellement heurtée et qui devient plus incertaine
des cycles de marchés très brutaux
Depuis la rupture du quasi-monopole américain au milieu des années soixante-dix, le secteur de la microélectronique a été un des premiers domaines d'activité largement mondialisés en recherche comme en production 8 ( * ) .
Il est donc entièrement soumis aux aléas de la demande mondiale et son cycle de recherche et de production, nous l'avons vu, est particulièrement long et coûteux.
Ces deux caractéristiques font de la microélectronique un secteur industriel plus soumis à l'aléa que la norme .
Entre le début du développement d'une nouvelle génération de « puces » et sa mise en ligne de production, il s'écoule plusieurs années, période pendant laquelle le risque financier est entièrement supporté par les fabricants.
Mais ce risque financier, déjà beaucoup plus lourd que dans d'autres activités, se double d'un risque industriel non négligeable.
Le moment de mise sur le marché peut être doublement décalé par rapport à la conjoncture mondiale, mais également par rapport aux marchés des produits qui incorporent des puces.
Dans la mesure où une des raisons du succès de cette industrie est d'être parvenue à irriguer de plus en plus les produits grand public, les conséquences de ce décalage sont de plus en plus importantes et, notamment dans les domaines de l'informatique et des télécommunications qui ont représenté, en 2000, plus des deux tiers des débouchés de l'industrie.
En outre, un des facteurs de succès dans cette industrie étant la rapidité de réaction aux demandes du marché, les ressauts de demande aboutissent à des surcapacités de production dont les conséquences sont très sévères lors des retournements de conjoncture .
Comme le montre le tableau suivant, le marché a connu depuis quarante ans de nombreuses crises :
|
Il est, au demeurant, assez difficile de caractériser ces crises sur de longues périodes ; elles ont été d'ampleur et d'intérêt très variables.
L'interrogation de cette série historique n'a pas qu'un intérêt rétrospectif, car après une croissance particulièrement spectaculaire en 2000 (204 milliards de $ de chiffre d'affaires), le secteur a connu une récession en 2001 et une stagnation en 2002, autour du chiffre d'affaires de 1999 (140 milliards de $). Ce ralentissement, qui a suivi la crise de surcapacité de 2001, va-t-il se poursuivre ?
Et la question se pose ici de savoir si le secteur - dont l'activité est naturellement liée aux tendances de l'économie mondiale - n'a pas également des cycles qui s'en différencient.
Le débat n'est pas académique car les coûts de recherche et de production ( cf. supra ) ont été multipliés par 7 depuis 1990, alors que le chiffre d'affaires du secteur n'a été multiplié que par 3,5 depuis cette date.
A ce rythme, il est nécessaire que la microélectronique puisse s'adosser à de nouvelles applications de masses relayant des usages qui semblent actuellement s'essouffler.
Un palier d'usages
Si l'on examine sur une longue période les écarts de croissance du chiffre d'affaires du secteur par rapport à sa tendance moyenne (+ 13 % 9 ( * ) par an), on s'aperçoit que ces écarts à la moyenne sont :
- synchrones avec les tendances lourdes de l'économie mondiale (par exemple le choc pétrolier et « stagflation » à la baisse ou, à l'opposé, à la hausse, la reprise américaine, puis mondiale),
- mais également concomitants, à la hausse, avec l'apparition de nouveaux produits (audio-vidéo dans les années soixante, puis PC) ou de nouveaux usages (Internet et téléphonie mobile), et, à la baisse, avec la saturation des marchés de ces produits.
La récession actuelle du secteur est imputable à la superposition d'un ralentissement de l'économie mondiale (qu'étant à la pointe du progrès, il accuse de façon plus accentuée) et à l'apparition d'un palier d'usages.
Certes, les professionnels du secteur estiment, à juste titre :
- qu'il existe des forts gisements potentiels de demande sur les marchés asiatiques, dont les populations nombreuses ne sont pas encore saturées d'ordinateurs et de téléphones,
- que le rythme d'amortissement (de l'ordre de 3 ans) de ces équipements sur les marchés saturés (États-Unis, Europe, Japon, Corée) restera un facteur d'activation, sinon de reprise marquée, de la demande,
- et que l'on assiste, peu à peu, à une substitution significative de nouveaux produits numériques aux produits analogiques (DVD, photo numérique, musique numérique, caméscope numérique, etc.). Même si sur certains de ces secteurs (comme la musique), l'évolution est ralentie par certains acteurs qui n'arrivent pas à mettre en place un « modèle d'affaires » pertinent.
Mais ces espérances légitimes ne portent que sur les possibilités d'une sortie cyclique, somme toute classique après chaque ralentissement de la demande .
Le palier d'usages qui affecte le secteur des microprocesseurs, ou plutôt ses clients directs des télécommunications, de l'informatique ou des industries électriques, est d'une toute autre ampleur.
Depuis au moins trente ans, la progression ordonnée du secteur des microprocesseurs a été assise sur le schéma suivant : la visibilité donnée à un terme de quatre à cinq ans, horizon de préparation d'une nouvelle génération de puces, permettait aux industries de concevoir et de préparer des applications de masses, dont le succès permettait à l'industrie des semi-conducteurs de préparer, à nouveau, la génération suivante.
Or, actuellement, les usages des équipements et des services de base, dont les succès de la microélectronique ont permis le développement (ordinateurs de bureau, téléphones mobiles, décodeurs, etc.) sont entrés dans les moeurs. À l'opposé, les biens d'équipement ou les services nouveaux, bien qu'annoncés, ne sont pas encore disponibles et, surtout, pas encore appropriés.
Le succès foudroyant de la téléphonie mobile s'explique très largement par la translation d'un usage fixe et acquis, correspondant à une double solvabilité, en argent et en temps.
C'est loin d'être le cas de la société de l'information et de son principal support, l'économie d'Internet 10 ( * ) .
Les transports ont connu trois révolutions technologiques en un siècle (chemin de fer, automobile et avion). Mais, à chaque fois, une latence de plusieurs dizaines d'années a été nécessaire pour que ces avancées fassent l'objet d'une appropriation de masse.
L'industrie des semi-conducteurs a effectué sept sauts technologiques majeurs en quarante ans ; le corps social les a absorbés assez rapidement.
Mais, aujourd'hui, le modèle sociologique de cette absorption, en fin de compte très rapide, vacille ou observe une pause.
Ce qui est proposé par les progrès de la microélectronique, ce n'est rien moins qu'une modification profonde de nos usages et de nos comportements.
On n'en donnera que deux exemples :
- le modèle d'une société reposant de plus en plus sur une symbiose de l'homme et de ses artefacts , dans des univers de plus en plus communiquants, préfigure l'avenir, mais n'est pas acquis : les produits correspondants n'existent pas et les structures sociales correspondantes ne sont pas prêtes. La lenteur relative de la mise en place de l'économie de l'Internet en est une illustration ;
- de même, il est probable que l'on n'a pas encore mesuré les conséquences, ni établi le cheminement de la constitution de ce qu'une des personnes entendues appelait le « quatrième secteur » , dédié à la production de biens immatériels comme le secteur des services, mais dont le caractère reproductible diminue le coût du facteur humain par rapport aux services.
2. Une hiérarchie mondiale traditionnellement très mouvante et actuellement caractérisée par une forte tendance à la concentration et à la diversification des métiers
a) La volatilité des hiérarchies
Lorsque l'on examine sur une longue période l'évolution du secteur, on s'aperçoit qu'aucune situation n'est acquise dans le terme.
- Par grandes régions géographiques
Ainsi, les États-Unis, qui assuraient 55 % de la production mondiale en 1978, n'en fournissaient plus que 37 % dix ans plus tard, pour recouvrer aujourd'hui une grande partie de leur position perdue.
A l'opposé, le Japon assurait 30 % de cette production en 1978, 50 % dix ans plus tard, et moins de 30 % en 2000.
Mais de façon assez surprenante - compte tenu des coûts d'accès technologique au secteur - celui-ci est perméable à l'intrusion de nouveaux arrivants. La zone asiatique (hors Japon) qui était quasiment absente du marché en 1985, en détient 10 % en 2000.
- Par entreprises
Les fluctuations de situation entre les grandes zones géographiques sont doublées d'allées et venues du même ordre entre entreprises :
Ainsi, derrière le leader incontesté (Intel), se profile un premier peloton de grandes entreprises généralistes avec des chiffres d'affaires très voisins (Toshiba, STMicroelectronics, Samsung, Texas Intel, NEC). Puis les autres compagnies s'éloignent rapidement, avec des parts de marché de plus en plus faibles. Il est à noter que seul Intel a plus de 5 % de parts de marché.
b) Deux tendances simultanées à la concentration et à la diversification des métiers
Le double impact de la crise et de la montée des coûts produit ses effets sur un secteur plus sensible que la moyenne aux variations de son environnement industriel et économique.
Deux tendances se dessinent : la concentration et la diversification des métiers.
La concentration
Jusqu'à la crise de 2001 , le secteur des semi-conducteurs se caractérisait par un affaiblissement de la concentration des acteurs .
Sur les deux dernières décennies, les parts de marché des 10 premières sociétés étaient tombées de 56,8 % en 1980 à 54,7 % en 1990, puis à 47,9 % en 2001.
Les parts de marché des 20 premiers opérateurs avaient enregistré le même mouvement : 81,2 % en 1980, 76,3 % en 1990 et 67,9 % en 2001.
Cette tendance est en passe de s'inverser.
Compte tenu des coûts actuels d'une usine de fabrication de disques de 300 mm, on estime que seules les sociétés qui possèdent un chiffre d'affaires annuel supérieur à 7 milliards de $ peuvent mettre en oeuvre les investissements correspondants.
Si on réfère cette donnée au chiffre d'affaires des principales sociétés mondiales en 2001, on s'aperçoit que seules les cinq premières sociétés répondaient à ce critère (étant précisé qu'à elle seule, la première de ces sociétés, Intel, y répond quatre fois, alors que les quatre suivantes ne font que s'en approcher).
Mais cette pesée sur les coûts se duplique d'une pesée sur les marges.
En effet, les principaux acheteurs de semi-conducteurs se regroupent. En 1980, ils représentaient 30 % des achats, en 2001, 59 %, et on estime qu'en 2007 ils représenteront 88 % de ces achats.
Cette concentration a pour conséquence l'altération des marges des fabricants.
La crise, la nécessité de maintenir des dépenses de recherche-développement et de production à un niveau élevé, et la pesée sur les marges poussent à la concentration.
Indirectement, tout d'abord , puisqu'il est probable que l'équation économique qui résulte de ce mouvement aboutira à l'élimination d'un certain nombre d'acteurs du marché.
Directement ensuite , car les fabricants de composants mutualisent les risques de recherche-développement et commencent à mettre en commun leurs ressources pour monter des lignes de production.
Il existe déjà une alliance internationale, la SEMATECH (cf. 2 e partie), qui a pour objet d'identifier les obstacles scientifiques et technologiques à la progression du secteur et dirige certains centres de recherche coopératifs.
Mais des alliances plus explicites se développent, comme celle conclue entre MTMicroelectronics, Philips et Motorola - en liaison avec le fondeur taïwanais TSMC autour de la plate-forme de Crolles et du pôle de recherche Minatec, animé à Grenoble par le CEA-LETI, et qui comprend des objectifs de mise en commun des développements technologiques comme d'installation de production.
Parallèlement à cette tendance à la concentration, se développe une autre tendance, apparemment contradictoire, à la diversification des métiers.
La diversification des métiers
Dans les années soixante, l'industrie des semi-conducteurs s'est développée conformément au modèle d'une intégration verticale totale.
Une société comme Motorola assurait alors en R&D la fabrication des équipements, le design complet des architectures, les tests, la production et l'encapsulage.
Depuis longtemps, pour répondre à la complexification du secteur, beaucoup de ces fonctions ont été externalisées : la conception et la fabrication des équipements, les logiciels de CAO ne sont pas, en majeure partie, assurés par les fabricants de composants.
Depuis quelques années, la structure elle-même des sociétés de fabrication de semi-conducteurs a fait l'objet d'évolutions divergentes.
Compte tenu de la hausse des coûts décrite antérieurement, de moins en moins d'acteurs sont en mesure d'assurer l'ensemble des opérations de recherche, de développement technologique et d'industrialisation.
Dès lors, à côté de ces sociétés se développent deux autres catégories d'intervenants :
Les « fabless », c'est-à-dire les sociétés qui ne possèdent plus en propre des lignes de production, parce qu'elles se sont transformées en prestataires de services technologiques, ou qu'elles font appel à des fondeurs (cf. infra).
Ces fonderies, extrêmement modernes, sont principalement installées à Taïwan, où deux entreprises, UMC et TSMC, détiennent 82 % du marché mondial pour un chiffre d'affaires de 5,5 milliards de $ en 2001 (contre 5 % pour la troisième société chartered, installée à Singapour).
Ce mouvement de diversification est doublement intéressant à relever :
d'une part du fait de son aire géographique principale, puisque les industriels taïwanais délocalisent à leur tour en République populaire de Chine, pays dont on estime qu'il deviendra à partir de 2010 le premier acheteur mondial de semi-conducteurs.
d'autre part, parce que le modèle taïwanais - qui s'est construit sur les aides exorbitantes des pratiques communes dans un secteur qui n'en est pas chiche indépendamment des proclamations libérales des uns et des autres - ne se limite pas aux seules fonderies, mais s'efforce de décliner la présence de ses entreprises dans une série de segments de la production (outre près des deux-tiers du marché mondial de la fonderie, les taïwanais ont près de 60 % du marché des masques ROM, 30 % du marché de l'encapsulage et 35 % du marché des tests).
Cela revient à dire que deux modèles de développement risquent, sinon de s'opposer, du moins de « cohabiter », à terme :
celui des très grands fabricants maîtrisant très en amont les développements technologiques, la conception et la fabrication des « puces »,
et celui d'une série d'intervenants prenant position sur tel ou tel maillon de la chaîne afin d'en capter des éléments de valeur ajoutée.
* 6 Soit une somme supérieure aux 8,7 milliards d'euros du budget de la recherche publique en France en 2002.
* 7 La recherche de fabrication de disques de plus en plus grands a pour objet de réduire les coûts de production (de l'ordre de 30 % entre une fabrication de disques de 200 mm et de 300 mm), puisque pour le même nombre d'opérations (environ 700), la production de microprocesseurs croît. Elle suppose un renouvellement de l'ensemble des appareils de production, et donc une forte augmentation des coûts fixes de production.
* 8 Le prix au kilo des microprocesseurs est particulièrement élevé (1 500 €), ce qui rend ses charges de transport marginales.
* 9 15 % par an de 1960 à 2000.
* 10 Un des chercheurs entendus par votre rapporteur sur les usages de l'Internet a relevé que 60 % des utilisateurs étaient désemparés, que le grand public utilisait un moteur de recherche tous les quinze jours et que la plupart des utilisateurs étaient désorientés par les changements très nombreux de présentation de ces moteurs de recherche.