Sie sind auf Seite 1von 378

Gérard Dréan

L'industrie informatique
Structure, économie,
perspectives

(Masson, 1996)

i
Table
Table ..............................................................................................................ii
Introduction ....................................................................................................v
Quelques réalités des entreprises...............................................................vi
Mythes et idées reçues.............................................................................viii
Un modèle de l’industrie...........................................................................ix
A la recherche des lois de fonctionnement................................................xi
Structure de l’ouvrage.............................................................................xiii
Première partie
Les faits.................................................................................................................xvi
Chapitre 1
Naissance de l'industrie (1951-1968)..................................................................xviii
Les débuts (1951-1963).........................................................................xviii
Le 360 et la fragmentation du matériel (1964)......................................xxiii
Résumé.................................................................................................xxvii
Chapitre 2
Les crises d’adolescence (1968-1980).................................................................xxx
Le temps des procès (1968 - 1982).........................................................xxx
L'« unbundling » (1969-1972) et la fragmentation des services.........xxxiv
Remous dans le bas de gamme................................................................xlii
FS ou la fin d'une illusion (1971 - 1975)................................................xlvi
Vers la maturité (1976 à nos jours).......................................................xlviii
Chapitre 3
Une autre informatique apparaît (1975-1993)..........................................................l
Les débuts de la micro-informatique (1975-1981)......................................l
Le PC, un monde enfin ouvert....................................................................li
Le monde Unix........................................................................................lvii
Le panorama en 1993................................................................................lx
Chapitre 4
La structure de l'industrie......................................................................................lxii
Typologie des acteurs.............................................................................lxiii
Correspondance entre secteur et marché...............................................lxvii
Structure de dépenses et modèles d’entreprise.....................................lxxiii
Synthèse................................................................................................lxxvi
Conclusions.........................................................................................lxxvii
Chapitre 5
Structure et performances..................................................................................lxxix
Les taux de croissance...........................................................................lxxx
Profitabilités comparées.......................................................................lxxxi
Facteurs de profitabilité...........................................................................xci
Conclusions...........................................................................................xciii
Deuxième partie
Les matériels et les mécanismes économiques.....................................................xcv

ii
Chapitre 6
Les mécanismes économiques..........................................................................xcviii
Quelques notions d’économie industrielle.............................................xcix
La concurrence et les structures industrielles.........................................cvii
Les secteurs de l’industrie informatique.................................................cxii
Chapitre 7
Les composants, un secteur concentré..............................................................cxxiii
Historique............................................................................................cxxiii
Le segment et le secteur........................................................................cxxv
Les problèmes techniques....................................................................cxxvi
Economie de la production..................................................................cxxix
Concurrence, prix et parts de marché................................................cxxxiv
Perspectives...........................................................................................cxlv
Chapitre 8
Les matériels, un secteur dispersé..........................................................................cli
Historique.................................................................................................cli
Technologie et économie........................................................................cliii
Segmentation et options stratégiques.......................................................clv
Les caractéristiques du secteur.............................................................clviii
La miniaturisation et ses limites.............................................................clix
Evolution des structures industrielles......................................................clx
Un secteur en pleine santé....................................................................clxiii
Chapitre 9
La différenciation des entreprises........................................................................clxv
La personnalité des entreprises.............................................................clxvi
L’approche relativiste de l’organisation................................................clxxi
Personnalités et structure.....................................................................clxxx
Personnalités par secteur...................................................................clxxxiv
Troisième partie
L’immatériel.......................................................................................................cxcii
Chapitre 10
Le labyrinthe du logiciel et des services............................................................cxciv
Services et produits...............................................................................cxcv
Les diverses formes de logiciel...............................................................ccv
Conclusions..........................................................................................ccxiv
Chapitre 11
L'industrie du progiciel......................................................................................ccxvi
historique et situation..........................................................................ccxvii
Caractéristiques du secteur....................................................................ccxx
Les formes de progiciel......................................................................ccxxiii
Le développement des progiciels......................................................ccxxvii
Economie de la production et structure sectorielle...........................ccxxxii
Les acteurs du progiciel...................................................................ccxxxix
Résumé et perspectives.......................................................................ccxliii

iii
Chapitre 12
Les systèmes d’exploitation et la standardisation.............................................ccxlv
Fonctions et structure des systèmes d’exploitation.............................ccxlvi
Standardisation, innovation et concurrence............................................ccli
L’évolution des systèmes et la place d’Unix........................................cclvii
Perspectives........................................................................................cclxiii
Conclusions..........................................................................................cclxx
Chapitre 13
L’univers des services.......................................................................................cclxxi
Services en informatique et services informatisés............................cclxxiii
Les services de substitution et l’histoire du Service Bureau.............cclxxvi
Les services de support ..................................................................cclxxxiii
Le panorama des années 90.................................................................ccxcii
Conclusions........................................................................................ccxcix
Quatrième partie
Vers un nouvel ordre industriel............................................................................ccci
Chapitre 14
L’informatique éclatée.......................................................................................ccciv
Intégration et dés-intégration des entreprises........................................cccv
Dés-intégration et homogénéisation de l’industrie...............................cccix
Conclusion........................................................................................cccxxiv
Chapitre 15
Les mécanismes intégrateurs........................................................................cccxxvii
Les systèmes et le problème de l’intégration.................................cccxxviii
Partenariats et alliances................................................................cccxxxviii
Vers une recomposition ?...................................................................cccxlv
Conclusions..........................................................................................ccclii
Chapitre 16
Les frontières de l'informatique........................................................................cccliv
Les télécommunications....................................................................ccclxiv
L’évolution à long terme...................................................................ccclxxi
Annexe A
Tableaux des chapitres 4 et 5.......................................................................ccclxxvii
Catégories par spécialisation..........................................................ccclxxvii
Parts de marché...............................................................................ccclxxxi
Analyse par segment de marché.....................................................ccclxxxii
Structure de dépenses..................................................................ccclxxxviii
Croissance du chiffre d’affaires ..........................................................cccxc
Profitabilité par catégorie..................................................................cccxcii
Bibliographie.......................................................................................cccxcvii

iv
Introduction

Les origines de ce livre. Mythes et idées reçues. Un modèle de l’industrie. A la


recherche des lois de fonctionnement. Structure de l’ouvrage. Prolongements possibles.

Ce livre s’adresse à tous ceux qui ont le besoin ou le désir de comprendre le


fonctionnement de l’industrie informatique, qu’ils en soient eux-mêmes acteurs ou
qu’ils en utilisent les productions, ou qu’ils s’interrogent sur les impacts de cette
industrie sur la Société et sur la vie quotidienne. Je souhaite qu’il soit lu également par
ceux qui s’intéressent au fonctionnement des structures industrielles en général, en
espérant qu’ils pourront trouver dans mon approche et dans mes thèses des pistes
utilisables pour analyser d’autres pans de l’activité économique.

Le sujet central de ce livre est l’analyse des forces et des mécanismes qui
gouvernent en profondeur l’évolution de l’industrie informatique, afin de proposer une
grille de lecture des événements qui en font l’actualité ainsi qu’une perspective
raisonnée de son devenir. Son but est de montrer l’ordre caché derrière l’apparent
désordre actuel. A la lumière de quelques phénomènes technologiques et économiques
fondamentaux, il cherche à éclairer les mutations en cours et à venir de cette industrie,
l’évolution prévisible de ses produits et ses interactions avec le reste de l’économie.

Cet ouvrage n’est pas un nouveau livre sur les produits et les techniques
informatiques. Mais en analysant les stratégies des offreurs et la dynamique à laquelle
ils obéissent, il éclaire les motivations qui les poussent à transformer le potentiel
technologique en une offre de produits spécifique. A travers les contraintes qu’elle
impose aux acteurs et les opportunités qu’elle leur présente, la structure industrielle
détermine l’offre informatique. Les produits et services disponibles sur le marché
peuvent être analysés comme les instruments visibles de la concurrence entre firmes
productrices. Ils reflètent autant les motivations et les préférences de celles-ci que
l’action réputée impersonnelle de l’évolution technologique ou de la demande du
marché.

De la même façon, cet ouvrage n’aborde pas les questions liées à la mise en œuvre
et aux applications de l’informatique, ni à son influence sur l’économie ou la culture en
général. Mais par extension, en aidant à prévoir l’évolution des produits et des services
informatiques, il peut contribuer à éclairer l’évolution de leurs utilisations et plus
généralement de leur impact sur les autres industries et l’ensemble de notre cadre de vie.

Cet ouvrage se distingue également des ouvrages d'économie au sens habituel. On


n’y cherche pas à établir dans la rigueur scientifique de nouvelles lois susceptibles
d'application générale, mais on se contente d'utiliser de façon pragmatique les outils
proposés par d'autres pour comprendre la réalité d’un sous-ensemble particulier de
l'économie. Son originalité est peut-être d’utiliser de façon coordonnée des disciplines
généralement considérées comme disjointes.

v
Comparé à d’autres ouvrages d’économie industrielle, l’objet de celui-ci – une
industrie particulière – est assez précis pour que les considérations théoriques y restent
toujours confrontées à l’expérience du dirigeant d’entreprises. Il est en même temps
assez large pour ne pas être une monographie purement factuelle et comporter l’amorce
de développements théoriques. Il n’est pas interdit de penser que la même démarche et
les mêmes concepts pourraient se révéler utiles à la compréhension d’autres industries
complexes, voire être le point de départ de contributions plus générales à l’étude des
structures industrielles.

Quelques réalités des entreprises

Comme pour tous les livres, le point de départ de celui-ci est mon expérience
personnelle, et plus précisément trois convictions acquises dans ma vie professionnelle.
La première est que les firmes sont différentes les unes des autres non seulement par
leurs productions et leurs résultats, mais aussi par leurs motivations, leur façon de
fonctionner et les possibilités d’action qui leur sont ouvertes. Deuxièmement, la
conviction que n’importe quelle firme ne peut pas réussir dans n’importe quel projet.
Enfin, le constat que les deux vérités ci-dessus sont méconnues de l’immense majorité
des observateurs et des commentateurs, alors qu’elles contribuent fortement à expliquer
la réalité industrielle.

En 1981, je quittais IBM, encore au sommet de sa puissance, pour prendre des


fonctions de direction dans une importante société de services en informatique. Je
m’attendais à devoir m’adapter à des habitudes différentes, mais j’allais être surpris par
la magnitude et la durée du choc culturel. Je quittais un monde structuré par un système
de gestion extrêmement perfectionné et une culture d’entreprise fédératrice, où les
décisions étaient collectivement réfléchies au point de s’imposer d’elles-mêmes à
chacun, et où les conflits étaient explicités et transcendés pour le plus grand profit de
l’entreprise. J’entrais dans un monde de décisions rapides, reposant plus sur l’intuition
des dirigeants que sur un quelconque travail d’état-major, car le peu d’état-major
existant était accaparé par les tâches de gestion quotidienne, et indisponible et mal
préparé pour une réflexion prospective.

Au lieu d’un concert où chacun jouait avec confiance sa partie spécifique, mais où
la cohérence de l’ensemble n’apparaissait qu’à des niveaux très élevés, je découvrais
des entreprises où la responsabilité de profit était déléguée et revendiquée jusqu’au plus
bas de l’organisation. Dans cette structure, les décisions stratégiques comme les
décisions opérationnelles étaient largement décentralisées, et le système de gestion
relativement simple et peu formalisé. Des unités différentes adoptaient ainsi des
comportements et des méthodes hétérogènes, entraînant des conflits entre groupes de
cultures différentes, et des divergences entre dirigeants quant à la stratégie, à
l’organisation et aux systèmes de gestion.

Il n’a fallu qu’un peu de temps et d’humilité pour comprendre que ces différences
ne sont pas des déviations fortuites qui demandent une remise en ordre rapide, mais
reflètent des différences fondamentales entre des activités de nature différentes. Aussi,
tenter de les éliminer en imposant un même ensemble de valeurs et de méthodes, par
exemple celles qui ont fait le succès du leader de l’industrie, aurait été non seulement

vi
impossible, mais vraisemblablement néfaste. Réussir dans des formes de prestations
différentes exige des organisations, des cultures, des styles de management, des
systèmes de gestion différents.

Ces conflits allaient se révéler critiques quelques années plus tard au moment de
mettre en œuvre des réorientations stratégiques rendues nécessaires par l’évolution du
marché. Cette expérience confirmait ce que j’avais déjà ressenti quelques années plus
tôt à l’occasion de la séparation tarifaire du logiciel et des services. En abordant ces
marchés avec sa culture et son organisation traditionnelles, IBM allait droit à l’échec
alors qu’elle ne faisait que continuer à appliquer les méthodes qui avaient jusque là fait
son succès. Des prestations suffisamment différentes pour exiger des principes
d’organisation et de gestion différents ont beaucoup de mal à coexister dans une même
entreprise.

Plus tard encore, je devais retrouver des problèmes voisins dans des négociations
portant sur l’ouverture de certains services de télécommunications. A l’époque, France
Télécom et quelques farouches nationalistes prêtaient à IBM l’intention de dominer les
réseaux mondiaux et prônaient en l’espèce une position très restrictive, en l’occurrence
contraire aux intérêts des Sociétés de Service que je représentais. Or on pouvait tout
aussi bien penser, comme c’était mon opinion, que l’intérêt d’IBM n’était pas d’entrer
en concurrence avec les grands opérateurs, et qu’elle n’en avait d’ailleurs pas non plus
la capacité. Ou bien ses dirigeants en étaient conscients et elle se tiendrait pour
l’essentiel en dehors du marché des services de télécommunications, ou elle céderait
aux avocats de l’entrée sur ce marché et finirait par échouer en ayant perdu beaucoup
d’argent et d’énergie. Dans un cas comme dans l’autre, il était inutile de prendre des
mesures restrictives.

Faute de comprendre les différences entre les secteurs d’activité, chacun prêtait à
l’autre des motivations et des intentions qui pouvaient lui être étrangères, voire
aberrantes. On projette volontiers sur les autres ses propres motivations, de même qu’on
croit volontiers qu’une firme qui a réussi dans un domaine pourra ipso facto réussir dans
n’importe quel autre. En réalité, les règles du jeu et les facteurs de succès sont si
différents selon les secteurs d’activité que les entreprises doivent adopter des
comportements très différents pour y réussir.

En résumé, l’informatique est une industrie hétérogène au sein de laquelle


coexistent des firmes de natures différentes, qui obéissent à des systèmes de forces
économiques et concurrentielles différents. C’est une erreur fondamentale de considérer
l'informatique comme un secteur homogène où les mêmes critères de succès seraient
valables pour tous les acteurs. Nul ne songerait à étudier l'industrie des transports en
général, sans distinguer le chauffeur de taxi de la Régie Renault ou d'Air France, en
prêtant à tous les acteurs les mêmes problèmes, les mêmes objectifs et les mêmes
critères de réussite. De la même façon, il est impossible de tenir un discours pertinent
sur l’industrie informatique sans en comprendre la diversité et la structuration.

vii
Mythes et idées reçues

L’hétérogénéité de l’industrie a pour conséquence une incompréhension


réciproque qui s’étend naturellement aux observateurs extérieurs. La presse commet
souvent des analyses et des prédictions erronées qui n’en sont pas moins reprises et
répétées pour alimenter une littérature d’« industrie-fiction » souvent assez fantaisiste. A
la racine commune de ces erreurs de jugement et de pronostic, on trouve une
méconnaissance des motivations des entreprises, et des contraintes que les lois de
l’économie et de la concurrence imposent à leurs actions.

Jadis, l'informatique était une industrie modèle par sa croissance, sa profitabilité,


son dynamisme commercial, ses pratiques de management, etc. Mais une société
appelée IBM la dominait de toute la hauteur de sa part de marché, qui oscillait suivant
les années, les méthodes d'évaluation et les arrière-pensées des commentateurs, entre 65
et 80%.

Cette domination, jointe à l'envahissement progressif de la société par


l'informatique, alimentait inquiétudes et pronostics. Il était admis qu'IBM dominerait le
monde si rien n'était entrepris pour l'en empêcher, et que seuls les Etats avaient ce
pouvoir. Selon les augures, IBM exploiterait les technologies de la téléinformatique
pour couvrir la planète d'un réseau qui se substituerait à la fois aux centres
informatiques des entreprises et aux grands opérateurs de télécommunications,
établissant ainsi sa domination mondiale. Cette vision accréditait l'idée d'un « combat
des chefs » inéluctable entre IBM et ATT, et justifiait l'engagement des Etats et des
entreprises de télécommunications dans une véritable croisade. La littérature
d’industrie-fiction se nourrissait alors du mythe de « Big Brother ».

On sait ce qu'il est advenu de la domination d'IBM et des services de


« distribution d'énergie informatique ». La montée des mini-ordinateurs puis des micro-
ordinateurs a permis aux utilisateurs de s'équiper de moyens propres au lieu de recourir
à des moyens partagés, et a entraîné la disparition du marché de la « distribution
d'énergie informatique » entre 1975 et 1983. IBM a enregistré des pertes
impressionnantes en 1991, 1992 et 1993, ne cesse de réduire ses effectifs et ne
représente plus qu'environ 30% du marché de l'informatique. Le grand combat entre
IBM et ATT n'a pas eu lieu et plus personne ne l'attend.

Aujourd'hui l'informatique est en crise. Les sociétés jadis les plus prospères
connaissent des années noires tandis que de nouveaux venus comme Intel ou Microsoft
affichent une santé insolente. A un monde de concurrence sans équivoque a succédé un
enchevêtrement d'alliances, où coexistent entre les mêmes entreprises des rapports de
coopération et des rapports de compétition, et où on ne sait plus clairement qui est allié
et qui est concurrent. L'innovation et la création des standards ont échappé aux grands
fournisseurs de matériels, qui semblent livrer des combats d'arrière garde plutôt que
contribuer aux progrès de l'informatique. L’industrie-fiction ne produit plus que des
scénarios-catastrophe.

Pourtant les mythes ont la vie dure. Alors même que le marché du traitement
partagé avait disparu sans espoir de retour, nombreux étaient vers la fin des années 80

viii
ceux qui, avec l'enthousiasme des néophytes, en prédisaient la naissance sous les
espèces des « Services à Valeur Ajoutée ». Ce mythe se prolonge encore de nos jours
par l'annonce de la fusion imminente de l'informatique et des télécommunications, alors
que la téléinformatique existe depuis plus de 35 ans et que les télécommunications
prennent chaque année un peu plus de retard sur les performances des systèmes
informatiques.

Les idées actuellement les plus à la mode ne sont objectivement guère plus
fondées que les mythes des années 80. On pleure sur la mauvaise santé de l'industrie
informatique en oubliant qu'elle donne naissance à une avalanche de produits de plus en
plus performants à des prix sans cesse plus bas, ce qui est le meilleur signe d'une vitalité
exemplaire. On annonce que le marché du matériel est en chute libre, alors qu'il
représente près des deux tiers du marché total et affiche toujours une croissance
suffisante pour attirer de nouveaux offreurs. On dit « pour gagner de l'argent, il faut
sous-traiter la fabrication », mais à qui si toutes les entreprises adoptent la même
stratégie ? On prédit que les constructeurs ne trouveront leur salut que dans les services
car « seuls les services sont profitables ». Outre que cette dernière affirmation est
objectivement fausse, à quels matériels s'appliqueraient alors ces services ?

Dans leurs tentatives de réponse, la plupart des commentateurs continuent à


s’appuyer exclusivement sur des considérations technologiques, et se contentent de
lieux communs, d'idées reçues et de schémas simplistes quant aux mécanismes
économiques et à la dynamique des entreprises. Or pour qu’un événement se produise, il
ne suffit pas qu’il soit rendu possible par la technologie ; encore faut-il qu’une
entreprise y voie son intérêt et ait la capacité de le faire survenir. L’évolution de
l’industrie n’est pas un processus impersonnel, mais résulte des efforts déployés par les
fournisseurs pour exploiter le potentiel technologique au service de leurs objectifs
économiques.

Un modèle de l’industrie

L’ambition du présent ouvrage est donc de contribuer à une meilleure


compréhension de l'industrie informatique en l’examinant à la lumière des lois qui
gouvernent toutes les entreprises. De nombreux observateurs et commentateurs tentent
d’arriver à ce résultat en extrapolant les grandes tendances qu’ils peuvent déceler à
partir d’une vue d’ensemble de l’industrie. Des prédictions antérieures reposant sur cette
approche ont été souvent démenties, et je pense donc nécessaire d’aller au contraire
creuser sous la surface pour comprendre les forces motrices de l’industrie et pour
démonter ses mécanismes internes.

Ce faisant, il est essentiel de reconnaître l’hétérogénéité et la complexité de cette


industrie. Elle secrète toute une gamme de produits et de services de différentes natures,
et laisse place à une grande variété de fournisseurs qui en offrent des sélections et des
combinaisons différentes. A chacun de ces produits ou services correspond un certain
processus de production qui en détermine l’économie particulière. Inversement, chaque
produit ou service est offert par un certain nombre de firmes différentes, qui entrent en
lutte dans une arène concurrentielle formée par le marché de ce bien. Dans chacun des
secteurs ainsi définis, la structure du marché et l’économie de la production se

ix
combinent pour définir une forme particulière du jeu concurrentiel et donc des règles du
jeu et des conditions de succès.

L’industrie se segmente ainsi en secteurs obéissant à des logiques économiques et


concurrentielles différentes, qui conduisent à des structures différentes, en particulier en
termes de parts de marché et de profitabilité. Ces différences appellent à leur tour
différents types de stratégie et de comportement concurrentiel selon les règles du jeu de
chaque secteur.

La nature particulière des produits d’une firme non seulement gouverne la forme
de son appareil de production, mais détermine en profondeur l’organisation et la culture
de l’entreprise, qui constituent en quelque sorte sa personnalité. Il existe une
correspondance étroite entre la nature de la production d’une entreprise et un certain
nombre de ses caractéristiques fondamentales, de même que l’anatomie, la physiologie
et même la psychologie d’un sportif correspondent à la discipline qu’il pratique. Un
haltérophile n’est pas constitué comme un coureur de marathon, et un champion du
marathon à toutes chances de ne pas briller au lever de poids, voire de régresser au
marathon dès qu'il commencera à s'entraîner aux poids et haltères. Les armes et les
stratégies gagnantes dans une arène ne sont pas forcément gagnantes dans les autres et
peuvent même y être des handicaps. De la même façon, les mêmes recettes de
fonctionnement qui font le succès de tel constructeur de matériels peuvent conduire à
l’échec telle société de services, et réciproquement.

Les entreprises concernées ne sont pas toujours conscientes de cette relation


étroite entre leurs prestations et leur personnalité, mais la concurrence est là pour
sanctionner celles qui méconnaissent cette réalité. Dans chaque secteur, les firmes qui
réussissent sont celles dont la structure et la culture sont le mieux adaptées aux besoins
spécifiques du secteur. Un secteur d’industrie est caractérisé non seulement par la nature
de ses produits, mais aussi par un certain type d’entreprise et une certaine forme des
règles du jeu concurrentiel.

Pour chaque firme, la possibilité de réussir dans un secteur nouveau est


conditionnée par sa structure et sa culture existantes. Toute tentative d'aborder un
domaine de production trop éloigné de la personnalité actuelle se soldera la plupart du
temps à la fois par un échec dans le nouveau domaine et une régression dans le domaine
traditionnel. Les spécialisations acquises tendent ainsi à se perpétuer, et avec elles la
structuration de l'industrie en secteurs, qui sont autant d'arènes différentes où des acteurs
différents jouent à des jeux différents avec des armes et des stratégies différentes.

En même temps, les produits et les services des différents secteurs doivent tôt ou
tard être assemblés en systèmes, que ce soit à l’étape industrielle suivante ou chez
l’utilisateur. Tous les secteurs interagissent entre eux, et leurs frontières sont en
permanence remises en question. Bien que la plupart des acteurs de l’informatique
n’opèrent que dans un nombre restreint de secteurs, certains sont présents dans un grand
nombre d’entre eux, par choix stratégique ou par tradition historique. Il importe
d'examiner comment ce qui se passe dans une arène influence ce qui se passe dans les
autres, comment un acteur doit s'organiser pour jouer dans plusieurs arènes et quelles
sont ses chances de réussite.

x
L’observation de l’industrie à partir de l’intérieur conduit ainsi à en proposer un
modèle pragmatique qui ressemble par bien des côtés à celui de l’évolution naturelle en
biologie. Des entreprises différentes les unes des autres, et offrant des paniers de
prestations différents, sont en concurrence sur le marché. Pour réussir, elles adoptent des
comportements qui se traduisent en particulier par leurs offres, et qui sont déterminés
par des facteurs spécifiques à chaque firme (sa personnalité). Le marché réagit à ces
comportements, et ces réactions déterminent l’évolution des firmes, leur place dans
l’industrie et leur comportement ultérieur.

A la recherche des lois de fonctionnement

A ce stade pragmatique de ma réflexion, il était nécessaire de me tourner vers la


théorie afin de valider le modèle ci-dessus et de l’enrichir en précisant les lois de
fonctionnement des marchés, les mécanismes de structuration de l’industrie, de prise de
décision dans l’entreprise, les règles d’organisation interne, etc. Cette analyse devrait
former une base solide pour comprendre le comportement des acteurs industriels, tel
que le dictent leurs rôles, leurs intérêts et leurs contraintes, et enfin proposer une vision
raisonnée et cohérente de l’industrie et de l’offre informatiques ainsi que de leur
évolution.

Précisons que ce travail n’avait aucune ambition théorique. Partant d’une industrie
à propos de laquelle je constate des incompréhensions et des interrogations, il s’agit
simplement de démonter et d’expliquer ses mécanismes à l’aide des outils théoriques
disponibles. Mon objectif n’est pas d’établir des lois économiques nouvelles, mais de
rechercher dans les théories existantes les éléments qui permettent d’expliquer ce que je
constate dans la réalité.

Trois considérations principales ont guidé mon exploration de la littérature.


D’abord le sujet central de ce livre, c’est à dire le comportement des entreprises. Ce
comportement a deux faces : en amont, il résulte de décisions internes à l’entreprise,
dont l’étude renvoie à la théorie des organisations et de la décision ; en aval, il
déclenche des interactions avec le marché, dont l’étude relève de la micro-économie.
Autrement dit, les bases théoriques auxquelles le présent ouvrage fait appel sont à
cheval sur l’économie et la théorie des organisations.

Mis à part les grands concepts et les mécanismes économiques fondamentaux,


l’économie classique et néoclassique est ici de peu d’utilité puisque ses paradigmes de
base que sont la concurrence « pure et parfaite » et l’équilibre général ignorent en fait
les notions d’entreprise, de différenciation des produits et de concurrence. Ce n’est
guère qu’à partir de 1975 que la discipline appelée « économie industrielle » s’est donné
pour tâche l’étude du système productif et des stratégies de ses composantes. A ce jour,
ce domaine a donné lieu à un très grand nombre d’études partielles portant sur tel ou tel
point particulier, mais à peu de véritables synthèses qui puissent constituer une théorie
générale des structures industrielles. Encore ces quelques ouvrages synthétiques
reconnaissent-ils des lacunes, dont certaines concernent des phénomènes très visibles
dans l’industrie informatique.

xi
De son côté, la littérature sur les organisations et la décision s’arrête le plus
souvent à la frontière de l’entreprise et n’aborde que rarement les influences réciproques
entre les choix internes et le fonctionnement du marché. D’une façon générale, la
séparation de ces deux disciplines est une faiblesse essentielle au regard de l’objet de cet
ouvrage. L’économie schématise trop la firme, et l’organisation tient trop peu compte de
l’environnement.

Un deuxième critère d’orientation dans l’exploration de la littérature tient à mon


observation fondamentale que les entreprises sont différentes les unes des autres et
obéissent à des modèles de comportement différenciés. Pour expliquer ces différences, il
n’y a évidemment que peu à attendre des théories qui reposent précisément sur le
postulat inverse. Or une part importante de l’économie industrielle considère les
entreprises comme des « boîtes noires » conformes à un modèle de comportement
simplifié identique pour toutes, par exemple la maximisation du profit. De même, la
plupart des ouvrages sur l’organisation considèrent plus ou moins implicitement que les
règles d’organisation ne dépendent pas de l’activité de la firme. Il a fallu attendre les
théories « relativistes » introduites vers 1950 et synthétisées pour la première fois par
Lawrence et Lorsch (1968) pour reconnaître que « le type d’organisation requis varie
suivant la nature des biens ou services fournis, les moyens mis en œuvre et
l’environnement économique à un moment donné ».

Le troisième critère de choix tient à mon expérience personnelle, qui est celle d’un
d’acteur et non d’un théoricien. Parmi les développements théoriques qui sont censés
décrire les décisions de l’entreprise, que ce soit avec l’œil de l’économiste ou avec celui
de l’organisateur, un très grand nombre ne ressemblent ni de près ni de loin à la façon
dont les décisions sont réellement prises. En particulier, dans le monde réel, je n’ai
jamais vu utiliser le raisonnement et la formalisation mathématiques dans des décisions
de gestion. Je ne crois pas raisonnable de croire que les responsables d’entreprise
procéderaient inconsciemment à des raisonnements de nature mathématique, comme les
planètes décrivent des trajectoires elliptiques sans savoir ce qu’est une ellipse. J’incline
au contraire à penser que toute description des choix en entreprise qui exige ce type de
formalisme a toutes chances d’être très éloignée de la réalité.

Certains peuvent trouver commode de représenter sous forme mathématique des


comportements où celles-ci n’interviennent pas, mais cette commodité ne vaut que pour
une petite communauté d’économistes et certainement pas pour la majorité du public
visé par le présent ouvrage. De plus, la formalisation mathématique n’est en général
possible qu’au prix d’hypothèses qui introduisent des écarts entre la réalité et sa
représentation. Pire encore à mes yeux, on pare ainsi des apparences de la rigueur et de
l’exactitude un domaine où règnent en réalité l’incertitude, l’approximation, l’intuition
et les réactions viscérales. Recourir au formalisme mathématique pour décrire le
comportement des décideurs dans une entreprise est au mieux inutile, au pire trompeur.

J’ai donc pris le parti d’utiliser la densité de mathématiques dans un


développement comme indicateur (négatif...) de sa pertinence par rapport au présent
ouvrage, et de considérer comme rédhibitoire la présence de tout autre symbole que les
quatre opérations de l’arithmétique. Bien entendu, je me suis appliqué la même
discipline, qui vaut au présent ouvrage d’être totalement vierge de formules
mathématiques.

xii
Au total, ces filtres successifs ont laissé passer étonnamment peu d’apports
théoriques applicables à mon propos, et ont bien entendu favorisé des ouvrages plutôt
récents, pragmatiques et présentés sous forme littéraire. C’est ainsi que tout en tirant
parti de certains apports de la théorie économique, j’ai été amené à m’appuyer fortement
sur les travaux de Porter sur les stratégies concurrentielles. De même, mon analyse du
comportement des entreprises doit beaucoup aux travaux de Lawrence et Lorsch sur
l’organisation, et aux thèses « comportementalistes » illustrées par March et Simon.

Malheureusement, mon exploration de la littérature théorique ne m’a pas toujours


permis de découvrir une explication satisfaisante de tous les phénomènes constatés dans
le réel. Il m’a fallu alors dépasser quelque peu mon objectif initial et prendre le risque
de suggérer des approches théoriques appropriées.

Structure de l’ouvrage

Ce livre est structuré en quatre parties.

Dans la première, nous prendrons soin de procéder à une reconnaissance préalable


du terrain que nous voulons couvrir, en consacrant les trois premiers chapitres à
l'évolution passée de la structure et des pratiques de l'industrie informatique. Nous y
verrons comment le marché s'est segmenté et comment se sont constituées et ont évolué
les règles des différents jeux. Puis nous examinerons dans le Chapitre 4 la structure
réelle de l'industrie au début des années 90, et dans le Chapitre 5 les performances
récentes des entreprises.

Ces constats, comme toutes les analyses qui suivent, considèrent l’industrie
informatique à l’échelle planétaire en ignorant délibérément les éventuelles différences
nationales ou régionales. L’immense majorité des entreprises qui la composent opèrent
en effet au plan international, et les frontières des états ne définissent pas vraiment des
marchés distincts. De la même façon, les politiques industrielles nationales menées par
certains états sont considérées ici comme des épiphénomènes qui ne doivent pas
distraire des mécanismes fondamentaux.

L’industrie informatique apparaît comme peuplée d’une part de quelques


entreprises généralistes offrant une vaste gamme des produits et services, et d’autre part
d’une multitude de spécialistes. Nous commencerons par analyser le fonctionnement de
ces derniers, en les rangeant par commodité dans quatre catégories : les composants, les
matériels, les progiciels et les services.

La seconde partie mène en parallèle la présentation des concepts et des outils


principaux d’analyse de l’industrie avec l’analyse des secteurs correspondant aux
matériels. S’appuyer sur les cas concrets des deux premiers secteurs pour introduire les
notions fondamentales de cet ouvrage permet de limiter les rappels théoriques
préalables qui pourraient être fastidieux.

Le Chapitre 6, de nature économique, rappelle les principaux mécanismes de la


concurrence et de la formation des structures sectorielles, en les appliquant aux quatre
domaines principaux définis ci-dessus. Le secteur des composants (Chapitre 7) nous

xiii
fournira l’exemple d’un secteur concentré et l’occasion de décrire les mécanismes d’une
concurrence de type monopoliste, qui conduit à un partage du marché à parts fortement
inégales entre un petit nombre d’offreurs. Celui des matériels (Chapitre 8) nous fournira
l’exemple de secteurs dispersés où règne une concurrence à base de niches et de
stratégies diversifiées, conduisant à la coexistence d’un grand nombre d’offreurs de
taille comparable. En même temps que ces notions de base, nous aborderons la
dynamique et les perspectives spécifiques de chacun de ces secteurs.

Le Chapitre 9 complète cette analyse en montrant comment les différences entre


les formes de production et les dynamiques concurrentielles impliquent des
organisations, des systèmes de management et des cultures différentes, c’est à dire une
différenciation des personnalités d’entreprise selon le secteur.

Dans la troisième partie, les concepts de concentration et de dispersion, ainsi que


de différenciation des entreprises, sont appliqués à l’analyse du progiciel et des services.

Il sera d’abord nécessaire de préciser ce que recouvrent exactement les termes


« logiciel » et « services » souvent abusivement associés au sein d’un pseudo-secteur
« immatériel ». Nous verrons au Chapitre 10 que le logiciel englobe une large gamme
d’activités allant des produits logiciels aux services de développement à façon, et que
l’économie de la production de progiciel est en tout point plus proche de celle des
produits industriels que des services. Assimiler les progiciels et les services au sein d'un
même secteur n'a pas plus de sens que n'en aurait l’étude d’un secteur « carburants et
taxis ».

L'industrie du progiciel fera l’objet du Chapitre 11. Nous utiliserons les notions de
concentration et de dispersion introduites dans les chapitres 6 à 9 pour montrer que cette
industrie s’analyse en fait comme un complexe de sous-secteurs de type plus ou moins
fortement concentré, individuellement soumis à leur propre dynamique concurrentielle,
mais en interaction avec les autres sous-secteurs. Nous traiterons à part dans le Chapitre
12 le cas particulièrement important des systèmes d’exploitation, à propos duquel nous
parlerons de la problématique de la standardisation et de la place du système Unix.

Dans le Chapitre 13, nous verrons comment les services, généralement traités
comme un secteur homogène, forment en réalité un ensemble de secteurs diversifiés où
jouent des logiques économiques variées. Les règles du jeu de ces secteurs impliquent
des comportements différents selon les prestations, et obligent les offreurs à s’adapter en
permanence à une demande mouvante alors que les spécificités culturelles sont dans ce
domaine particulièrement critiques.

La dernière partie de l’ouvrage prolonge les conclusions des chapitres précédents


pour proposer une vue globale de l’industrie.

Le Chapitre 14 synthétise les tendances identifiées dans les quatre domaines


analysés précédemment, et décrit leurs effets au niveau de l’industrie tout entière. On y
décrit les forces qui poussent à l’éclatement de l’industrie informatique en secteurs
spécialisés, avec d’une part les promesses de l’extension de la structure du monde PC à
toute l’informatique, et d’autre part les problèmes difficiles que cet éclatement pose aux
firmes généralistes.

xiv
Le Chapitre 15 s’intéresse aux forces qui peuvent pousser à une recomposition. Il
évoque les problèmes que pose aux utilisateurs l’éclatement de l’industrie informatique,
comment les Directeurs Informatiques peuvent réagir et l’offre s’organiser pour traiter
ces problèmes. Les services d’intégration apparaissent alors comme particulièrement
critiques, ce qui nous conduira à examiner la thèse selon laquelle les produits
disparaîtraient derrière les services. Nous verrons aussi comment les acteurs pallient
leur spécialisation en tissant des alliances plus ou moins formelles. Nous évaluerons la
signification industrielle de ces alliances et leur influence probable sur la structure
industrielle.

Enfin, nous esquisserons dans le Chapitre 16 un scénario d’évolution globale de


l’industrie informatique, en examinant en particulier les interférences entre
l’informatique et les autres industries, au premier rang desquelles les
télécommunications. Comment chacun des secteurs est-il affecté par son rapprochement
avec des secteurs jusque-là étrangers à l'informatique ? Quelle est la place de l’industrie
informatique dans les industries de l’information ? Comment la structure des autres
industries est-elle affectée par l’invasion des technologies informatiques ? Peut-on tirer
de la théorie économique des perspectives à plus long terme pour l’industrie
informatique ?

En refermant cet ouvrage, souhaitons que le lecteur ait acquis une meilleure
compréhension des mécanismes cachés qui régissent l’évolution de l’industrie
informatique, et qu’il puisse ainsi mieux décoder une avalanche de nouvelles et
d’événements quelquefois difficiles à interpréter. Que cette compréhension l’aide non
seulement à satisfaire une légitime curiosité personnelle, mais aussi à mieux assumer
ses responsabilités professionnelles, qu’elles soient celles d’un Directeur Informatique
ou d’un utilisateur, d’un dirigeant de l’un des multiples acteurs de cette industrie, d’un
commentateur, d’un enseignant ou d’un leader d’opinion, voire d’un responsable
politique.

xv
Première partie
Les faits
Assurons-nous bien du fait avant de nous inquiéter de la cause.
Fontenelle

Les états futurs de l’industrie informatique résulteront du jeu des forces naturelles
à partir de son état actuel, qui s’explique lui-même par le jeu passé de ces mêmes forces.
Un examen historique de l’évolution des différentes prestations qui composent
l’informatique, des modalités de leur fourniture par les divers acteurs de l’industrie, des
positions et des stratégies des différents fournisseurs, nous permettra d’identifier les
grands courants qui traversent l’industrie. A l’inverse de bien des ouvrages qui
commencent par énoncer et développer des théories pour chercher ensuite des cas où
elles s’appliquent, nous pourrons ainsi cerner les faits avant de rechercher les théories
qui les expliquent. Il s’agit en somme de bien examiner la surface avant de commencer
à creuser.

Le découpage que nous retiendrons pour les quarante et quelque années d’histoire
de l’industrie informatique, en trois chapitres couvrant respectivement sa naissance
(1951-1968), les crises d’adolescence (1968-1980) et l’apparition d’une autre
informatique (1975-1993), est lié au sujet central de cet ouvrage, qui est la structure
même de l’industrie. En effet, les années 1969 à 1975 ont vu une série d’événements
mettre en cause cette structure, et leurs prolongements se sont répercutés jusque vers le
début des années 80. Ensuite, à la fin cette période naissait la micro-informatique, qui se
distingue de l’informatique traditionnelle au moins autant par sa structure industrielle
originale que par ses technologies.

Dans ce survol historique, il sera beaucoup question d'IBM. Il serait anormal qu’il
en fût autrement, puisque cette société représentait à elle seule, au moins jusqu’en 1985,
environ les deux tiers de l’industrie informatique tout entière. Mais sa domination ne
s’est pas seulement traduite par sa part de marché. Dans toute cette période, ses actions
ont affecté l'ensemble du secteur, et les actions des autres acteurs ont été dans une large
mesure décidées par rapport à IBM. En ce sens, IBM a été plus qu'un concurrent, un
élément essentiel de l'environnement des autres acteurs.

Il se trouve également qu'IBM a traditionnellement été un acteur très rationnel qui


consacre beaucoup d'efforts à une réflexion stratégique organisée de façon méthodique.

xvi
Cette réflexion n'est pas menée exclusivement par quelques services spécialisés, mais
implique l'ensemble du management ainsi que des groupes d'experts opérationnels. De
ce fait, elle s'appuie non seulement sur des études approfondies, mais aussi sur la grande
variété de tendances et d'opinions présentes en permanence dans la compagnie, qui
constitue par sa taille même une forme de microcosme. Contrairement à une image
réductrice, IBM a toujours été un vivier de réformes et de réformateurs que le
management a su entretenir plus ou moins consciemment, et s'est toujours montrée
capable de donner leur chance aux francs-tireurs et de prendre l'initiative de
changements majeurs.

Même si, comme nous le verrons, certaines décisions n'ont eu pour objet que de
résoudre des problèmes internes, la place dominante d'IBM a fait retentir ces décisions
sur tous les secteurs homologues de l'industrie. L'annonce du 360 en 1964, la séparation
des tarifs (unbundling) en 1969/70, l'annonce du PC en 1981 ou, a contrario, l'abandon
du projet FS en 1975 ont ainsi pris le caractère d'actes fondateurs pour l'ensemble de
l'industrie. C'est autour de ces événements que je structurerai le rapide historique qui
suit.

xvii
Chapitre 1
Naissance de l'industrie (1951-1968)
La mécanographie accouche de l’informatique. Logiciels et services « gratuits ».
Tarifs, profits, progrès et foisonnement. Le 360, ancêtre des systèmes « ouverts ».
Frontières technologiques et intégration. Standards et fragmentation du matériel.
Boîtes ou systèmes ? Un secteur concentré.

Les débuts (1951-1963) 1

En tant qu'industrie, l’informatique est née en 1951 avec la mise sur le marché de
l'UNIVAC 1 par la Société Remington Rand. Avant cette date, Il existait d’une part une
industrie des machines mécanographiques, et d’autre part des expériences de réalisation
de calculateurs à programme enregistré, qui allaient donner naissance aux ordinateurs
mais ne faisaient pas l’objet d’une activité industrielle à proprement parler.

Les matériels mécanographiques reposant sur l'utilisation de cartes perforées et


comprenaient différentes machines spécialisées, essentiellement mécaniques bien que
certaines aient fait appel à des dispositifs électroniques dès 1946. Ces matériels étaient
commercialisés par quelques constructeurs dont IBM, Remington Rand, Burroughs,
NCR aux USA, Bull ou ICT en Europe.

Pendant et après la deuxième guerre mondiale, plusieurs calculateurs


expérimentaux furent construits par des Universités ou des centres de recherche. C'est
ainsi qu'apparut le concept de programme enregistré, et que la technologie électronique
devint le fondement de l'informatique. Si l'on admet que la caractéristique distinctive
d'un ordinateur, par rapport aux simples calculateurs, est d’être commandé par un
programme enregistré en mémoire, la première réalisation d'un véritable ordinateur date
de 1948, avec le SSEC construit par IBM.

Il n'est pas surprenant que les Sociétés IBM et Remington Rand, qui participaient
à ces travaux précurseurs, aient été les premières à percevoir le potentiel commercial de
cette nouvelle technologie. Remington Rand mit sur le marché l’ordinateur UNIVAC
dès 1951. IBM suivit, après bien des hésitations, avec le 701 en 1952, le 702 et le 650
en 1953 . Ces deux Sociétés furent vite imitées par les autres constructeurs de matériels
2

1 Pour une bonne couverture de la période qui va des origines à l'année 1963, voir le livre de René
Moreau « Ainsi naquit l'informatique » (Dunod - 1981)
2 Pour un historique détaillé du développement des premiers ordinateurs IBM, voir l'excellent
ouvrage de Charles Bashe, Lyle Johnson, John Palmer et Emerson Pugh, « IBM's Early Computers » (The
MIT Press, 1986). Cet ouvrage présente de façon fascinante l'ensemble des choix technologiques et
commerciaux, ainsi que les conflits d'opinion et les rivalités de personnes et d'organisations, qui ont sous-
tendu les développements de produits et les changements d'organisation IBM depuis ses premiers pas
dans le calcul automatique jusqu'en 1962.

xviii
à cartes perforées, et bientôt tous les constructeurs de matériels mécanographiques
(Burroughs et NCR aux USA, BULL en France et ICT au Royaume-Uni) eurent un
département ordinateurs. Très rapidement, ces firmes furent rejointes par des grandes
Sociétés d'électricité ou d'électronique comme General Electric, RCA, Honeywell,
Westinghouse, Bendix, … Plus tard apparurent des firmes nouvelles qui débutaient dans
les ordinateurs en se spécialisant sur des marchés particuliers, comme Control Data en
1957 ou Digital Equipment en 1962.

L’informatique est donc au départ une activité secondaire des firmes


mécanographiques et des grandes firmes d’électronique. Les pratiques commerciales qui
accompagnent la mise sur le marché des premiers ordinateurs sont naturellement celles
de la mécanographie : le constructeur fournit le matériel, et il appartient à l'utilisateur
d'en assurer la mise en œuvre, avec une aide plus ou moins soutenue du constructeur.

L’exploitation des matériels mécanographiques était manuelle et reposait sur la


mise en œuvre de procédures spécifiques à chaque application. La définition de ces
procédures était de la responsabilité des utilisateurs, mais faisait généralement l'objet
d'une assistance importante fournie gratuitement par le constructeur. Cette approche se
transpose aux ordinateurs, mais pour ces derniers l’assistance des constructeurs est
d’autant plus importante que la technique en est nouvelle. Pour faire face à cette
demande croissante et diversifiée, IBM structure ses activités d'assistance aux clients en
créant l’organisation technico-commerciale en 1962.

Par contre, l'offre de logiciels est initialement rudimentaire. Les tout premiers
ordinateurs d’IBM et de Remington Rand sont fournis « nus ». Conformément à la
tradition scientifique qui a présidé à leur développement, ce sont les utilisateurs eux-
mêmes qui développent les logiciels nécessaires et les échangent entre eux, depuis les
assembleurs et les routines mathématiques jusqu'aux codes les plus complexes. Le seul
apport original d'IBM avant 1960 est le langage FORTRAN et les compilateurs
associés, qui accompagnent les ordinateurs scientifiques dès 1957. Le besoin de
logiciels généraux se faisant jour progressivement, IBM formalise son organisation et
ses méthodes de développement de programmes en 1961 (Bald Peak Conference), en y
appliquant des disciplines de gestion dérivées de celles en usage pour les matériels.

A partir des années 1961-1962, chaque annonce de nouveau matériel inclura celle
d'un système d'exploitation plus ou moins perfectionné, mais en tout état de cause
spécifique à ce matériel et à son domaine d’applications prévu. Mais l'offre
commerciale et contractuelle continue à reposer exclusivement sur les matériels. Seul le
matériel et son entretien font l'objet d'une facturation, les logiciels, la formation et
l'assistance à la mise en œuvre étant fournis « gratuitement ». En réalité, le coût global
de ces services est bien évidemment pris en compte dans la tarification du matériel.
C’est à l'échelon commercial local que se négocie avec chaque client la fourniture de
ces services, puisque rien ne spécifie quels logiciels (gratuits) chaque client est en droit
de commander, ni quelle nature et quel volume d'assistance technique (gratuite) il est
fondé à recevoir.

Dans la période 1956-1964, l'informatique connaît un développement


spectaculaire même si elle ne s’implante que dans un nombre restreint de grands
organismes. Des pionniers expérimentent de nouveaux domaines et de nouvelles formes

xix
d'utilisation comme la téléinformatique, le traitement d'informations non numériques, la
conduite de processus ou diverses formes d'intelligence artificielle. Dans tous ces
domaines, les premières réalisations opérationnelles voient le jour vers 1960 sous des
formes souvent ambitieuses. Il est à peine exagéré de dire que tous les domaines
d'applications et toutes les formes d'utilisation de l'informatique connues aujourd'hui ont
été expérimentés dès cette époque.

A cette floraison d'applications répond un progrès technologique très rapide, qui


se traduit par un foisonnement de matériels mis sur le marché à un rythme soutenu. A
cette époque, chaque matériel est généralement remplacé par un successeur plus
performant moins de deux ans après sa mise sur le marché. Comme cette période est
celle de la découverte de l'informatique, chacun des matériels successifs incorpore des
concepts nouveaux et des fonctions nouvelles qui le rendent différent de ses
prédécesseurs. La conception globale de chaque ordinateur reflète les limitations
technologiques du moment, si bien que chaque avancée dans un domaine central comme
les technologies des circuits ou des mémoires, ou dans un domaine périphérique comme
les bandes magnétiques, est l'occasion de s'affranchir d'une limitation globale, et se
traduit souvent par l'introduction d'un nouvel ordinateur présentant des incompatibilités
avec ses prédécesseurs.

Conformément aux habitudes prises en mécanographie, ces matériels sont


proposés principalement en location, ce qui correspond à l'intérêt des utilisateurs
compte tenu de l'évolution extrêmement rapide. Le matériel reste ainsi le plus souvent la
propriété du constructeur, son entretien revenant donc à ce dernier et étant couvert par la
redevance de location. Ce mode de facturation, et l'importance de l'assistance technique
fournie aux clients, permettent aux constructeurs de se présenter d'abord comme des
fournisseurs de services. Le slogan des constructeurs « nous vendons des services et non
des matériels » remonte aux années 1950 et n'a été inventé ni en 1970 avec
l'introduction des services facturables, ni en 1992 avec la création de divisions de
conseil et d'assistance.

La logique concurrentielle

L'industrie informatique naissante est ainsi constituée d'acteurs généralistes dont


chacun offre une architecture d'ordinateurs propre, voire plusieurs pour les plus grands,
fournit la totalité des éléments nécessaires à chaque client et en assure l'intégration.

La gratuité des logiciels et des services fournis par les constructeurs ne laisse pas
de place à des offreurs indépendants, si ce n'est de façon marginale pour des logiciels ou
des services suffisamment différenciés. La diversité et la rapide évolution des matériels
donnent de toute façon aux constructeurs un avantage déterminant dans la fourniture de
tous les services liés aux matériels, qu'il s'agisse de maintenance, de formation ou
d'assistance technique. L'existence d'un tarif d'entretien séparé n'est qu'une disposition
administrative destinée aux rares clients acheteurs de matériels et ne donne pas

xx
naissance à une offre de maintenance tierce. De plus, la prédominance de la location
exclut l'existence de services indépendants d'entretien et celle de services financiers
comme le crédit-bail. Inversement, cette formule expose en permanence le fournisseur
au risque de remplacement de son matériel par un matériel concurrent en cas
d'insatisfaction du client.

La seule forme de services facturée par les constructeurs est le « Service


Bureau », qui consiste à traiter les travaux des clients sur les matériels du prestataire. Il
permet le partage d'ordinateurs et de compétences et s'adresse principalement aux petits
clients, ainsi qu’à des projets occasionnels ou demandant des compétences spéciales.
Cette activité résulte simplement de l'équipement en ordinateurs du Service Bureau
mécanographique classique, qui existait depuis plusieurs décennies. C'est dans cette
activité de traitement à façon que s'engageront les premières Sociétés de Services
indépendantes. Il faut noter que, contrairement aux autres formes de service qui restent
gratuites, le Service Bureau est en concurrence avec l’installation d’un ordinateur chez
le client, et non une offre complémentaire.

Le tarif des matériels est de façon majoritaire un tarif de location donnant droit au
logiciel et aux services. Il est dit « fonctionnel » parce qu'assis sur le service rendu plus
que sur les prix de revient. Il existe maints exemples qu'une machine A moins puissante
qu'une machine B, et donc offerte à un tarif inférieur, soit construite en ajoutant à B un
dispositif de ralentissement ou autre limitation, qui en augmente le prix de revient par
rapport à celui de B. La machine B plus puissante est donc à la fois plus chère pour le
client et moins coûteuse pour le constructeur.

La tarification fonctionnelle permet au constructeur d'empocher la totalité de la


différence entre la valeur d'usage que présente le produit pour son utilisateur et le coût
de revient de ce produit. Elle est en cela cohérente avec à la théorie économique, mais
ne peut durer que dans une situation de type monopoliste due à de fortes barrières à
l’entrée, car un concurrent potentiel peut, en renonçant à une partie de la marge, offrir
des produits de même valeur d'usage à un tarif inférieur.

A l'inverse, les tarifs pratiqués par le concurrent dominant, c'est à dire celui qui
jouit globalement de l'avantage concurrentiel maximal, constituent une référence pour
les autres offreurs comme pour le marché. Tant qu'un offreur peut pratiquer des prix
légèrement inférieurs à ceux du concurrent dominant pour des produits comparables, il
est assuré d'obtenir une part de marché et (dans la mesure où ses coûts sont
raisonnables) d'atteindre la rentabilité. Ce phénomène de « price umbrella » a assuré à
l'ensemble de l'industrie une bonne prospérité jusqu'à ce que certains offreurs

xxi
déclenchent une guerre des prix, principalement à la fin des années 60 avec le
phénomène des « mini-ordinateurs ».

Les profits élevés réalisés sur le matériel permettent aux constructeurs de


maintenir une importante activité de Recherche et Développement, avec pour résultat
une avalanche de produits nouveaux. Ils leur permettent également de consacrer
beaucoup d'efforts au développement du marché en expérimentant des applications
nouvelles et en assurant leur promotion, en éduquant le public visé, en assistant les
utilisateurs pour la mise en œuvre, … Mais bien entendu, même si dans une certaine
mesure les tarifs élevés et les efforts de promotion d'IBM servent aussi les autres firmes,
la profitabilité potentielle du secteur ne se réalise qu'au prix d'efforts soutenus, comme
le constateront à leurs dépens un certain nombre de firmes qui ont abordé ce secteur et
ont été contraintes de s'en retirer rapidement.

Mais cette évolution foisonnante et extrêmement rapide porte en elle les germes
d'une désintégration.

D'une part, dès le début des années 60, chaque machine se présente comme un
catalogue d'unités connectables et personnalisables, réalisant des fonctions différentes à
l'aide de technologies différentes. Chaque système comprend sa propre gamme d’unités
de calcul, de mémoires, de bandes magnétiques, de mémoires à disques, d’imprimantes,
de contrôleurs de communications, … qui ne peuvent le plus souvent pas être utilisées
dans d’autres systèmes. Les grands constructeurs vont chercher à s'organiser pour gérer
séparément les différents types d'unités selon leur technologie, tout en se donnant la
possibilité de les assembler en systèmes de façon très libre. Ainsi une seule gamme
d'unités de bande par exemple pourra se connecter à toutes les unités de calcul,
maximisant à la fois la rentabilité des investissements de développement pour le
constructeur et la souplesse de configuration pour le client. Cette tendance aboutira à
l'annonce du système IBM 360 en 1964, qui marque le début de la standardisation.

D'autre part, la diversification des applications et des modes d'utilisation, ainsi que
leur caractère évolutif, entraîneront une explosion et une diversification des besoins
d'assistance et de formation. En même temps, le poids et la diversité du logiciel
croîtront de façon spectaculaire. Ce qui n'était au départ que services annexes deviendra
pour le constructeur un poste de dépenses majeur en même temps qu'un facteur
concurrentiel souvent déterminant. Le souci de gérer ces activités de façon rationnelle
aboutira à l'annonce de l'« unbundling » par IBM en 1969, qui ouvrira le marché du
logiciel et des services.

xxii
Le 360 et la fragmentation du matériel (1964) 3

Une architecture ouverte

En Avril 1964, IBM, qui domine largement toute l'industrie informatique, annonce
la gamme 360. Cette annonce est une des étapes marquantes de l'histoire de
l'informatique. Non seulement les concepts et les standards nouveaux qu'elle définit sont
restés valides jusqu'à ce jour et sont encore à la base des ordinateurs actuels, mais elle
introduit la notion même de standard au cœur de l'industrie informatique, alors que
jusque là les seuls standards concernaient les langages évolués FORTRAN et COBOL.
En ce sens, après le bouillonnement des premières années, cette annonce marque le
début d'une ère « classique » qui ne sera contestée que par la montée du phénomène
micro autour de 1980.

Avant le 360, IBM commercialise au moins cinq gammes d'ordinateurs


incompatibles entre elles : une famille d'ordinateurs scientifiques à mots de 36 bits
(7040/7044, 7090/7094), une famille d'ordinateurs de gestion à mots de 6 caractères
(7070, 7074), plusieurs familles d'ordinateurs de gestion adressables par caractères
(1401, 1410/7010, 1440, 1460, 7080), une famille d'ordinateurs personnels scientifiques
adressables par caractères (1620, 1710) et une famille d'ordinateurs de gestion des
communications (7740, 7750).

L'objectif est de remplacer toutes les lignes d'ordinateurs existantes par une
gamme unique compatible, au sens où tout programme exécutable par l'un des
processeurs peut être exécuté par tout autre processeur doté d'une capacité mémoire au
moins égale et d'unités d'entrée-sortie équivalentes. De plus, la conception de cette
gamme doit être telle que tous les développements futurs de l'informatique, qu'il s'agisse
de l'évolution des technologies, de l'invention d'organes nouveaux ou de fonctions
nouvelles, ou encore de l'émergence de nouvelles applications ou de nouveaux modes
d'utilisation, puissent s'y intégrer sans en remettre en cause les options fondamentales.

Pour cela, IBM introduit une distinction conceptuelle entre « architecture » et


« structure » de ses machines. L'« architecture » du système 360 est constituée par
l'ensemble des règles et conventions d'utilisation, dont par exemple la représentation des
informations, le mode d'adressage, le jeu d'instructions, … La « structure » de chaque
machine concerne les caractéristiques d'une réalisation particulière de l'architecture.
L'architecture 360 est unique, mais elle est réalisée sous forme de structures variées.

Par exemple, dans les modèles les plus puissants de la gamme, toutes les
instructions sont reconnues et exécutées directement par les circuits, les transferts
d'informations se font par blocs de 8 octets , les fonctions de calcul et celles de gestion
4

3 Pour un historique détaillé du développement de la gamme 360 et de ses successeurs immédiats,


voir l'excellent ouvrage de Emerson Pugh, Lyle Johnson et John Palmer « IBM's 360 and Early 370
Systems » (The MIT Press, 1991), qui fait suite à l'ouvrage « IBM's Early Computers » et couvre la
période 1960 à 1975.
4 Un octet (en anglais « byte ») est un ensemble de 8 positions binaires ou bits, capable de prendre
256 valeurs distinctes, et utilisé comme le plus petit élément d’information dans l’architecture 360, et
dans toutes les architectures suivantes. Un octet peut représenter par exemple un caractère choisi parmi un

xxiii
des entrées et sorties sont réalisées en parallèle par des organes physiquement distincts,
alors que dans les modèles d'entrée de gamme de nombreuses instructions sont simulées
par programme, les transferts se font octet par octet, certaines fonctions logiquement
distinctes sont exécutées par le même organe. Tous les modèles reconnaissent
néanmoins le même jeu d'instructions et peuvent exécuter les mêmes programmes, mais
avec des niveaux de performances et de coût différents.

Par ailleurs, il faut pouvoir connecter aux unités de traitement des périphériques
extrêmement divers tant par leurs fonctions que par leurs performances, et dont
l'évolution doit être indépendante de celle des unités centrales. A cette fin, IBM imagine
de distribuer les fonctions entre unités de traitement et unités de gestion des entrées-
sorties, de telle sorte que les fonctions spécifiques à telle ou telle unité soient réalisées
par une unité de contrôle associée à cette unité, les composants centraux du système se
bornant à lui transmettre les informations de commande nécessaires. Le développement
d’une nouvelle fonction ou d’une nouvelle unité d'entrée-sortie peut ainsi devenir une
activité autonome qui ne demande pas de modifications aux autres unités du système.

L'annonce du Système 360 préfigure ainsi la notion de systèmes ouverts en


séparant les notions d'« architecture » et d'« implementation » et en introduisant la
notion d'interface standard entre unités. Ce faisant, IBM ouvre involontairement la voie
aux offreurs de compatibles.

Des frontières modifiées

Le découplage entre une architecture unique et des réalisations variées est rendu
possible par l'introduction du « microcode », forme de logiciel qui réalise les fonctions
de l'architecture non réalisées directement par les circuits. Un modèle particulier de la
gamme se caractérise par une certaine répartition des fonctions entre le matériel
proprement dit (les circuits) et une couche de logiciel associée à ce matériel, le
microcode. Une évolution technologique, la correction d'une défaillance ou l'adjonction
d'une fonction nouvelle se traduiront le plus souvent par une modification dans le
microcode, qui pourra être reportée dans le matériel lors de l'introduction ultérieure de
nouvelles machines.

Le microcode est utilisé en particulier pour réaliser des « émulateurs » qui


permettent aux machines de la série 360 d'exécuter de façon assez performante les
instructions de machines antérieures. La même possibilité peut être offerte sous forme
de simulation purement logicielle, mais au prix d'une perte notable de performances ;
L'utilisation d'une couche intermédiaire plus plastique que les circuits mais accédant
directement à leurs fonctions élémentaires permet à la même machine de présenter
plusieurs physionomies (ou architectures) différentes à des niveaux de performances
comparables. L'introduction du microcode établit par ailleurs un niveau intermédiaire
entre les fonctions directement réalisées par les circuits et celles réalisées par

jeu de 256, dont les lettres majuscules et minuscules, les chiffres, les signes de ponctuation et des
caractères spéciaux.

xxiv
programmation, et tend à rendre purement conventionnelle la traditionnelle distinction
entre matériel et logiciel.

Comme précédemment, les relations contractuelles d'IBM avec ses clients


reposent exclusivement sur le matériel, dont le logiciel et les services sont des
compléments « gratuits ». Mais avec le 360, le « matériel » est en réalité un mélange de
matériel et de logiciel (baptisé microcode pour la circonstance), dont les proportions
sont variables d'un modèle à l'autre et variables dans le temps pour des modèles
équivalents. Cette continuité entre matériel et logiciel se prolonge de l'autre coté de la
frontière attribuée au matériel, puisque le système d'exploitation (Operating System)
devient vite une partie intégrante de l'offre du constructeur (bien que toujours
« gratuit »). Il est en effet inconcevable de faire fonctionner un ordinateur de la
complexité du 360 sans son système d'exploitation, alors que c'était encore monnaie
courante avec les générations précédentes. Plus significativement, les perfectionnements
progressifs du système d'exploitation s'accompagnent souvent de la définition de
nouvelles instructions « machine » réalisées en microcode.

Au total, avec le système 360, la distinction entre matériel et logiciel devient floue
et en tous cas perd de son importance en termes opérationnels. Il serait plus pertinent de
considérer d'une part l'ensemble formé par le matériel et son système d'exploitation,
composé d'un mélange de matériel et de diverses variétés de logiciel, dont le
constructeur est maître et dont l'utilisateur ignore les détails, et d'autre part les logiciels
d'application qui concernent l'utilisateur. A l'intérieur du complexe formé par le matériel
et le logiciel de base, la frontière entre circuits et programmes résulte d'un arbitrage
technico-économique valable pour un état particulier des technologies, voire pour un
modèle particulier de la gamme, et doit rester sous le contrôle du constructeur. Cette
conception, qui exclut de séparer l’industrie du matériel et celle du logiciel de base,
explique la réticence d'IBM à séparer totalement la facturation du logiciel au moment de
l'unbundling, et influencera fortement le projet FS au début des années 70 . Bien que
5

cette attitude ait été reprochée à IBM comme un abus de position dominante, la validité
de cette vision n'est pas à démontrer puisque les microprocesseurs utilisés aujourd'hui
dans les micro-ordinateurs contiennent une quantité importante de logiciel.

Sur le plan technologique, IBM choisit (le premier parmi les grands constructeurs)
la nouvelle technologie des circuits intégrés pour la réalisation du 360, et se met à
fabriquer ses propres composants. Jusque là, les constructeurs d’ordinateurs achetaient à
des fabricants de composants électroniques les tubes à vide puis les transistors utilisés
dans la fabrication des ordinateurs. La fabrication des composants était ainsi extérieure
à l’industrie informatique. Toutefois, dès 1956, IBM avait décidé de fabriquer elle-
même les mémoires à tores de ferrite, et avait à cette occasion constaté sa capacité à
produire en masse des composants de façon plus fiable et plus économique que ses
fournisseurs habituels, puis avait pris un leadership dans le domaine du « packaging » à
partir de 1959.

Le passage des composants discrets aux circuits intégrés rend la conception des
circuits partie intégrante de la conception de l'ordinateur lui-même. Il est donc naturel

5 voir les chapitres suivants

xxv
que les constructeurs entreprennent de développer et d'utiliser leur propre technologie
de composants, se séparant ainsi des fabricants de composants électroniques
traditionnels et couvrant désormais l'ensemble de la filière, depuis le silicium brut
jusqu'au système opérationnel installé chez le client avec les logiciels et les services
nécessaires. Avec le système 360, s'ouvre l'apogée de l'intégration industrielle des
constructeurs de matériel informatique.

L'impact sur la structure du secteur

A l'origine, les grands choix architecturaux qui ont présidé à la définition du 360
n'ont été qu’indirectement déterminés par des considérations concurrentielles, même si
l'ensemble du programme avait évidemment pour but de maintenir la compétitivité
d'IBM, et si in fine l'annonce en a été précipitée par les menaces d'Honeywell, de
General Electric et de Control Data, qui lancèrent tous trois de nouveaux systèmes très
compétitifs en 1963. Il s'agissait bien plus de structurer de façon optimale le travail des
différents laboratoires de développement d'IBM, en permettant la gestion et l'évolution
séparée des différentes composantes tout en faisant bénéficier de ces développements
l'ensemble de la gamme IBM. En d'autres termes, le but recherché était l'économie
d'échelle maximale au niveau de l'investissement en Recherche et Développement.
Simultanément, la définition d'une architecture standard permettait aux clients d'évoluer
dans la gamme et de profiter des progrès technologiques sans remettre en cause leurs
investissements passés. Elle réunissait enfin tous les utilisateurs dans une même
communauté, facilitant les échanges entre eux et accélérant la diffusion des innovations.

Au plan de la structure de l'industrie, cette annonce allait néanmoins avoir des


conséquences profondes, qui n'avaient probablement pas été prévues ou à tout le moins
étaient sous-estimées par les responsables de la décision.

Dès que l'architecture 360 se sera diffusée largement et paraîtra devoir rester
stable plusieurs années, elle constituera un standard de fait sur la base duquel des
entreprises tierces construiront leurs propres offres. Celles-ci seront soit des
compléments, c'est à dire des éléments que le leader ne fournit pas, soit des substituts,
c'est à dire des éléments qui entrent en concurrence avec les offres homologues d'IBM.

En établissant des standards généraux d'interconnexion entre les unités d’un


système informatique, IBM ouvre à d'autres entrepreneurs la possibilité d'offrir des
matériels connectables aux siens et pouvant aussi bien entrer en concurrence avec les
matériels IBM que les compléter. Des firmes peuvent ainsi se spécialiser sur un type
d'unité pour lequel elles pensent disposer d'un avantage concurrentiel tout en bénéficiant
de l'effet d'entraînement du leader du marché.

De fait, une concurrence différenciée niche par niche voit progressivement le jour
au fur et à mesure que l'architecture 360 pénètre le marché et donne des signes
d'universalité et de pérennité. Apparaissent d'abord des unités connectables compatibles
(bandes Telex en 1967, disques Memorex en 1968, imprimantes, puis écrans), puis des

xxvi
mémoires compatibles enfichables dans les unités centrales IBM. En 1975, apparaissent
enfin des unités centrales compatibles (Amdahl) lorsque la pérennité de l'architecture a
été validée par 10 ans d'existence et confortée pour une durée au moins égale par les
annonces du système 370 (1970), puis de la mémoire virtuelle (1972), toutes deux
extensions compatibles de l'architecture 360. Sans vraiment le vouloir, IBM a inventé
les systèmes ouverts.

A la fin des années 1970, chaque élément des systèmes IBM est en concurrence
avec plusieurs équivalents non IBM parfaitement compatibles, produits par des
entreprises spécialisées, et concurrentiels tant au plan des performances et de la fiabilité
qu'à celui des prix. Cette nouvelle forme du jeu concurrentiel ne touche les autres
constructeurs qu'à proportion de leur succès, la motivation pour développer un
compatible étant fortement croissante avec la part de marché du matériel que le
compatible peut compléter ou remplacer. Vers cette même date, une partie du marché
commence à croire à la stabilisation durable des architectures d'ordinateurs et se tourne
vers l'achat des matériels plutôt que leur location. Apparaissent alors les premières
sociétés de crédit-bail informatique, tandis que se dessine la perspective d'un marché
actif des ordinateurs d'occasion.

Cet éclatement du secteur informatique pose aux constructeurs généralistes, et


principalement à IBM, une question fondamentale de stratégie : doivent-ils rechercher
leur avantage concurrentiel dans l'architecture du système, la cohérence des composants
qu'ils proposent et le service rendu au niveau global, ou au contraire dans la qualité et le
prix de chacune des unités composantes prises isolément ? Ce choix entre une
« stratégie de systèmes » (system strategy) et une « stratégie de boîtes » (box strategy) a
de profondes implications d'organisation et de pratiques commerciales, et a alimenté à
l'intérieur d'IBM un débat souterrain qui domine les décisions stratégiques depuis le
début des années 1970. La stratégie de systèmes allait de soi jusqu'à l'annonce du 360
qui fut un de ses points culminants, avec celle du 370 et de l'architecture SNA de 6

gestion des communications en 1974. Les tenants de la stratégie de boîtes


(principalement les fonctions finance et fabrication) allaient alors progressivement
prendre le dessus sur les avocats de la stratégie de systèmes (surtout présents dans le
développement et les ventes), surtout après la renonciation d'IBM au projet FS qui
représentait un extrême de la stratégie de systèmes .
7

Résumé

L’industrie informatique est née de la conversion à l’ordinateur de l’industrie


mécanographique. Activité mineure au départ, l’informatique a pris une place de plus en
plus grande au sein de chacune des firmes qui composent cette industrie, au fur et à
mesure qu’elles mettaient sur le marché des ordinateurs de bas de gamme destinés à
remplacer le matériel classique pour un prix comparable. C’est en 1962 que le chiffre
d’affaires réalisé par IBM dans les ordinateurs dépasse son chiffre d’affaires en matériel
mécanographique. Vers la fin des années 60, les constructeurs de machines

6 Systems Network Architecture


7 voir le chapitre suivant

xxvii
mécanographiques se sont mués en constructeurs d’ordinateurs conservant une activité
de mécanographie résiduelle, qui ne tardera pas à disparaître totalement.

D’autres sociétés ont également abordé ce domaine. A la fin des années 50, de
grandes Sociétés d'électricité ou d'électronique comme General Electric, RCA,
Honeywell et d'autres créent à leur tour en leur sein une activité de fabrication
d’ordinateurs, mais la plupart de ces tentatives avorteront plus ou moins rapidement. En
revanche, des firmes nouvelles qui débutent dans les ordinateurs en se spécialisant sur
des marchés particuliers, comme Control Data (1957) ou Digital Equipment (1962)
connaîtront une meilleure fortune.

L’industrie informatique que nous connaissons aujourd’hui est pour l’essentiel


composée d’une part des descendants des mécanographes du début du siècle, d’autre
part de firmes plus récentes qui n’ont jamais eu d’autre activité que l’informatique. Au
total, l’informatique est affaire de firmes spécialisées dans ce domaine, et peut donc
bien être considérée comme une industrie autonome. L’exception notable est formée par
les acteurs japonais comme Fujitsu, NEC, Hitachi, Toshiba, ou européens comme
Siemens ou Olivetti, pour lesquels l’activité informatique n’est qu’une partie d’un
groupe diversifié.

De plus, l’industrie informatique s’est détachée de l’industrie électronique dans


les années 60 en entreprenant de fabriquer elle-même les composants des ordinateurs.
Les firmes d’informatique sont donc totalement intégrées dans le sens vertical, en ce
sens qu’elles incorporent l’ensemble de la filière qui conduit du silicium brut à
l’ordinateur ; elles sont également intégrées en termes de prestations, leur production
finale incluant tout ce qui est nécessaire à leurs clients pour réaliser un système
informatique.

Les entreprises d’informatique des années 60 se conforment toutes à un même


modèle, celui de la firme intégrée offrant tous les éléments nécessaires à la mise en
place de systèmes complets, avec le logiciel, l’assistance et la maintenance
correspondante. La facturation de cet ensemble de matériels et de services étant assise
exclusivement sur le catalogue du matériel, il n’existe pas d’offre indépendante de
logiciel ou services, hormis le service bureau qui est déjà engagé sur la voie de la
régression.

Pendant cette période, l'informatique forme bien un secteur au sens de Porter . 8

Tous les constructeurs offrent en effet des paniers de prestations comparables, et pour
chaque utilisateur l'ensemble de l'offre d'un constructeur (matériel, logiciel et services)
peut se substituer à celle d'un de ses concurrents. Même le Service Bureau constitue une
alternative à l'acquisition d'un ordinateur en propre. En revanche, jusqu'au milieu des
années 60, il n'existe pas de secteurs indépendants de logiciels ou de services.

Le secteur présente toutes les caractéristiques d'un secteur concentré. La recherche


de l'innovation et les dépenses de commercialisation liées au développement du marché
entraînent des investissements élevés. Les coûts de transfert entre produits concurrents,
c'est à dire les coûts de conversion supportés par les clients en cas de passage d'une

8 voir le chapitre 6.

xxviii
architecture à une autre, sont élevés et augmentent progressivement avec le stock de
programmes d'application et les effectifs d'informaticiens.

Ce secteur, par définition naissant, présente les caractéristiques habituelles des


secteurs en phase d'introduction et de début de croissance :
–produits différenciés, pas de normes, changements fréquents de conception,
–domination de la fonction Recherche et Développement,
–séries de production courtes, coûts de commercialisation élevés, forte part de main
d'œuvre qualifiée,
–faible élasticité de la demande par rapport aux prix, stratégie de prix à base
d'écrémage, profits et marges élevés,
–faible nombre de firmes dans le secteur.

IBM, qui occupait déjà une position dominante dans le secteur des matériels
mécanographiques, maintient cette domination dans l'informatique où sa part de marché
atteindra dépassera les 50% (ou les 70% selon les auteurs) au début des années 1960.
Les forces concurrentielles de ce secteur naissant, en particulier l'importance de la R et
D et les gros besoins de capitaux pour financer non seulement cette R et D et la
croissance, mais aussi le parc locatif, favorisent en effet les firmes les plus importantes
et disposant de la plus forte assise financière. Parmi un faible nombre de grands offreurs
de matériels et services, IBM offre la gamme la plus complète, la plupart de ses
concurrents ne couvrant qu'un segment particulier de besoins du marché avec une
gamme plus étroite.

L'annonce du 360 donne à IBM un avantage suffisant sur ses concurrents


généralistes d'avant 1964 pour entraîner à terme le retrait (RCA, GE, Honeywell) ou le
regroupement (UNIVAC/Burroughs, NCR/ATT, ICT/Fujitsu) de la plupart d'entre eux.
Mais en même temps naît une autre concurrence visant spécifiquement les secteurs où la
volonté d'universalité et de compatibilité d'IBM la rend vulnérable à la concurrence de
constructeurs spécialisés. La fin des années 60 voit les prémices d’une désintégration de
l’industrie selon le type de matériel et selon le marché visé.

xxix
Chapitre 2
Les crises d’adolescence (1968-1980)

Prééminence d’IBM et réactions diverses. Beaucoup de procès pour rien. IBM se


scinde en deux. Apparition des mini-ordinateurs. L’« unbundling » et la fragmentation
des services. FS ou la fin des illusions. Vers la maturité ?

L'annonce du 360 a renforcé la domination d’IBM sur l'industrie informatique, en


donnant à ce système un statut de standard de fait. Dans le même temps, les premiers
succès de la gamme 360, sa modularité et sa probable longévité ont suscité l'émergence
de nouvelles formes de concurrence comme le crédit-bail, les systèmes d’occasion et les
matériels compatibles, alors que naissent les premières sociétés indépendantes de
conseil et de développement informatiques. Il en résulte un état de tension croissante
entre IBM et ces nouveaux concurrents, qui vont tenter d’utiliser l’arme juridique pour
accélérer la restructuration de l’industrie à leur profit. De son coté, tout en assurant sa
défense proprement dite, IBM s’engage dans des projets de réforme structurelle visant à
la mettre à l’abri de nouvelles attaques juridiques. En ce sens, les procès, la séparation
des tarifs, la mise en place d’une organisation séparée pour le bas de gamme et le projet
« Future Systems » sont liés.

Un point commun à toutes ces entreprises est que toutes ont échoué pour
l’essentiel, ou du moins que leurs résultats ont été très éloignés des espérances
qu’avaient nourries leurs initiateurs, qu’il s’agisse d’IBM elle-même, de ses concurrents
ou des pouvoirs publics. Voyons-y une indication que la dynamique intrinsèque de
l’évolution d’une industrie tolère mal d’être bousculée par des accélérations forcées.

Le temps des procès (1968 - 1982)

En aggravant les craintes qu'IBM accentue encore sa domination sur l'industrie


informatique, l'annonce du 360 a conduit le Gouvernement des Etats-Unis à commencer
une enquête préliminaire en 1964. Parallèlement, IBM sera entre 1969 et 1973 la cible
d’une vingtaine de procès intentés par des firmes privées, et en 1973 d’une action de la
Communauté Européenne . 9

9Ces procès, et en particulier celui du Gouvernement des USA, font l’objet de plusieurs livres dont
deux écrits par des juristes ou des économistes qui ont été associés aux deux parties.
Pour l’accusation : DeLamarter RT : Big Blue - IBM’s use and abuse of power (Donald Mead,
1986)
Pour la défense : Fisher FM, McGowan JJ, Greenwood JE : Folded, Spindled and Mutilated -
Economic Analysis of US vs IBM (MIT Press, Cambridge, 1983)

xxx
Control Data ouvre le feu en Décembre 1968 en accusant IBM d'avoir annoncé
prématurément le 360/90 dans le seul but de dissuader les clients de commander le
Control Data 6600. Cette action ne vint jamais devant la justice et se termina en Janvier
73 par un accord amiable prévoyant en particulier la cession par IBM à Control Data de
son activité de Service Bureau. Il est remarquable que les dispositions de cet accord
aient eu si peu de rapport avec les motifs de la plainte.

Le Ministère de la Justice des USA intente son propre procès en Janvier 1969.
Sous le prétexte de contester certaines pratiques prétendument illégales, il s'agit en fait
d'attaquer la position dominante d'IBM quelles qu'en soient les causes. Il est à peine
exagéré de dire que pour nombreux des promoteurs de cette action, l'important n'est pas
tellement de savoir si IBM s'est rendu coupable d'actes de concurrence déloyale, mais
bien de mettre un terme à sa position dominante quelles qu'en soient les raisons. Cette
action prend une importance particulière à cause de la nature du plaignant, de
l'importance des enjeux et de la subtilité juridique de l'argumentation.

Mentionnons deux débats cruciaux de ce procès, qui touchent des questions de


fond de droit et de théorie économique. Le premier concerne l’évaluation de la part de
marché d’IBM. Si le numérateur de cette fraction, le chiffre d’affaires d’IBM, est bien
connu, il est plus difficile de déterminer quel doit être son dénominateur, autrement dit
quelles sont les limites du marché concerné (« relevant market »). Pour IBM, le marché
est constitué de l’ensemble des matériels, logiciels et services informatiques, dont elle
estime sa part à environ 30% avec une modestie bien opportune. Pour ses accusateurs,
le « relevant market » doit être restreint aux matériels compatibles IBM, dont il est
facile de montrer qu’IBM occupe plus de 90%. C’est comme si le gouvernement
français intentait un procès à Hermès en l’accusant de monopoliser le secteur des
foulards Hermès au détriment des fabricants de copies ! Plus au fond, mais de façon non
exprimée, la position du Ministère de la Justice sous-entend que le standard 360 a
échappé à IBM pour devenir partie du domaine public.

Le second débat est de savoir si une position dominante est en soi condamnable et
si de ce fait des comportements par ailleurs licites pour des acteurs secondaires doivent
être interdits à IBM. Dans le livre de DeLamarter, l’un des plus critiques envers IBM
qui aient été publiés, il est frappant que le seul grief sérieux, auquel l’ouvrage est
pratiquement entièrement consacré, est que les tarifs d’IBM sont établis de façon à tirer
un profit plus élevé des matériels les moins soumis à la concurrence, et de consentir des
marges moindres sur les autres matériels. La plupart des économistes et des hommes
d’entreprise considéreront cette politique comme allant de soi. Devient-elle un crime
quand elle est pratiquée par IBM ? Plus profondément, dans la mesure où les lois
antitrust sont faites pour encourager la concurrence, est-il légitime d’interdire à un
acteur le comportement même que ces lois sont censées protéger ?

Entre 1969 et 1971, plusieurs procès sont intentés par des sociétés de crédit-bail à
la suite de DP Financial and General, et sont tous abandonnés plus ou moins rapidement
dès que les premiers jugements sont rendus à l'avantage d'IBM. Une deuxième vague est
ensuite intentée par des Sociétés de matériels compatibles à la suite de Telex.

L'affaire Telex est le seul cas où IBM ait été formellement (mais provisoirement)
déclaré coupable de pratiques abusives (alors que Telex était condamné pour vol de

xxxi
secrets industriels). Un premier jugement fut rendu en ce sens en Septembre 1973, puis
la condamnation d’IBM fut annulée par une Cour d'appel en 1975. Entre-temps une
douzaine de petites firmes avaient pris modèle sur Telex et intenté des actions du même
type en demandant, conformément à la législation antitrust, des dommages-intérêts
égaux au triple des dommages prétendument subis (« treble damages »). Pour une firme
en difficulté, traîner en justice une IBM harcelée de procès dont un du Gouvernement
des Etats-Unis apparaissait alors comme un moyen assez sûr d'aboutir à une transaction
financièrement providentielle. Le renversement du jugement Telex en 1975 durcit
l'attitude d'IBM et tarit rapidement ce flot de procès dont le bien-fondé juridique était
pour le moins léger et dont le nombre ne doit pas faire illusion.

Le procès du Gouvernement commença en Mai 1975 après 6 ans d’instruction, et


après que 14 juges indépendants aient conclu à des non-lieux sur les mêmes chefs
d’accusation. Il donna lieu pendant encore 6 ans à des échanges assez surréalistes où
abondèrent les erreurs de fait et de droit, les incohérences dans la position de
l’accusation et les aberrations de procédure. Il n'aboutira à aucune conclusion formelle
jusqu'à ce que les poursuites soient déclarées non fondées (« without merit ») en Janvier
1982.

Cet ensemble de procès constitue une mise en examen de la structure de l'industrie


informatique et propose des dispositions visant à modifier cette structure. Même si
aucune de ces actions n'a abouti, elles ont collectivement formé une partie importante
du cadre dans lequel ont été prises les décisions de l'industrie informatique entre 1969 et
1975. A cette dernière date presque toutes les actions avaient trouvé leur conclusion,
toujours dans un sens favorable à IBM, et le procès intenté en 1969 par le Ministère de
la Justice des USA entrait dans un profond sommeil jusqu'à son abandon en 1982.
L'action intentée postérieurement par la Communauté Européenne en 1980 et conclue
en 1984 apparaît comme une aberration sans importance.

En 1973, alors que l'ambiance était (provisoirement) euphorique pour les


adversaires d'IBM, la Communauté Européenne commença sa propre enquête. Celle-ci
devait aboutir à une action en abus de position dominante intentée en Décembre 1980,
alors que toutes les charges avaient été abandonnées aux USA, y compris la plainte du
Ministère de la Justice qui allait être retirée un an plus tard. Déçus dans leurs espérances
aux Etats-Unis, certains plaignants espéraient obtenir satisfaction en Europe grâce aux
différences entre la législation communautaire et celle des USA, et en comptant sur un
certain anti-américanisme à la mode en Europe. L'action de la Communauté Européenne
commençait donc comme une mascarade. Elle devait se terminer dans la bouffonnerie
en Août 1984, quand la Communauté Européenne abandonna les poursuites en échange
d'un engagement pris par IBM de publier et de tenir à jour des informations sur son
standard SNA de gestion de réseau, qu'elle publiait déjà ou aurait publié de toute façon
comme pour tous ses autres logiciels majeurs. Cet engagement en trompe l’oeil
permettait à la Communauté Européenne de se sortir d’une mauvaise querelle tout en
sauvant les apparences. Il n’en fut pas moins célébré comme une grande victoire sur
IBM, que cette dernière se garda bien de minimiser.

Quel est le bilan de cet épisode de querelles juridiques ? Les actions d'IBM ont
certes été quelque peu entravées pendant une dizaine d'années où les juristes ont exercé
un contrôle tatillon sur toutes les décisions d'organisation, de produits et de politique

xxxii
commerciale. De même, la tarification séparée du logiciel et des services a
incontestablement été accélérée, même s'il est probable qu'elle aurait été introduite tôt
ou tard. La combinaison de ces deux effets a permis le démarrage de nombreuses
sociétés de logiciel et de services, ainsi qu'une émancipation progressive des clients
favorable à la multiplication des concurrents, à l'érosion de la part de marché d'IBM et à
l'accélération du progrès technique. Vers la fin de la période des procès, IBM faisait
remarquer avec ironie que la plupart des firmes dont le Gouvernement des Etats-Unis et
la Communauté Européenne recueillaient les plaintes pour abus de position dominante
n'existaient pas au moment où IBM était censée monopoliser l'informatique. De
quelques centaines de firmes en 1964, l'industrie informatique est passée à environ
20000 firmes en 1980 et 50000 en 1992.

L'examen du rythme de croissance annuel d'IBM ne fait pas apparaître de


corrélation évidente avec le déroulement des procès. Après les années noires de 1969 et
1970, il revint se stabiliser autour de 15% de 1972 à 1974, amorça une décroissance de
1975 à 1977 et connut des oscillations entre 9 et 15% de 1978 à 1982. La conclusion
des procès en 1982 s'accompagna d'une remontée du taux de croissance à 18%, mais
pour entamer aussitôt une décroissance inexorable qui après quelques soubresauts entre
1987 et 1990 allait conduire à des taux négatifs en 1991 et 1992. Sur l'ensemble de cette
période, la part de marché d'IBM passait de plus de 70% à environ 30%, démentant les
prédictions des augures selon lesquelles la domination d'IBM aboutirait inéluctablement
à une situation de monopole que seule une action vigoureuse de la justice pourrait
éviter. En réalité, en même temps que l'action juridique échouait, d'autres forces
économiques naturelles entraient en jeu pour limiter l'expansion de l'acteur dominant et
remodeler le visage de l'industrie en le rééquilibrant.

En revanche, les procès n'ont eu que très peu d'influence profonde sur la culture et
les habitudes d'IBM. Toutes les personnes qui étaient en contact avec l’extérieur
(commerciaux, acheteurs, managers, …) certifiaient par écrit chaque année avoir relu
les « Règles de Conduite dans les Affaires ». Tous les actes commerciaux étaient passés
au crible par les services de politique commerciale, pour qui il était rigoureusement
impensable de s'écarter du tarif officiel ou des délais de livraison fixés par les usines.
Pour les collaborateurs et les clients d’IBM, qui étaient témoins et quelquefois victimes
des manœuvres plus souples (pour employer un euphémisme) de leurs concurrents, il
était impensable que ceux-ci aient le front de reprocher à IBM des actes de concurrence
déloyale, et inimaginable que des gens sérieux, comme étaient censés l'être le
Gouvernement des Etats-Unis ou la Justice, puissent y accorder crédit. Aussi l'ensemble
du personnel IBM n'a jamais douté qu'IBM finirait par avoir gain de cause. Cette
confiance s'est légèrement érodée quand il apparut avec le temps que l'action du
Gouvernement US était sérieuse, ce qui pouvait faire craindre n'importe quelle issue
tout aussi irrationnelle, et elle a un peu vacillé à la suite du premier verdict dans l'affaire
Telex fin 73.

Au total, que ce soit à travers les différents jugements rendus ou les autres formes
d'aboutissement des actions engagées, la conclusion générale est que la structure de
l'industrie informatique des années 70 résultait du jeu normal des forces économiques et
concurrentielles, et non de machinations ou d'abus de pouvoir. Mais en même temps le

xxxiii
jeu de ces mêmes forces permettait l'apparition de nouveaux acteurs, qui allait conduire
à l'explosion de l'industrie et au déclin progressif de la domination d'IBM.

L'« unbundling » (1969-1972) et la fragmentation des services

Motivations et principes

Les premières années du 360 ont été difficiles dans le secteur des logiciels :
retards dans le développement, besoins en mémoire très supérieurs aux prévisions pour
obtenir des performances acceptables, nécessité d'un haut niveau d'assistance et de
formation pour pallier les problèmes rencontrés par les utilisateurs. IBM découvre que
la structure même de son offre fait du logiciel de base un élément critique du système, et
commence à concevoir des inquiétudes quant aux coûts croissant des logiciels et de
l'assistance technico-commerciale, qui pèsent sur la tarification du matériel et sur sa
compétitivité.

Une fois les difficultés initiales surmontées, vers la fin de 1967, les besoins des
clients, et donc leurs demandes de logiciels et d'assistance continuent à se diversifier et
à croître. En réponse à cette demande apparaissent des offres de logiciels et de services
en provenance de sociétés spécialisées. Ces offres ont sur les offres homologues des
constructeurs l'inconvénient de ne pas être gratuites. Elles ont en revanche l'avantage de
pouvoir faire l'objet d'un contrat clair et de ne pas être soumises à la bonne volonté du
constructeur, ainsi que de proposer des compétences applicatives, d'organisation ou de
choix de système que les constructeurs n'offrent pas ou peu.

Vers cette même date, une partie du marché commence à croire à la stabilisation
durable des architectures d'ordinateurs et se tourne vers l'achat des matériels plutôt que
leur location. Apparaissent alors les premières Sociétés de crédit-bail informatique,
tandis que se dessine la perspective d'un marché actif des ordinateurs d'occasion. Se
pose également la question de la fourniture des services traditionnellement liés à
l'acquisition d'un ordinateur dans le cas où le fournisseur est une société financière ou
un vendeur d'occasion.

Enfin, IBM est à ce moment la cible de plusieurs procès. Bien que ces actions ne
concernent que marginalement le logiciel et les services d’assistance, IBM pense sans
doute que « lâcher du lest » dans ces derniers domaines l'aidera à mieux tenir sa position
dans celui du matériel et met donc à l'étude, au début de 1969, la facturation séparée
(« unbundling » ou « tarification dissociée »). Cette nouvelle politique est annoncée aux
USA en Juin de la même année pour s’appliquer immédiatement à l'ensemble de la
gamme. IBM Europe annonce 9 mois plus tard (Mars 1970) que ces nouvelles
dispositions ne sont applicables dans l’immédiat qu’aux nouveaux matériels, et seront
étendues à toute la gamme à partir de Juillet 1972, après une période de transition de 15
mois.

Il est amusant à ce propos que des détracteurs d’IBM lui aient reproché (et que
certains lui reprochent encore maintenant) d’avoir fait preuve de malveillance en

xxxiv
pratiquant une politique de « bundling » jusqu'en 1969. En réalité, jusqu’à ce qu’IBM
prenne l’initiative de facturer séparément le logiciel et les services, aucun constructeur
ne les avait offerts isolément. IBM ne faisait que se conformer aux pratiques unanimes
de l’ensemble de la profession, et à aucun moment n’a regroupé des prestations jusque-
là facturées séparément. Son originalité a été au contraire de prendre l’initiative de
l’« unbundling » et de l’appliquer avec une certaine rigueur bien avant les autres
constructeurs.

Comme l'annonce du 360, cette initiative d'IBM répond plus à des objectifs
propres qu'à la pression directe de la concurrence. Il s'agit d'une part de mieux contrôler
les activités de développement de logiciels et d'assistance aux clients en les adaptant
mieux à la demande, d'autre part d'obtenir un avantage indirect dans un conflit juridique
portant sur le matériel. Comme pour l'annonce du 360, les décisions qui en résultent
contribueront néanmoins à façonner le visage de l'industrie informatique dans son
ensemble.

L'analyse des dispositions prises et de la façon dont elles seront mises en œuvre
éclaire l'attitude d'IBM à l'époque vis à vis du logiciel et des services, attitude qui
n'évoluera que lentement par la suite.

Jusque là, IBM fournissait, pour un prix global attaché au matériel, un panier de
services (logiciels, formation, assistance technique) dont il déterminait unilatéralement
l'étendue pour chaque client. La maintenance du matériel était soit incluse dans le tarif
de location, soit couverte par un contrat de maintenance donnant lieu à facturation
séparée en cas d'achat du matériel. Aucune disposition contractuelle n'existait pour la
maintenance du logiciel, ni pour la formation et l'assistance, ce qui présentait l'avantage
de la gratuité, mais excluait tout engagement formel et toute garantie quant à ces
éléments. Rappelons qu'IBM offrait en outre et de façon séparée des prestations de
traitement en Service Bureau, à travers sa filiale SBC aux USA, via son organisation
10

commerciale normale dans le reste du monde.

L'« unbundling » n'affecte directement ni le Service Bureau ni la maintenance du


matériel, mais porte sur les secteurs du logiciel, de l'assistance technique et de la
formation. Pour chacune de ces activités, une partie reste « gratuite », c'est à dire incluse
dans le prix du matériel, et une partie devient facturable.

Le logiciel

Pour le logiciel, restent inclus dans le prix des matériels les logiciels « nécessaires
à l'exploitation » de ceux-ci, c'est à dire les systèmes d'exploitation ou SCP (Systems
Control Programs). Cette décision reflète d'une part l'hypothèse que l'utilisation de tout
ordinateur exige un système d'exploitation, et d'autre part la volonté d'IBM de conserver
un contrôle complet sur ces systèmes. Deviennent facturables séparément les logiciels
remplissant une fonction particulière à telle ou telle application ou forme d'utilisation et
non essentiels à l'exploitation, qui sont rangés dans la catégorie des Produits-
Programmes (Program Products ou PP).

10 Service Bureau Corporation

xxxv
Cette facturation du logiciel n'implique pas de modifications dans l'organisation et
les systèmes de gestion. Les sources de programmes restent pour l'essentiel les
Divisions de développement de produits pour les SCP, les Centres de compétence par
industrie (intégrés aux Divisions de Marketing) pour les PP. Les décisions relatives au
logiciel peuvent donc être prises de façon centralisée comme pour les autres produits.
La mise sur le marché des logiciels suit les mêmes règles que celle des autres produits, y
compris la définition de leur tarif. Ils font l'objet d'annonces formelles similaires à celles
des matériels et figurent dans le même catalogue. Ainsi, leur commercialisation et leur
gestion respectent les habitudes établies et ne posent pas de problèmes particuliers de
mise en œuvre.

Dès l'origine donc, IBM a assimilé le logiciel au matériel et en a fait un produit


comme les autres. Par la suite, le domaine du logiciel gratuit a été progressivement
réduit jusqu'à disparaître. A partir des années 1980, tous les logiciels offerts par IBM
sont facturés, et on peut rétrospectivement considérer que la distinction initiale entre
SCP et PP n'a été qu'une disposition transitoire. Parallèlement, les prix du logiciel ont
été progressivement augmentés, et la conjugaison des deux phénomènes a entraîné une
croissance spectaculaire de la part du logiciel dans les revenus et les profits d'IBM. Mais
le logiciel n'a pas pour autant été géré comme un secteur indépendant. IBM ne vend que
des logiciels qu'elle aurait développés de toute façon pour soutenir la vente de ses
matériels. En revanche, si IBM est resté dominant dans le logiciel de base, elle a
accumulé les faux départs et les échecs dans le logiciel d'application – comme d'ailleurs
les autres constructeurs – au point de s'en être pratiquement retirée.

L'assistance technique

Pour l'assistance technique, la distinction entre une partie « gratuite » et une partie
facturable pose des difficultés plus sérieuses. Cette assistance est fournie pour l'essentiel
par les Ingénieurs Technico-Commerciaux, qui apportent également une aide technique
aux Ingénieurs commerciaux dans leur action commerciale. Sauf à introduire une
spécialisation interne qui serait dommageable pour l'image et l'action commerciale
d'IBM, la séparation entre assistance facturable et assistance gratuite, quel qu'en soit le
principe, doit donc être gérée par chacun des Ingénieurs pour ses propres activités.

Les groupes d'études chargés de l'unbundling passeront beaucoup de temps à


tenter de définir pour le Technico-Commercial une frontière qui soit à la fois assez
simple pour être gérable et satisfaire les juristes, et assez réaliste pour ne pas entraîner
une catastrophe commerciale. Ce débat interne se poursuivra pendant plusieurs années,
sur un ton souvent très vif, et donnera lieu à plusieurs changements successifs de
politique.

La règle retenue pour la première annonce aux USA est draconienne : elle pose en
principe que l'aide (gratuite) apportée par le Technico-Commercial à l'action
commerciale doit se dérouler exclusivement dans les locaux d'IBM. Toute présence du
Technico-Commercial chez un client est donc réputée avoir pour but d'assister ce client,
et est de ce fait facturable. Comme de plus les nouvelles pratiques commerciales sont
aux USA applicables dès leur annonce, les Ingénieurs Technico-Commercial reçoivent
l'ordre de ne plus se présenter chez leurs clients dès le lendemain de l'annonce, tant

xxxvi
qu'un contrat de services d'assistance facturable n'a pas été signé avec le client par
l'Ingénieur Commercial en charge du compte.

Cette décision, qui montrait de la part de ses auteurs une totale méconnaissance de
la réalité du terrain, provoque bien entendu une levée de boucliers non seulement des
clients, mais aussi de tout l'appareil commercial d'IBM. Elle correspond également, sans
que la relation de cause à effet puisse être prouvée, à un ralentissement de la croissance
du chiffre d'affaires qui tombe de plus de 25% par an en 1967 et 1968 à moins de 5% en
1969 et 1970.

Au bout d'un certain temps, la Direction d'IBM devra reconnaître son erreur et
rechercher les moyens de la corriger sans pour autant paraître renier les principes qu'elle
avait édictés quelques mois plus tôt. Le principe de la solution finalement retenue est
d'extraire une partie des effectifs Technico-Commerciaux des Agences commerciales et
de les regrouper dans des Centres dont l'activité sera par définition facturable. L'activité
des Agences est considérée comme gratuite par principe, à l'intérieur de certaines limites
assez imprécises. L'idée semble être que si les Centres peuvent faire état d'un niveau
suffisant de facturation, cette facturation servira en quelque sorte d'alibi pour faire
accepter par les juristes et les autorités extérieures un certain laxisme au niveau des
Agences.

Mais cet appauvrissement des forces commerciales est mal ressenti sur le terrain,
et même si le faux pas initial finit ainsi par être maladroitement corrigé, il n'en a pas
moins gravement entaché l'image d'IBM et ses relations avec la clientèle,
ainsi – pourquoi ne pas le dire ? – que la confiance d'une grande partie d'IBM dans ses
propres dirigeants.

Dans le reste du monde et en particulier en Europe, rien n'a été annoncé au


moment de cette expérience malheureuse sinon la poursuite de l'étude. Celle-ci s'oriente
dans une voie plus souple : distinguer dans les activités du Technico-Commercial celles
qui sont au bénéfice d'IBM (préparation des propositions et participation à leur
présentation par exemple), qui ne seront pas facturables même si elles ont lieu chez le
client, de celles qui sont au bénéfice du client (aide à l'exploitation ou à l'écriture de
programmes par exemple), qui seront facturables même si elles ont lieu dans les locaux
IBM.

La mise en œuvre de cette politique suppose que soit établie une nomenclature
réaliste des tâches du Technico-Commercial, indiquant pour chacune son caractère
gratuit ou facturable selon le bénéficiaire principal. Une difficulté, ou une possibilité de
souplesse, existe du fait que certaines activités comme l'établissement et le suivi du
planning d'installation, ou encore la sélection des solutions techniques, peuvent être
considérées comme bénéficiant à la fois à IBM et à son client. D'une position ou ces
activités sont définies comme facturables, IBM Europe, sous la pression des USA qui
sont en train de tenter de corriger leur propre décision, glisse rapidement vers une
position où ces activités intermédiaires sont gratuites.

Dans toute cette période de lancement, le souci principal d'IBM est de facturer une
partie de l'assistance technique qu'elle fournit à ses clients en tout état de cause, et non
pas de développer une offre de services nouveaux. La part facturée doit être suffisante

xxxvii
pour aboutir à un contrôle plus efficace des activités du personnel technico-commercial
et pour satisfaire les contraintes juridiques, mais sans pour autant nuire à la
commercialisation du matériel. A aucun moment il n'est envisagé d'ériger cette activité
d'assistance technique en un centre de profit plus ou moins indépendant. IBM applique
d'ailleurs à ces services une politique de tarifs élevés cohérents avec ses pratiques de
rémunération, mais dissuasive pour les clients qui restreignent progressivement leur
recours à IBM aux tâches exigeant une excellente connaissance des produits et/ou des
logiciels. Des politiques analogues, généralement encore moins précises, seront
adoptées par les autres constructeurs, qui dans leur ensemble tiennent à préserver leur
souplesse et leur capacité à utiliser l'assistance comme un argument de vente du
matériel.

La formation

Dans le cas de la formation, les modalités pratiques d'une facturation partielle


posent un problème intermédiaire entre celui du logiciel et celui de l'assistance. Les
cours sont en effet répertoriés dans un catalogue et dispensés dans des centres
spécialisés. Il est donc possible de les traiter comme des produits en attachant un prix à
chacun une fois pour toutes. La décision quant au caractère facturable est ainsi confiée à
un échelon central et non laissée (comme c'est le cas pour l'assistance) à l'appréciation
de chaque intervenant.

Le principe de facturation retenu par IBM est le suivant : les cours promotionnels
ou d'information générale restent gratuits, et en principe réservés aux entreprises ayant
commandé du matériel ou envisageant de le faire, tandis que tous les cours techniques
ou professionnels sont payants et ouverts à tous. Dans la pratique, ce système se traduit
d'abord par une réorganisation du répertoire des cours afin que le contenu réel de chacun
le range sans ambiguïté dans l'une ou l'autre des deux catégories. A part ces ajustements,
la nouvelle politique de facturation est, jusque vers 1975, plaquée en quelque sorte sur
la structure habituelle du curriculum et la formation reste gérée comme partie de
l'activité commerciale.

A la suite du choc pétrolier de 1973, IBM entreprend une vaste opération de


réduction de ses services centraux. Alors que le Technico-Commercial est protégé non
par son caractère facturable, mais par son appartenance aux Agences commerciales, les
services de formation sont paradoxalement classés parmi les « indirects » et sont donc
fortement incités à réduire leurs effectifs. Pour se défendre, et défendre les intérêts
d'IBM, la fonction Formation entreprend alors un programme de réformes visant à
redéfinir sa place et sa mission dans l'ensemble d'IBM et, sur cette base, à maximiser sa
contribution aux objectifs globaux de l'entreprise.

Le résultat le plus significatif est de définir sans ambiguïté la mission de la


formation comme de contribuer à la commercialisation du matériel, avec deux objectifs
principaux : alléger la tâche des Ingénieurs Commerciaux par une meilleure information
des clients et rendre les clients autonomes dans les tâches de mise en œuvre par la
formation technique de leur personnel. L'indicateur retenu pour mesurer l'efficacité de la
formation des clients est le nombre d'années d'Ingénieur Commercial ou Technico-
Commercial économisées grâce à la formation du personnel client. On ne saurait mieux

xxxviii
exprimer que l'objectif majeur de l'activité de formation reste le support aux ventes de
matériel, indépendamment de son caractère facturable.

Pour améliorer sa productivité, ainsi d'ailleurs que celle des élèves, IBM remplace
entre 1976 et 1980 une grande partie des cours magistraux par des ouvrages
d'autoformation, quand la matière enseignée ne demande pas une interaction fréquente
entre l’élève et l’instructeur, ce qui était le cas de la quasi-totalité des cours gratuits. Ne
subsistent alors sous forme magistrale que de brefs séminaires de présentation des
produits à un extrême, des cours techniques avancés comprenant une forte dose de
travaux pratiques à l'autre extrême, plus quelques cours intermédiaires dont l'audience
relativement faible ne justifie pas d'investir dans l’autoformation. La quasi-totalité des
instructeurs peut alors se consacrer à des cours de haut niveau qui présentent le triple
avantage d’apporter la contribution maximale à l’objectif d’autonomie technique des
clients, de présenter pour les instructeurs le plus haut intérêt professionnel et de pouvoir
être facturés très cher.

La croissance spectaculaire du chiffre d'affaires de la formation clients à la fin des


années 70 n'a été que la conséquence de cette stratégie de support maximal aux ventes
de matériel. A partir du moment où il est établi que chaque client formé équivaut à une
économie de charge de travail et de dépenses pour IBM, il devient souhaitable de
former le plus grand nombre de clients possible. Le chiffre d'affaires est ainsi une
mesure et un sous-produit d'une activité fondamentalement vouée au support du
matériel. IBM a certes accueilli avec plaisir la forte rentabilité financière de cette
activité, mais à aucun moment la formation n'a été pilotée en fonction de critères
financiers indépendants.

Organisation et stratégie

Aux Etats-Unis, les nouvelles modalités de service ne posent pas de problèmes


d’organisation fondamentaux, IBM ayant abandonné ses activités de Service Bureau
depuis la fin du procès Control Data. En Europe se pose au contraire la question des
relations des nouvelles activités facturables avec le Service Bureau, l’ensemble
constituant l'offre habituelle des sociétés de services concurrentes d’IBM. Ce problème
rejoint celui de la vocation des services facturables : support au ventes ou profit. Faut-il
conserver des stratégies et des organisations différentes pour le service bureau, la
formation et l'assistance ? Faut-il appliquer pour la formation et l'assistance une
stratégie de développement indépendante du matériel en les rapprochant du Service
Bureau ? Ou bien au contraire orienter le service bureau vers le soutien aux ventes de
matériel en acceptant si nécessaire une dégradation de sa croissance et de son profit ?
Autrement dit, IBM doit-elle mettre en place une organisation comparable aux Sociétés
de Service spécialisées? Si oui quelles doivent en être les frontières et la stratégie ?

Dans la période 1970-1974, cette question est posée de façon lancinante à


l'occasion d'un certain nombre de changements d'organisation, sans recevoir de réponse
claire. Après bien des péripéties, on revient vers la fin des années 70 à l'organisation et à
la stratégie qui étaient en place en 1968. Cette décision signifie implicitement que si la
vocation du Service Bureau reste le profit, celle des autres services est toujours le
support aux ventes de matériel. Cette situation restera stable jusqu'à la fin des années

xxxix
80, et n’évoluera de façon significative qu'en 1987 avec la création de l'organisation
« Intégration de Systèmes ».

Conçue au départ comme une action défensive contre l'explosion des coûts de
logiciels et d'assistance, ainsi que comme une manœuvre politique vis à vis des
concurrents et du Gouvernement US, la tarification dissociée s'est traduite par la
facturation d'activités dans lesquelles IBM était déjà présente pour soutenir son activité
principale de matériels. Mais loin d'entrer dans le domaine des services de façon
agressive, IBM a utilisé la facturation pour limiter son implication dans les tâches qui
n'étaient pas essentielles pour le soutien du matériel. Elle a en quelque sorte créé un
marché pour ce qu'elle ne veut pas faire, donc un marché sur lequel elle ne sera pas
concurrentielle.

Pour ce qui lui semble critique pour le matériel, elle a soit maintenu la gratuité,
soit exploité un avantage déterminant (par exemple la connaissance du matériel pour la
formation technique) pour s'assurer de fournir le service malgré les prix élevés que lui
imposent ses pratiques de rémunération et de tarification. C'est pourquoi jusqu'à un
passé très récent les effectifs consacrés aux services ont toujours été gérés comme partie
des effectifs et des coûts commerciaux, et que jamais n'a été créée une organisation
réellement autonome dont l'évolution aurait été fonction de sa rentabilité propre. Le
revenu de services a longtemps été un sous-produit et non un objectif.

Si IBM a néanmoins voulu maintenir un certain niveau de chiffre d'affaires dans


les services, c'était initialement pour témoigner de la réalité de sa politique de
facturation. Le marché et les autorités concernées n'auraient pas compris qu'après avoir
défini comme facturable une partie du support aux clients, IBM cesse de fournir ce
support (à supposer que cela soit possible) pour ne fournir que la part gratuite. Lors de
la mise en place de la nouvelle politique, un niveau suffisant de facturation a été
considéré comme une sorte d'alibi nécessaire à une utilisation souple du Technico-
Commercial par les Agences. De plus, certains de ces services, comme la formation des
clients ou plus tard l'intégration de systèmes, sont critiques pour le matériel et IBM tient
à en fournir un certain volume, dont le chiffre d'affaires est une mesure commode.

Le déroulement de cette affaire montre aussi que la culture traditionnelle d'IBM


est profondément hostile à la facturation des services reposant directement sur le
personnel. Cette aversion se rattache à deux raisons fondamentales remontant toutes
deux aux « basic beliefs » qui ornent le bureau de tous les cadres d'IBM depuis qu'ils
ont été formulés par le vieux Tom Watson dès 1914. Dans la culture IBM, le culte du
service client et la recherche de l'excellence excluent de facturer au client les
interventions du personnel chargé de l'assister. De même, le respect des individus et la
politique de gestion du personnel qui en découle interdisent de lier la rémunération d'un
membre d'IBM au fait qu'un client accepte ou non de se voir facturer le temps de ce
collaborateur. Si IBM a toujours considéré que sa véritable force et sa vocation sont
dans le matériel, c'est en grande partie parce que le matériel permet le plus grand
découplage entre le chiffre d'affaires de l'entreprise et le travail de chaque collaborateur
pris individuellement. Pour cette raison, IBM préfère vendre des produits que des
services, parmi les services du temps machine que du temps homme, et dans les services
de personnel préfère vendre de la formation plutôt que de l'assistance.

xl
Emergence d’un secteur des services

La facturation même partielle des services ouvre des marchés aux sociétés de
services indépendantes, en particulier dans le domaine des applications ou pour des
tâches d'un niveau incompatible avec les tarifs des constructeurs. Un nouveau secteur
des services « intellectuels », portant essentiellement sur le développement de
programmes d'application et la mise en place de systèmes complets, se crée tant comme
une évolution naturelle des Sociétés de Service Bureau que par apparition de nouvelles
firmes spécialisées. Jusqu'aux années 90, ce secteur se développera rapidement en
profitant en particulier de la pénurie de personnel compétent.

La croissance spectaculaire du secteur des services contraste avec la modestie du


secteur des progiciels avant les années 80. Pour les types de systèmes alors disponibles,
les logiciels d’usage général sont fournis par les constructeurs de matériel et sont très
liés aux spécificités de celui-ci, tandis que les besoins applicatifs sont le plus souvent
satisfaits par des développements spécifiques. Une bonne part des prestations de
services est constituée par le développement de logiciels sur mesure. Si certains
prestataires disposent progressivement de cadres préprogrammés ou de modules
réutilisables sur lesquels ils fondent leur publicité, ces logiciels sont le plus souvent
inutilisables sans une assistance soutenue de leur auteur, et ne sont que le fondement
d’une prestation de développement spécifique. Cette continuité qui a longtemps existé
entre le développement spécifique et le logiciel préprogrammé explique que progiciel et
services soient encore aujourd’hui souvent assimilés alors que nous verrons qu’il s’agit
de deux activités foncièrement différentes au plan économique.

Un secteur indépendant du logiciel commence néanmoins à se créer à partir de la


fin des années 60, mais ce n'est que dans les années 80 qu'il se développera de façon
spectaculaire avec les micro-ordinateurs.

En matière de formation, la voie choisie par IBM de se concentrer sur les cours
pratiques de haut niveau liés aux produits, et de leur appliquer sa politique traditionnelle
de prix élevés, ouvre un large champ aux entreprises indépendantes de formation, dont
IBM souhaite favoriser le développement. Par exemple, sa politique exclut d'offrir des
cours de programmation sous forme magistrale bien que l'existence de tels cours (offerts
par des tiers) contribue positivement à son objectif principal d'autonomie technique des
utilisateurs. La stratégie choisie par IBM en matière de formation a ainsi été très
favorable aux entreprises indépendantes, pour lesquelles IBM crée la demande et établit
un régime de prix élevés, tout en n'étant présente que dans des segments très
particuliers.

L'unbundling a eu un sérieux impact à long terme sur l'ensemble de l'industrie


informatique. N’oublions pas en effet que pendant toute la période 1969-1985, le

xli
marché IBM représente entre 50% et 70% du marché potentiel total des services
informatiques. Il a permis l'essor des sociétés de services indépendantes et l'apparition
d'une industrie du logiciel, bien que timide et peu distincte des sociétés de services
informatiques au début. Il a poussé les utilisateurs à devenir de moins en moins
dépendants d'un constructeur dominant, ce qui a contribué, avec la standardisation des
matériels, à la désagrégation de l'offre des grands constructeurs et à l'essor des offreurs
spécialisés et des intégrateurs indépendants. Au total, par ses effets indirects,
l'unbundling a contribué à la réduction progressive de la part de marché d'IBM.

Remous dans le bas de gamme

Les minis et le déclin du Service Bureau

L'annonce du 360 a donné à IBM un avantage suffisant sur ses concurrents


généralistes d'avant 1964 pour entraîner à terme le retrait (RCA, GE, Honeywell) ou le
regroupement (Univac/Burroughs, NCR/ATT, ICT/Fujitsu) de la plupart d'entre eux.
Mais en même temps naît une autre concurrence visant spécifiquement les secteurs où la
volonté d'universalité et de compatibilité d'IBM la rend vulnérable à la concurrence de
constructeurs spécialisés, au premier chef le secteur du calcul scientifique.

Dans ce secteur, non seulement il est possible de développer des matériels plus
étroitement adaptés en s'affranchissant des contraintes d'une architecture universelle,
mais le besoin de support technique peut être réduit grâce à la compétence de base des
utilisateurs. De plus, les acheteurs sont souvent des laboratoires jaloux de leur
indépendance et très enclins à se démarquer à la fois des services centraux dont ils
dépendent et du constructeur le plus lié à ces services centraux. C'est en exploitant ces
caractéristiques, et en utilisant souvent des pratiques commerciales agressives
contrastant avec les manières à la fois policées et condescendantes d'IBM, que
fleurissent des sociétés spécialisées dans les « mini-ordinateurs », comme Digital
Equipment en 1965, Data General en 1969, Prime, Modcomp, Hewlett-Packard, etc.
Control Data elle-même, plus connue par la suite pour ses super-ordinateurs, avait
ouvert cette voie en 1958 avec l’une de ses premières machines le Control Data 160.

Le phénomène « mini-ordinateurs » est de nature plus marketing que technique,


car mis à part leur adaptation à un type d'application particulier, ces machines ne
mettent pas en œuvre une technologie ou des principes différents de ceux des machines
comparables des constructeurs généralistes. Du strict point de vue technique, les
modèles d'entrée de gamme de la série 360 ou 370, ainsi que leurs cousins S/38 ou
AS/400, méritent autant le qualificatif de « mini-ordinateurs » que leurs concurrents de

xlii
chez Digital Equipment ou Hewlett-Packard. C'est pourquoi il est littéralement absurde
de s'étonner que « les constructeurs traditionnels aient été absents des débuts de la mini-
informatique ». Celle-ci est par définition un ensemble d'attaques ponctuelles menées
par de nouveaux entrants contre les constructeurs établis, avec des arguments et des
méthodes de nature commerciale, et non pas une innovation de nature technologique qui
aurait échappé aux constructeurs traditionnels.

Contrairement à ce que veulent faire croire les fabricants de minis, il n'y a pas
opposition entre des constructeurs de « mainframes » rétrogrades et des constructeurs de
minis progressistes. Il y a d’un coté des constructeurs généralistes offrant une gamme
étendue de matériels plus ou moins universels sur une large échelle de puissances, et de
l’autre des constructeurs spécialisés qui ne couvrent qu'une partie sélectionnée de
l'éventail des applications et de l'échelle des performances, couverte également par les
généralistes, quelquefois même avec des matériels et des approches commerciales
spécialisés. Dans les secteurs communs, chacun se bat avec des arguments différents,
mais il s'agit purement d'arguments commerciaux destinés à vendre des solutions
voisines et non, comme on a voulu le faire croire, de deux conceptions opposées de
l'informatique.

L'émergence des minis fait apparaître de nouveaux acteurs, mais ne modifie pas
en profondeur les forces concurrentielles (au sens de Porter) ni la structure du secteur,
contrairement à ce qui se passera pour les micro-ordinateurs. Les constructeurs de
minis, tout comme IBM, offrent dans leur créneau des configurations complètes et un
service complet de formation, d'assistance et d'entretien, adapté bien entendu au
segment qu'ils visent. Tout en étant en concurrence avec les constructeurs généralistes,
ils se conforment aux règles du jeu établies par eux. Le phénomène mini n'est que la
médiatisation accidentelle d'une tendance générale de l'informatique, à savoir
l'apparition permanente de matériels de plus en plus performants à des niveaux de prix
de plus en plus bas.

Avec le succès, le pionnier des minis (Digital Equipment) deviendra lui-même un


constructeur généraliste en étendant sa gamme vers le haut jusqu'aux niveaux de
performance des grands ordinateurs IBM, et même en abordant le domaine des
applications de gestion. C'est en appliquant la même stratégie qu'IBM que Digital
Equipment en deviendra le premier concurrent : gamme large, logiciel système propre , 11

offre incluant l'ensemble des services requis par les utilisateurs, etc. Comme tel, Digital
Equipment connaît maintenant les mêmes problèmes qu'IBM après avoir été le plus
performant de ses challengers.

La montée des minis aura son impact le plus important en matière de services
avec l'érosion du marché du Service Bureau. La disponibilité de matériels puissants à
bon marché permet aux utilisateurs de s'équiper de moyens propres adaptés à leurs
besoins au lieu de recourir à des moyens partagés. C'est ainsi que le Service Bureau
disparaît progressivement entre 1975 et 1983 dans sa presque totalité, entraînant la

11 L’auteur du présent ouvrage s’efforçant d’écrire en français, on n’y utilise pas le terme hélas
pourtant répandu de « système propriétaire ». Quand IBM (ou tout autre) propose un système qui est
propre à ses matériels, c’est IBM qui est propriétaire du système et non le système qui est propriétaire (de
quoi d’ailleurs ?).

xliii
disparition, la régression ou la reconversion des entreprises qui s'y étaient spécialisées.
N'en subsistent que les services qui reposent sur des compétences ou des bases de
données très spécialisées, ou qui impliquent par nature le partage d'informations entre
les firmes utilisatrices .
12

La Division des Systèmes Généraux

IBM a toujours voulu être présente dans le segment des ordinateurs de bas de
gamme, afin de s'implanter très tôt chez le maximum de clients et de suivre leur
évolution en comptant sur leur fidélité. C’est pourquoi elle avait introduit dès 1957 des
machines comme le 610, l'un des premiers ordinateurs scientifiques destinés à un usage
individuel, suivi par le 1620 en 1959, le 1440 en 1962, ou encore le système 3000
annoncé en 1961 (en Europe seulement) et qui connut un éphémère succès commercial
avant d'être retiré du marché à la fin de la même année.

Après 1964, tout en offrant des réalisations d'entrée de gamme du 360, les
concepteurs de petits systèmes se heurtèrent aux limites de cette architecture. Toute
architecture générale, quelle qu'elle soit, a en effet des exigences qui déterminent un
coût plancher pour sa réalisation dans un état donné des technologies, et donc un niveau
de prix en dessous duquel elle ne peut être réalisée de façon économique . De plus, les
13

petits systèmes ont des besoins spécifiques peu compatibles avec l'architecture générale
360 telle qu'elle avait été conçue en 1964, en particulier dans le domaine de la
convivialité, puisqu'ils doivent pouvoir être entièrement mis en œuvre par une seule
personne non informaticienne.

C'est pourquoi l'annonce du 360 n'empêcha pas IBM de continuer à mettre sur le
marché, pour des besoins spécifiques, des systèmes non conformes à cette architecture
et incompatibles entre eux : le 1800 pour le contrôle de processus dès 1964, puis son
successeur le Système/7 en 1970, le 1130 pour le calcul scientifique personnel en 1965
(avec le premier OS individuel sur disque), le Système/3 pour la gestion des petites
entreprises en 1969. Dans ce segment des petits systèmes, par définition non couvert par
l'architecture 360 et son effet unificateur, se perpétuait la dynamique anarchique des
années antérieures.

Grâce au progrès technologique, le prix des petits systèmes n'a cessé de diminuer
en même temps que leurs fonctionnalités se développaient. De plus, il apparut vite que
les méthodes commerciales traditionnelles, reposant sur des contacts commerciaux et un
support technique individualisés, s'appliquaient mal à un marché de masse où la valeur
de chaque vente est relativement faible. L’élargissement du marché, joint à la baisse des
prix unitaires, demandait de plus en plus des formes de commercialisation et de support
technique différentes.

12 Paradoxalement, ce marché moribond du traitement soulèvera vers 1986-1988 l'intérêt vite déçu
des entreprises de télécommunications sous l'appellation médiatique de « Services à Valeur Ajoutée ».
Voir chapitre 16.
13 Un problème analogue se pose d'ailleurs en haut de gamme à cause des limitations de
l'architecture.

xliv
C'est pour permettre dans ce domaine une rupture avec la tradition IBM que fut
créée la « General Systems Division » (GSD) en 1974. Cette Division, qui regroupait
toutes les fonctions de développement, de fabrication, de vente et de support pour les
petits systèmes, était directement rattachée à la Direction du Groupe et comportait dans
chaque pays une organisation entièrement séparée de celle de la « Data Processing
Division » (DPD) en charge des systèmes 360/370. Pour la première fois, IBM se
scindait en entités industrielles indépendantes et concurrentes, comme elle en était
menacée par les actions en justice alors en cours. Quitte à devoir être découpée, IBM
traçait elle-même les pointillés...

Au départ tournée vers les segments de marché non couverts par la gamme 360 et
vers la mise en place de nouvelles formes de commercialisation de masse, la GSD allait
progressivement se poser en concurrente de la DPD sur des marchés de plus en plus
étendus. Ayant en effet la maîtrise de sa ligne de produits, par principe non conformes à
l'architecture 360/370, elle allait chercher à accompagner ses clients dans la croissance
de leurs besoins en faisant évoluer vers le haut ses gammes introduites en 1974, voire en
développant des systèmes très innovants et puissants comme le Système/38 en 1980.
Dans le même temps, DPD continuait à prolonger vers le bas sa gamme 360/370,
principalement pour répondre aux besoins de ses grands clients en équipements locaux.
GSD avait un avantage déterminant dans les petites entreprises par ses pratiques
commerciales, et DPD un avantage dans les grands comptes par la cohérence de sa
gamme. Mais la concurrence était suffisamment sérieuse pour que de nombreuses
tentatives soient entreprises pour la gérer au niveau de chaque pays, sans grand succès il
faut le dire. Pour les clients, il y avait bien deux IBM en concurrence, ce que certains
déploraient tandis que d'autres s'en félicitaient.

Cette situation allait durer jusqu'en 1983, date à laquelle IBM recombina DPD et
GSD et revint à une organisation unifiée pour la commercialisation, au sein de laquelle
peuvent donc se faire les arbitrages commerciaux entre produits concurrents issus de
divisions de développement relativement autonomes. Le dernier des grands procès,
celui du Ministère de la Justice des USA, venait de se conclure par l'arrêt des poursuites,
déclarées non fondées par leur auteur. IBM présentait de nouveau au marché un visage
unique, mais les nouvelles formes de commercialisation et les nouveaux canaux de
diffusion mis en place par GSD demeuraient. IBM avait renoncé à se faire ouvertement
concurrence, mais avait pris l'habitude de vendre ses produits à travers tous les canaux
de distribution disponibles : ventes directes, agents, revendeurs, sociétés de services,
etc.

Il est probable que cet exercice de concurrence interne a été enrichissant pour
IBM, donnant raison à ceux qui critiquaient la position du Gouvernement US en
prédisant que plusieurs petites IBM seraient beaucoup plus efficaces qu'une grande, et
donc plus dangereuses pour les concurrents. Rétrospectivement, la fusion de 1983 entre
DPD et GSD peut être considérée comme un pas de clerc à la lumière de la
réorganisation majeure qui est en cours depuis 1991.

xlv
FS ou la fin d'une illusion (1971 - 1975)

Au début des années 1970 se déroula à l'intérieur d'IBM un projet dont la nature et
le contenu détaillé sont restés un secret bien gardé. Il s'agit du projet FS (Future
Systems), quelquefois également désigné par AS (Advanced Systems).

Que ce projet n'ait pas été plus largement connu de la profession est d'autant plus
remarquable qu'il a impliqué en 1973/1974 près de 2000 personnes. Il faut dire que des
précautions exceptionnelles (même pour IBM) avaient été prises pour en assurer la
totale confidentialité. Dans la meilleure tradition des services secrets, le projet était
cloisonné de telle sorte que l'immense majorité des participants n'en connaissaient que
la petite partie strictement nécessaire à l'exécution de la tâche particulière qui leur était
confiée, de sorte que très peu de gens ont pu avoir une vue d'ensemble du projet et
comprendre ses implications stratégiques. Vingt ans plus tard, je pense pouvoir en
évoquer quelques aspects généraux sans trahir le secret auquel j'ai été tenu.

Outre la nécessité de donner des successeurs à la série 360, la motivation profonde


du projet est la crainte que soient mises sur le marché des unités centrales compatibles,
comme il existe déjà des disques, des bandes, des terminaux, des mémoires
additionnelles, etc. IBM consacre traditionnellement une part importante de ses
dépenses à la R&D générale, à la promotion de l'informatique en général, à l'action
commerciale …, dont les coûts sont répartis sur les coûts de l'ensemble des produits et
donc inclus dans leur tarification. Les offreurs de produits compatibles ne supportent
pas ces coûts généraux, tout en bénéficiant largement de leur effet d'entraînement sur le
marché, et peuvent donc offrir leur produits à des prix inférieurs. Contrainte d'ajuster
vers le bas les tarifs des produits ainsi mis en concurrence, IBM réduit la base sur
laquelle elle peut répartir ses dépenses générales, ce qui tend à augmenter le prix des
produits restants et donc à motiver le développement de nouveaux compatibles.

Il y a donc deux possibilités stratégiques : ou bien accepter une concurrence par


les prix unitaires qui force IBM à réduire ses dépenses de développement du marché et
d'une façon générale son train de vie au point même de remettre en question la politique
dite « de plein emploi », ou bien utiliser sa compétence en matière de systèmes et son
leadership sur le marché pour maintenir un avantage concurrentiel au niveau de
l'ensemble du système, et compenser ainsi des prix plus élevés pour chacune des unités.

C'est pour définir le plan d'action par lequel pourrait se concrétiser cette deuxième
stratégie qu'une Task Force est réunie à Armonk au deuxième trimestre 1971. Ses
objectifs sont :
–de proposer une architecture de systèmes et un plan de développement de produits
qui permettent de prendre une avance concurrentielle importante par un saut
technologique majeur,
–de rendre obsolètes les ordinateurs existants,

xlvi
–de redonner une base technologiquement justifiée à un regroupement tarifaire des
prestations et au retour à une tarification fonctionnelle.

Il faut souligner le très grand soin avec lequel IBM voulait vérifier que toute
modification de la structure de son offre, qu'il s'agisse de matériels, de logiciels et de
services, serait justifiée par des arguments technologiques incontestables et non
seulement commerciaux ou financiers. A cette époque, IBM était en effet la cible de
plusieurs procès dont celui du Gouvernement des Etats-Unis, et était plus soucieuse que
jamais de ne rien faire qui puisse sembler susceptible d'être interprété comme un abus
de position dominante.

Le groupe de travail se fixe rapidement un autre objectif majeur, celui de faciliter


le développement d'applications. Pour cela, le nouveau système doit posséder toutes les
caractéristiques et fonctions susceptibles de réduire le coût de développement dans des
proportions voisines de la réduction attendue des coûts du matériel. Sinon, les
constructeurs ne pourraient capter qu'une part décroissante de la dépense informatique
des entreprises. Au contraire, un système présentant des avantages décisifs dans ce
domaine jouirait d'un avantage concurrentiel déterminant et justifierait des tarifs élevés
tant que son avance technologique autoriserait une tarification « fonctionnelle ».

Le résultat est une proposition d'architecture révolutionnaire combinant un grand


nombre d'idées très innovantes pour l'époque. IBM pense alors posséder une avance
déterminante dans la production en masse des mémoires de très grande capacité (semi-
conducteurs et disques), dans la gestion par logiciel de hiérarchies de mémoires et dans
la maîtrise des technologies de microcode. Tout le système est donc conçu autour d'une
capacité de mémoire apparemment infinie, réalisée par une hiérarchie de supports
physiques entièrement gérée par la machine . Cette capacité de mémoire apparemment
14

illimitée, jointe aux faibles coûts projetés pour les mémoires, rend possible l'utilisation
d'un système d'exploitation unique pour toute la gamme, incorporant toutes les
techniques nécessaires pour favoriser le développement des applications et l'exploitation
des centres informatiques dans tous les modes opératoires.

Pour tenir compte de l'évolution (en cours et à venir) des modes d'exploitation, le
groupe de travail propose une redistribution radicale des fonctions traditionnelles du
matériel et des logiciels système entre différentes couches de câblage et de microcode.
Certaines fonctions logicielles complexes se retrouvent ainsi câblées au coeur du
système, et la plupart des fonctions jusque là assurées par le système d'exploitation et
ses extensions deviennent câblées ou microcodées, avec la possibilité de plusieurs
niveaux de microcode.

Au final, la « machine » proposée inclut tout ce qui était le logiciel de base pour
les systèmes antérieurs dont le 360, y compris la gestion des communications et la
gestion des bases de données. De même, l'« unité centrale » inclut une grande quantité
de mémoire à semi-conducteurs et d'unités de disques, ainsi que l'équivalent d'une
bonne partie des unités de contrôle de transmission et d'entrée-sortie. Outre les

14 Dans un tel système, chaque élément d'information est repéré par une référence fixée une fois
pour toutes. Le système peut déplacer l'information entre les différents supports de façon invisible pour
l'utilisateur, et la restituer à l'utilisateur quel que soit le support sur lequel elle réside.

xlvii
programmes d'application pour lesquels IBM n'a pas d'ambition, seules les unités
d'entrée-sortie (terminaux) et les appareils de stockage de très grande capacité restent
physiquement séparées et donc vulnérables. Cette structure très intégrée reposant sur
des composants spécifiques doit permettre de maintenir son unité au secteur face aux
attaques ponctuelles des matériels compatibles.

Le projet, qui vers la fin de 1974 occupait à plein temps la quasi-totalité des
ressources de développement d'IBM, est arrêté au début de 1975, et remplacé par une
politique d'évolution compatible conservant la base 360/370. Les raisons de l'arrêt du
projet n'ont évidemment pas été rendues publiques, même à l'intérieur d'IBM. D'une
façon synthétique, on peut les résumer comme suit.

Dans leur souci d'exploiter au maximum tous les développements en cours ou


prévisibles, les concepteurs du système avaient accumulé les paris technologiques, dont
un grand nombre était critique pour l'ensemble du système. Même si chacun de ces paris
apparaissait isolément comme raisonnable, un simple calcul de probabilités montrait
que les chances de réussite de l'ensemble étaient faibles. Il était donc hautement
probable que le projet connaîtrait de grosses difficultés donc des retards. De fait, alors
que le groupe de travail de 1971 avait proposé une annonce mi-75 (4 ans plus tard), la
date d'annonce prévue en 1974 était début 78 (toujours 4 ans plus tard ! !).

Par ailleurs, malgré les outils prévus pour faciliter la migration des anciennes
applications, la conversion à FS posait un problème sérieux de coût, de logistique et de
charge du personnel client. A l'inverse, éviter ces problèmes en continuant d'utiliser FS
en mode 370 privait les utilisateurs de la plupart des avantages du nouveau système. Il
était donc à craindre qu'au moment ou FS arriverait sur le marché, son avantage par
rapport aux compatibles 370 développés entre temps ne soit pas déterminant aux yeux
des clients. Or l'énormité même du travail à accomplir pour développer FS avait tari tout
autre développement à l'intérieur d'IBM, laissant un champ libre aux annonces des
autres constructeurs. Enfin, l'éventail des possibilités alternatives ouvertes aux clients
était beaucoup plus large qu'à l'époque du 360 et comprenait maintenant non seulement
l'utilisation de matériels concurrents compatibles ou non, mais aussi celle de matériels
IBM d'occasion à bas prix.

Quelles que soient les raisons qui ont motivé à l'époque la Direction d'IBM à
accepter « l'échec le plus coûteux de son histoire », cette décision a une signification
profonde : IBM renonçait ainsi à son projet explicitement formulé de revenir à la
structure industrielle du début des années 60, où son leadership technologique lui
conférait un quasi-monopole sur tous les secteurs de l'industrie. L'annonce du 3033 en
1977 signifiait que l'informatique ne connaîtrait plus de révolutions mais des évolutions
progressives. De plus, en renonçant à FS, IBM renonçait à être maîtresse du jeu et
admettait d'être un acteur parmi d'autres, participant à un jeu concurrentiel dont elle ne
fixait plus les règles.

Vers la maturité (1976 à nos jours)

Le « monde » IBM évolue ainsi dans les années 70 vers une structure plus
complexe faite de sous-secteurs où des offreurs secondaires sont en concurrence avec le

xlviii
leader dans le créneau qu'ils ont choisi (par exemple les compatibles ou le matériel
d'occasion), ou offrent des éléments complémentaires que le leader a choisi de ne pas
fournir (par exemple dans le domaine des logiciels ou des services). Dans ce « monde »
multifournisseurs, IBM doit lutter non seulement contre Univac et Control Data, mais
aussi contre Amdahl, Hitachi, Memorex, etc.

Ce mouvement vers une fragmentation du secteur ne touche guère que le monde


IBM 360 et plus tard ses successeurs 370, 4300, 30xx. Dans la concurrence entre les
divers « mondes », cette situation tend à rendre le « monde IBM » plus attrayant. D'une
part il s'enrichit des apports des fournisseurs complémentaires, d'autre part la
concurrence des compatibles et du matériel d'occasion provoque une élévation de la
qualité et de la diversité des produits, accompagnée d'une baisse des prix malgré les
efforts du leader. Pour Bull ou Unisys, des firmes comme Amdahl, Hitachi, Memorex
ou Computer Associates sont objectivement des alliés d'IBM.

Dans un même mouvement, le leader voit augmenter la part de marché occupée


par son architecture et les produits qui en dérivent, et sa propre part de ce marché
diminuer en même temps que ses marges bénéficiaires et l'influence qu'il peut exercer.
Cette pression concurrentielle directe sur IBM l'oblige à baisser ses prix, érode sa part
de marché et ses marges, et se répercute indirectement sur les autres constructeurs (les
autres « mondes ») à travers la concurrence entre eux et IBM.

xlix
Chapitre 3
Une autre informatique apparaît (1975-1993)

La révolution micro-informatique. IBM se crée un monde concurrent. Spécialisation


et créativité. L’illusion du grand public. Deux mondes disjoints. Unix, standard ou
laboratoire ? Où va l’informatique ?

Les débuts de la micro-informatique (1975-1981)

Les premiers ordinateurs personnels apparaissent sur le marché en 1975, issus de


la convergence de développements dans trois domaines principaux :
–les circuits intégrés, apparus au milieu des années 60 et qui se sont constamment
perfectionnés avec l'arrivée des mémoires monolithiques et du microprocesseur au
début des années 70,
–les écrans d'entrée-sortie, qui existaient dès le début des années 60, mais dont le
coût a considérablement baissé alors que leurs possibilités s'enrichissaient,
–les disques amovibles, introduits dès 1962 mais qui ont connu une révolution avec
l'arrivée du « floppy disk » utilisé à partir de 1971 à l'intérieur de certains grands
ordinateurs.

Si ces bases technologiques sont le fait des grands constructeurs d'ordinateurs et


de composants, la naissance de la micro-informatique résulte d'une floraison
d'initiatives individuelles consistant à assembler un processeur, un écran, un clavier et
un disque pour constituer un système.

Alors que les tentatives antérieures de constructeurs traditionnels dans


l'informatique personnelle visaient les utilisateurs professionnels, les nouveaux offreurs
visent le marché des amateurs, au sens où il existe des amateurs de haute fidélité ou de
modélisme. Les tout premiers micro-ordinateurs sont d’ailleurs vendus en kit dans des
magazines pour amateurs d’électronique. C'est pourquoi le secteur naissant de la micro-
informatique adopte d'emblée une structure qui ressemble à celle de la haute fidélité :
des petits constructeurs indépendants spécialisés dans l'assemblage de matériels à partir
de composants du marché, et diffusant leurs produits par les canaux de la grande
distribution sans autre service que celui du distributeur. Des chaînes de distribution
spécialisées se créent, comme Computerland en 1976. De nouvelles entreprises entrent
dans la concurrence, comme Texas Instruments, Osborne ou Sinclair, offrant chacune
son système particulier. Des entreprises de logiciel voient le jour, comme Microsoft,
Digital Research, Software Arts ou Micropro, qui offrent les premiers traitements de
texte et les premiers tableurs prêts à l’emploi en 1979.

Dès cette période 1976-1981, Apple se positionne en leader de la micro-


informatique en offrant un système intégré original visant le grand public non

l
informaticien. Autour de ce système se développe une panoplie de logiciels d'un
nouveau type dont les meilleurs exemples sont le traitement de textes (Wordstar 1979)
et le tableur (Visicalc 1979). De plus, au lieu de se contenter de diffuser des matériels au
meilleur coût via des distributeurs, cette société, sous l'impulsion de ses fondateurs, se
pose en prophète et en église d'une nouvelle culture. Ainsi se crée autour d'Apple une
mystique de la micro-informatique « conviviale » opposée à la grande informatique
sclérosée, qui se teinte des accents d'une croisade contre le grand méchant IBM. Ce
discours va gagner progressivement le milieu des entreprises, même si le micro-
ordinateur lui-même n'y pénètre en réalité qu'à dose homéopathique.

Le PC, un monde enfin ouvert

IBM avait toujours cherché à être présente dans l'informatique personnelle, avec
le 610 puis le 1620 dans les années 50, le 1130 (premier ordinateur individuel utilisant
un système sur disque) en 1965, et même le premier portable en 1975 avec le 5100. Elle
est pourtant restée étrangère au nouveau phénomène micro jusqu'en 1981, bien que la
nouvelle religion y ait fait un nombre croissant d’adeptes dont la voix était de plus en
plus forte. Il est probable que l'identification générale de la micro-informatique avec le
marché du grand public a joué son rôle en détournant de ce secteur l'attention des
dirigeants d'IBM pendant plusieurs années, malgré la montée en puissance visible
d'Apple.

IBM finit par réagir, mais d'une manière tout à fait inhabituelle. Le Personal
Computer lancé par IBM en 1981 utilise un processeur Intel, des disques Tandon et un
système d'exploitation sous-traité à Microsoft. Comme les pionniers de la micro en
1975, IBM ne réalise que l'assemblage et la commercialisation en gros, la vente au
détail étant réalisée par des distributeurs indépendants. Mieux encore, le système
comprend un système de « bus » permettant l'adjonction de cartes d'extension fournies
par d'autres constructeurs. De même, le système d'exploitation retenu (MS-DOS) facilite
le développement et l'incorporation de logiciels par des tiers. Bref, le PC, contrairement
à toutes les autres machines d'IBM, est un système délibérément ouvert aux logiciels et
aux extensions d'autres fournisseurs. On explique généralement cette démarche
inhabituelle par l'urgence, mais il est probable que là encore la conviction qu'il s'agissait
d'un marché sans relation avec les marchés traditionnels de la Compagnie a joué son
rôle.

En quelque sorte, IBM prend la voie Tandy plutôt que la voie Apple, qui (peut-
être inconsciemment) aspire à être le fournisseur de micro-informatique, comme IBM
est le fournisseur de référence de grande informatique. Pour devenir l'anti-IBM, Apple a
suivi le modèle IBM, comme Digital Equipment quelques années plus tôt à l'occasion
du phénomène des minis. Pour s'opposer à Apple, IBM se pose au contraire comme
catalyseur d'une galaxie d'entreprises indépendantes, en comptant sur leur créativité et
leur dynamisme pour faire de son matériel le standard de fait.

Cette manœuvre était-elle simplement une solution provisoire destinée à occuper


le marché en attendant de reprendre la main avec de véritables produits « maison » ? Le
lancement du PS/2 et de l'OS/2 en 1988 tendraient à le faire penser, mais entre-temps
trop de systèmes et d'extensions compatibles avec le PC ont été commercialisés, trop de

li
logiciels ont été écrits pour qu'un retour en arrière soit possible. A supposer que
l'intention d'IBM ait été de faire revenir le marché à des systèmes « maison », il est clair
que ce retour ne s'est pas produit.

Un monde éclaté

Lorsqu'en 1977 Apple affiche l'ambition de prendre le leadership de la micro-


informatique naissante, c'est en respectant la structure de type concentré de
l'informatique traditionnelle. Encore aujourd'hui, la Société Apple fournit, directement
ou à travers sa filiale Claris, la quasi-totalité des éléments installés par les utilisateurs de
l'architecture Apple, et contrôle complètement l'évolution des matériels et des logiciels
de base, même si elle en sous-traite en partie la réalisation.

A l'inverse de l'action fédératrice d'Apple, les modalités choisies par IBM pour
entrer dans ce marché encouragent une structure éclatée où coexistent de nombreux
fournisseurs de matériel dont aucun n'exerce plus de leadership sur le secteur, où les
différentes unités de l'ordinateur sont produites par des constructeurs différents, où les
producteurs de matériel et ceux de logiciel forment deux secteurs distincts, et où seul le
distributeur est l'interlocuteur obligé du client.

Les fournisseurs choisis par IBM pour les composants et le système d'exploitation
acquièrent rapidement et durablement une situation de quasi-monopole. Intel fournit les
trois-quarts des processeurs utilisés dans des PC, le reste étant fourni par des
fournisseurs de « clones » parmi lesquels IBM. Symétriquement, le système
d'exploitation MS-DOS de Microsoft équipe la quasi-totalité des PC après avoir éliminé
ses prédécesseurs. Au contraire, de nombreuses sociétés se lancent sur le marché des
unités centrales, qu'elles construisent en assemblant un processeur, un écran et des
disques acquis auprès de firmes spécialisées, et qu'elles équipent du système MS-DOS
acquis chez Microsoft. Dès 1982, on estime à 60 le nombre de marques de compatibles
PC à base de processeurs Intel, et le volume total de leurs ventes dépasse déjà celles
d’Apple. A part IBM, aucune de ces firmes n'atteindra jamais une part de marché
supérieure à 15% et la plupart se contenteront de moins de 3%.

Ce nouveau marché de la microinformatique attire aussi bien les constructeurs


traditionnels que des entreprises d'équipement de bureau, ainsi que d'innombrables
nouveaux venus. Il devient rapidement le théâtre d'une concurrence féroce qui a pour
résultat une baisse spectaculaire et continue des prix. Dans le même temps, le progrès
technologique des composants, qu'il s'agisse des processeurs ou des disques, entraîne
une hausse continue et non moins spectaculaire des performances. Parallèlement, les
volumes de production élevés dont jouissent Intel et Microsoft (plusieurs dizaines de
millions de puces ou d'exemplaires de MS-DOS par an) permettent une baisse continue
des prix de ces composants fondamentaux.

Ces différents effets de la dynamique concurrentielle se conjuguent pour aboutir à


une extraordinaire variété de l'offre et à des prix sans aucun rapport avec ceux de
l'informatique traditionnelle. Le tableau suivant, inspiré de travaux du Meta Group,

lii
permet de comparer les coûts par Mips et par Mega-octet de mémoire centrale pour
15 16

les PC et les grands ordinateurs.

Evolution des coûts


$/Mips micros mainframes ratio
1990 700 100000 >140
1995 60 55000 >900

$/MByte micros mainframes ratio


1990 90 6000 >65
1995 6 1500 250

Ces écarts considérables, et qui de plus se creusent avec le temps, pourraient


donner l'impression d'univers différents faisant appel à des technologies radicalement
différentes. Or il n'en est rien. Ces écarts spectaculaires sont simplement dus aux
volumes de production pour les secteurs monopolistes comme les composants ou les
progiciels, à l'intensité de la concurrence pour les secteurs dispersés comme le matériel.
Il va sans dire que pour les acteurs de ces derniers secteurs où ne joue aucun effet de
monopole, le bas niveau de prix s'accompagne d'un train de vie modeste et de marges
faibles.

Par sa diffusion et ses prix modérés, le micro-ordinateur ouvre les vannes de la


créativité individuelle dans le domaine du logiciel et de toutes les formes d'extension
(cartes, unités connectables …). Alors que la grande informatique était par nécessité la
chasse gardée de grandes organisations, le développement d'un logiciel micro ou même
d'une carte d'extension ne demande, outre une bonne idée, que des investissements
faibles et modulables, facilement accessibles à un individu ou une petite équipe.
D'innombrables petites entreprises se lancent avec des produits très spécialisés, dont
beaucoup ne durent que peu de temps ou restent des acteurs modestes, tandis que
d'autres prospèrent dans leur créneau ou deviennent des acteurs dominants.

On assiste donc à une floraison d'extensions et de logiciels de toutes sortes,


réalisant en particulier toutes les idées touchant la convivialité qui avaient été négligées
par le milieu de l'informatique traditionnelle, mais que permet la structure des micro-
ordinateurs. Grâce à des solutions techniques souvent innovantes et séduisantes, les
micro-ordinateurs prennent dans ce domaine une sérieuse avance sur les systèmes
traditionnels. Le monde Apple conserve une avance due en grande partie à ses options
techniques un peu élitistes en faveur d'un processeur puissant et d'une grande mémoire.
Apple est également le premier à offrir dans ses matériels (Lisa en 1983 et surtout le
Macintosh en 1984) les concepts révolutionnaires inventés dans les années 60 et
développés au Palo Alto Research Center de Xerox, comme la souris, les fenêtres et les

15 Million d’instructions par seconde : unité de vitesse de traitement.


16 Million d’octets : unité de capacité mémoire.

liii
icônes. Il faudra attendre 1984 pour qu’apparaissent sur la famille PC des interfaces
graphiques vaguement comparables à celle qu’offre depuis longtemps Apple, et 1990
pour disposer sur PC avec Windows 3 d’un système graphique concurrentiel.

Toutes ces entreprises cherchent à toucher le marché le plus large possible, mais la
plupart n'ont pas les moyens de mettre en place leur propre réseau de vente et de
distribution. Quant aux grands constructeurs traditionnels, leur réseau commercial n'est
adapté ni à la clientèle des PC ni à la logistique requise pour de grandes quantités à
faible coût unitaire. C'est pourquoi se mettent en place des organismes de distribution
qui vont de la boutique au rayon d'un magasin grande surface généraliste en passant par
le réseau spécialisé en microinformatique. Les modalités de distribution deviennent
rapidement un argument de vente au même titre que les caractéristiques du matériel.

En revanche, la montée de la microinformatique est sans grand effet sur le secteur


des services informatiques. Les sociétés existantes se contentent d'acquérir la
compétence nécessaire pour incorporer éventuellement des micro-ordinateurs dans les
systèmes qu'elles développent pour leurs clients. Les besoins de services spécifiques
aux micro-ordinateurs sont pris en charge principalement par les distributeurs
spécialisés (dont certains se trouvent être des filiales de Sociétés de Service).

L'industrie de la micro-informatique apparaît ainsi comme la juxtaposition de


secteurs spécialisés et complémentaires :
–les composants,
–les matériels,
–les systèmes d'exploitation,
–les progiciels applicatifs,
–la distribution.

Contrairement à la structure de l'informatique traditionnelle, chaque acteur se


spécialise dans une seule de ces activités, et très rares sont les firmes qui opèrent dans
plusieurs secteurs. Les exceptions les plus frappantes sont Microsoft qui est présent
dans les deux domaines de progiciels, et IBM qui est présent dans l'ensemble des
secteurs dont les composants, et persiste à tenter de revenir à une structure traditionnelle
avec le complexe PS/2 et OS/2, ou encore les constructeurs de matériel qui choisissent
d'être leurs propres distributeurs, à l'instar de Dell.

Le monde des PC se distingue également du monde traditionnel par la nature du


leadership qui s'y exerce. Dans le monde traditionnel, le leader incontesté est un

liv
fournisseur de matériel, en l'occurrence IBM. Dans le monde du PC, alors que des
dizaines de firmes se partagent le marché des matériels sans qu'aucune n’y atteigne une
part de marché de 20%, Intel et Microsoft sont en position de monopole dans leur
secteur et dominent le « monde du PC » dans la mesure où ce sont leurs produits qui
donnent son unité au secteur, et leurs décisions qui en déterminent l'évolution globale.

Au total, la montée de la micro-informatique se traduit par une structure


industrielle radicalement différente de celle qui prévaut pour l'informatique
traditionnelle. La séparation entre la fabrication et la distribution est de règle, la plupart
des fabricants écoulant leurs produits à travers plusieurs canaux et la plupart des
distributeurs commercialisant les produits de plusieurs fabricants différents. Les
entreprises ne produisant que des logiciels sont nombreuses. Parmi les fabricants de
matériel, la plupart ne produisent qu'un type d'unité spécifique comme les disques, les
imprimantes, les unités centrales, voire des cartes d'extension ou des unités particulières
comme des scanners ou des modems. On a pu caractériser l'informatique contemporaine
comme une « informatique éclatée » (titre d'un livre de J.M. Desaintquentin et B
Sauteur ) ; ce qualificatif s'applique aussi bien à la structure même de l'industrie.
17

Comme cela avait été en partie vrai pour le 360, IBM a créé avec le PC une
industrie qu'elle ne contrôle pas et où elle occupe une place minoritaire. Certes
l'ensemble des compatibles PC et PS/2 représentent en 1992 près de 90% du marché
contre 10% pour Apple et 2% pour les autres architectures (Commodore, Atari), mais
dans ces 90% IBM est minoritaire (bien que premier) avec environ 15% des ventes
totales, alors qu'elle en représentait 32% en 1986. Dans l'intervalle, les fournisseurs de
compatibles ont exploité les progrès de la technologie pour diminuer les prix de marché
de façon continuelle et spectaculaire, au prix de leur survie pour certains.

Des marchés disjoints

Au moment où s'ouvrent les années 80, la micro-informatique est encore pour


l'essentiel une affaire de grand public. Seul Apple et sa cohorte d'adeptes de la vraie foi
commencent à prophétiser que la micro-informatique détrônera un jour la grande
informatique dans les entreprises. Dans la pratique, les deux secteurs et les deux
marchés ne communiquent pas : les fournisseurs de micro et les fournisseurs de grande
informatique sont des entreprises distinctes appartenant à deux mondes différents, tandis
que les clients de micro sont des particuliers et que les clients de la grande informatique
sont les entreprises. Cette idée que la micro-informatique s'adresse à un marché séparé a
survécu longtemps puisque même IBM a cru nécessaire de mettre sur le marché un PC
Junior en 1983, avant de le retirer faute de ventes en 1985.

Il est permis de penser que ce mirage du grand public, s'il a coûté beaucoup
d'argent à pas mal d'entreprises plus ou moins éphémères, a néanmoins joué un rôle
positif. Que se serait-il passé si les promoteurs de la microinformatique – les Steve Jobs,
les Bill Gates – avaient pensé qu'ils entreraient un jour en compétition directe avec les
grands comme IBM qui dominaient l'informatique de l'époque ? La conviction d'opérer
dans un marché nouveau disjoint du marché de la grande informatique leur a
probablement donné l'audace nécessaire. Parallèlement, la même conviction que la

17 Masson - 1991

lv
microinformatique s'adresse au grand public et non aux entreprises en tient écartés les
constructeurs traditionnels, qui pourtant possédaient les technologies nécessaires et
avaient déjà lancé des ordinateurs personnels destinés à l'usage professionnel. Le
démarrage réussi de la microinformatique résulte en partie d'une même erreur
d'appréciation de son potentiel par les pionniers qui l'ont promue et par les grands
constructeurs qui l'ont négligée.

L'entrée d'IBM dans le marché des ordinateurs personnels change radicalement


l'image du micro-ordinateur en lui conférant en quelque sorte une caution de sérieux, et
élargit considérablement son marché en lui ouvrant les entreprises. Mais la diffusion des
micro-ordinateurs y concerne principalement des formes d'utilisation et des populations
d'utilisateurs que l'informatique traditionnelle n'avait pas ou peu abordées, comme le
traitement de texte dans les secrétariats ou l'aide à la décision individuelle des cadres.

Que ce soit dans les entreprises ou dans le grand public, la micro-informatique a


jusqu'ici essentiellement permis de satisfaire des besoins d'informatique personnelle qui
n'étaient pas satisfaits par les systèmes centraux. Quand arrive la micro-informatique,
les besoins centraux des entreprises sont largement satisfaits, et l’informatique s’apprête
à aborder les besoins individuels avec les technologies de temps partagé. C’est ce
dernier domaine que la micro-informatique à conquis avant que les grands ordinateurs
aient pu s’y implanter. La diffusion des traitements de texte et des tableurs n'a pas retiré
aux systèmes centraux une charge de travail existante, elle a permis de satisfaire
autrement une demande latente non encore satisfaite. Au passage, elle a rendu obsolète
le concept de « distribution de puissance informatique » et a porté le coup de grâce à ce
marché où opéraient encore de nombreuses sociétés de services.

Le remplacement des grands systèmes par des micro-ordinateurs est encore resté
marginal par rapport au nombre total de grands systèmes installés. Faire migrer des
applications existantes vers des micro-ordinateurs suppose que ceux-ci puissent être
assemblés en complexes équivalents aux grands systèmes en fonctions et en puissance.
Cela exige aussi un investissement considérable en redéfinition et redéveloppement
d'applications, que le gain potentiel de coût d'exploitation n'a que rarement justifié aux
yeux des utilisateurs de grands systèmes. De plus, une telle opération implique un risque
que peu de Directions informatiques ont estimé raisonnable de courir.

Mais l'avantage des micros continue à s'accentuer avec les années et accroît la
pression concurrentielle pour faire profiter toute l'informatique des coûts que permet la
diffusion à très grande échelle. Il faut pour cela trouver des moyens simples et

lvi
performants de répartir les applications entre systèmes interconnectés, ou de construire
des grands systèmes avec les mêmes composants que les PC. Tel est l'enjeu réel des
développements en cours dans le domaine des architectures client-serveur, des systèmes
distribués et des multiprocesseurs.

Or la dynamique innovatrice du secteur des micros engendre des solutions de plus


en plus satisfaisantes à ces problèmes techniques qui ont jusqu'ici limité l'expansion des
micros vers le haut. En particulier, un troisième « monde » dont nous n'avons pas encore
parlé, le mouvement Unix, joue un rôle clé dans ce processus d'innovation malgré sa
relativement faible importance en termes de volumes.

Le monde Unix

Au début des années 80, alors que le raz de marée des PC commence tout juste à
déferler, quelques firmes au premier rang desquelles Sun Microsystems, cherchent à
pénétrer sur le marché sans devoir consentir l'investissement considérable que
représente l'écriture et la maintenance d'un système d'exploitation. Or un système appelé
Unix jouit d'une grande popularité dans les milieux scientifiques que visent justement
ces nouveaux fournisseurs.

Le système d'exploitation Unix est une adaptation sur petits ordinateurs du


système Multics de General Electric, développée en 1969 sur l'initiative des
18

Laboratoires Bell. Pendant longtemps, son utilisation a été confinée à certaines


universités américaines (en particulier celle de Berkeley) où il a constitué un terrain
d'études et d'expérimentation pour l'enseignement et la recherche informatiques, et où
sont nées de nombreuses extensions et versions concurrentes. Le souci d'échanger
facilement ces développements a toujours été très présent dans ce milieu, conduisant en
particulier à la réécriture du système dans un langage de haut niveau (le langage C) en
1973.

Au début des années 80, Unix se présente comme un système disponible, non
protégé par un constructeur, conçu pour permettre une évolution facile, et bénéficiant de
la dynamique d'innovation des centres de recherche les plus actifs. Son existence permet
aux constructeurs qui l'adoptent de se reposer sur une source indépendante de logiciel de
base pour concentrer leurs efforts et leurs investissements sur le matériel. Par la suite,
presque tous les constructeurs inscriront à leur catalogue des systèmes Unix à côté de
leurs systèmes propres, mais en les faisant bénéficier d'efforts de promotion très

18 Multics, développé en 1960, était un système de « time-sharing » permettant à de nombreux


utilisateurs indépendants d'exploiter simultanément un grand ordinateur de façon interactive à travers une
interface relativement conviviale pour l'époque.

lvii
variables selon qu’ils entrent plus ou moins en concurrence avec leurs matériels
traditionnels.

Contrairement au lancement du PC, le démarrage industriel d'Unix ne


s'accompagne d'aucun changement majeur de la structure de l'industrie, En particulier, il
n'y a pas constitution d'un secteur autonome pour les composants. Les nouveaux venus
comme Sun développent leurs microprocesseurs spécifiques tandis que les constructeurs
traditionnels (Hewlett-Packard, IBM, Digital Equipment) utilisent dans leurs systèmes
Unix leurs microprocesseurs existants avant de développer à leur tour des
microprocesseurs spécifiques à Unix.

Assez rapidement, le développement des processeurs destinés à supporter Unix


s'oriente vers l'utilisation des concepts Risc (Reduced Instruction Set Computer ). Mais 19

à l'origine, chaque constructeur de matériel Unix considère la possession d'un


processeur original comme faisant partie de ses avantages concurrentiels et s'en réserve
l'utilisation. Ce n'est que récemment que la logique monopoliste de l'industrie des
composants a commencé à agir avec la constitution de groupements ou de consortiums
au sein desquels les principaux fabricants de composants Risc tentent de regrouper
d'autres constructeurs de matériels afin d'augmenter leur échelle de production, quitte à
perdre l'exclusivité de leurs composants. Néanmoins, en 1993, la diffusion de chacun de
ces microprocesseurs ne dépasse pas les quelques centaines de milliers d'exemplaires
(500000 pour le Sparc de Sun, 200000 pour Mips de Silicon Graphics ou Precision
Architecture de Hewlett-Packard), ce qui est infime par rapport à la diffusion des
processeurs Intel et très en dessous de l'échelle optimale de production . 20

Dans le domaine du système d'exploitation, l'espoir qu'avaient nourri certains


constructeurs de faire l'économie de son développement sera vite déçu. En 1983, ATT,
propriétaire de droit d'Unix qui jusque là en avait permis une diffusion libérale, réagit à
la vogue commerciale soudaine du système en demandant des redevances importantes.
La raison même du choix d'Unix, sa disponibilité peu onéreuse sous forme source, est
ainsi battue en brèche après coup. De plus, la qualité industrielle inégale des réalisations
issues des laboratoires universitaires contraint les constructeurs à des réécritures ou des
développements complémentaires, ce qui avive encore les habituelles querelles d'école
entre partisans des différentes versions d'Unix.

Chaque constructeur s'oriente donc vers le développement d'un système propre


constitué d'un assemblage d'éléments standard et d'éléments originaux, tout en restant
fidèle au rêve d'un système d'exploitation universel et en participant à des efforts
permanents de standardisation à travers des organismes neutres tels que XOpen, ou des
alliances comme OSF et plus récemment COSE . Il faut bien voir que l'intensité de
21 22

l'effort de normalisation est la contrepartie directe, ou l'envers de la médaille, du

19 Architecture de processeur favorisant la simplicité et donc la vitesse d’exécution grâce à un


répertoire d’instructions restreint et homogène, les opérations complexes étant réalisées par combinaison
de ces instructions simples.
20 voir chapitres suivants
21 Open Systems Foundation
22 Common Operating System Environment

lviii
foisonnement des solutions alternatives et des querelles qui résultent de ce
foisonnement. Si rien de ce genre n'existe dans le monde du PC, c'est simplement parce
que toute l'industrie s'est rangée très tôt, à tort ou à raison, derrière MS-DOS.

Au total, la structure actuelle du monde Unix (et Risc) est plus proche de la
structure traditionnelle que de celle du monde PC. Comme dans le monde traditionnel,
la concurrence se joue principalement entre des acteurs qui offrent chacun une solution
informatique complète constituée par sa propre combinaison d'un matériel utilisant un
processeur spécifique et d'un système d'exploitation propre bien que dérivé d'Unix. La
structure du monde Unix ne se distingue de la structure classique que par la
multiplication des alliances visant à partager les éléments coûteux en investissements
comme les composants ou les modules de système d'exploitation, et par l'activité de
normalisation intensive. Le phénomène des alliances et le mouvement de normalisation
des systèmes sont le plus souvent présentés comme touchant l'ensemble de
l'informatique, alors qu'ils se limitent largement au monde Unix et ne portent au sens
strict que sur le dixième du marché.

La diffusion d'Unix est plus rapide que la croissance d'ensemble de l'informatique,


mais reste modeste aussi bien en nombre par rapport aux micros qu'en valeur par
rapport à l'ensemble. On estime le nombre de systèmes Unix installés en 1992, toutes
versions confondues, à environ 2.5 millions contre plus de 130 millions de micro-
ordinateurs (MS-DOS et Apple), et la part de marché d'Unix dans le marché total à
environ 13% en valeur. Mais l'importance stratégique potentielle d'Unix est bien
supérieure à sa place quantitative. C'est du monde Unix que sont en train d'émerger les
éléments pratiques de résolution des problèmes liés au remplacement des grands
systèmes par des complexes de systèmes ou de microprocesseurs issus des micros, et
surtout de niveau de prix comparable.

Contrairement à une opinion répandue, le monde Unix est tout le contraire d'un
monde standardisé. C'est au contraire dans le monde Unix que la concurrence spécifique
aux systèmes d'exploitation est la plus intense, puisque dans le monde traditionnel elle
est partiellement éclipsée par la concurrence sur les matériels et qu'elle n'existe plus
dans le monde PC depuis l'adoption généralisée de MS-DOS et maintenant de Windows.
C'est justement parce que le besoin de standards y est criant et qu'aucun offreur ne
domine le marché que le monde Unix consacre tant d'efforts à la standardisation.

Mais à l'inverse, grâce à ces efforts, c'est du monde Unix que sortent les standards
de toute l'industrie. L'innovation étant l'autre face de la concurrence, le monde Unix est
le foyer d'innovation privilégié pour tous les domaines liés aux systèmes d'exploitation,
entre autres la structure des systèmes, le multiprocessing, les systèmes distribués, la
disponibilité et la sécurité, etc. De plus, le niveau de puissance de la plupart des
systèmes Unix est comparable à celui des « minis » traditionnels, et les offreurs d'Unix
ont une motivation concurrentielle immédiate pour doter Unix de toutes les fonctions
des mini-ordinateurs, elles-mêmes dérivées des grands systèmes, ainsi que pour attaquer
le marché des grands systèmes via le développement de multiprocesseurs. La
dynamique propre du monde Unix et sa position à la charnière de l'informatique

lix
traditionnelle et de la microinformatique en font la matrice des bouleversements encore
à venir .23

Le panorama en 1993

L'histoire de l'industrie informatique, ainsi que le jeu combiné de la dynamique


concurrentielle et du progrès technologique, ont conduit à une structure industrielle
relativement complexe où coexistent trois mondes industriels ayant chacun sa logique
propre :
–un monde traditionnel hérité des années 60, encore fortement concentré malgré une
fissuration progressive,
–le monde du PC né en 1981, dont la structure majoritairement fragmentée a conduit
à de nouvelles normes de prix et d'accessibilité de l'informatique,
–le monde Unix, passé du stade universitaire au stade commercial vers 1983, creuset
où s'élaborent les techniques informatiques de demain.

Selon leur appartenance à ces trois mondes, les acteurs industriels sont plus ou
moins spécialisés et forment des secteurs plus ou moins identifiables. Les acteurs du
monde traditionnel et ceux du monde Unix offrent en général une palette de prestations
incluant le matériel, les logiciels de base et les services, alors que la spécialisation par
nature de prestations est la règle du monde PC. Dans le monde traditionnel et le monde
Unix, la concurrence entre les acteurs porte sur la totalité de ce panier de prestations y
compris les composants, et donc chaque acteur développe et produit ses propres
processeurs et ses propres systèmes d'exploitation, même si dans ce dernier domaine le
monde Unix se réclame d'un même système standard. Le monde PC a adopté une
architecture de processeur unique et un système d'exploitation unique, et la concurrence
entre acteurs d'un même secteur se concentre sur les produits spécifiques de ce secteur.
Enfin, chacun des acteurs de ces trois mondes peut viser un marché plus ou moins
vaste : la totalité du marché informatique pour les constructeurs les plus traditionnels
dont IBM est l'exemple, des niches plus ou moins étroites pour les offreurs plus récents.

Ces trois mondes sont encore plutôt juxtaposés que concurrents, quoi qu'en aient
dit les chantres du « petit chaudron » et même si quelques acteurs sont présents à la fois
dans deux ou trois. En 1992, on peut estimer que l'informatique traditionnelle
représentait encore 45% des ventes, la microinformatique 41% et le monde Unix 13%.
Ni le monde PC ni le monde Unix n'offrent encore aux grands systèmes d'alternative
techniquement viable et suffisamment crédible pour vaincre l'inertie des organisations
utilisatrices, justifiée par les enjeux et les coûts de conversion. Le concept client-serveur
n'est pas encore considéré comme mature par la majorité des utilisateurs. Dans le monde
Unix, la floraison des solutions alternatives et les incompatibilités qui en résultent
(malgré les efforts de normalisation) ont pour conséquence une complexité des choix
qui rebute encore le gros du marché, hormis quelques niches comme celle de stations
graphiques pour lesquelles ces difficultés ont été localement résolues. Il n'y a pas eu
mouvement d'ensemble de l'industrie vers une structure nouvelle, mais juxtaposition de
trois mondes différents.
23 voir Chapitre 12

lx
Néanmoins, ces trois mondes s'influencent mutuellement. La chute des prix des
micros tire vers le bas les prix des stations Unix, qui par continuité tirent vers le bas le
prix des systèmes traditionnels. La montée en régime des micros et des stations a
fortement ralenti la progression des grands systèmes et fait régresser le marché des
mini-ordinateurs qui avaient été les vedettes des années 70/80.

Mais, en même temps que la baisse des prix se poursuit dans les micros et aggrave
encore la différence avec les prix de l'informatique traditionnelle, les performances et la
richesse fonctionnelle des petits systèmes se rapprochent de celles de systèmes
traditionnels, en particulier grâce aux développements liés à Unix. Les tensions
concurrentielles s'exaspèrent, et les mondes où règne la concurrence interne la plus
dynamique acquièrent de plus en plus d'avantages concurrentiels, précisément dans les
domaines où la concurrence est la plus vive : les prix pour les micros, les systèmes
d'exploitation pour le monde Unix.

La situation actuelle est instable. Il paraît probable que la fin du siècle verra la
fusion des trois mondes en une structure unique où régnera la logique sectorielle et
concurrentielle du monde PC, et qui offrira des solutions techniques combinant le
meilleur d'Unix, du monde PC et du monde traditionnel. Quelle sera la structure de ce
nouveau monde ? Quelles formes d’intégration ou de spécialisation y seront dominantes
parmi les quatre dimensions de spécialisation possibles : par type de matériel, par
marché, par nature de prestation ou par stade de production ?

Dans le même temps où se produit cette évolution, l’informatique envahit tous les
secteurs d’activité. Des produits courants comme les voitures automobiles, les appareils
ménagers, l’audiovisuel ou les jeux contiennent de plus en plus d’« intelligence ». Le
destin de l’informatique est-il de devenir invisible en s’intégrant complètement dans les
produits spécialisés par fonction ? Et dans le même mouvement, l’industrie
informatique est-elle destinée à se fondre dans les autres industries et à disparaître en
tant que telle ? L’ensemble de ces questions sera reprise dans la quatrième partie après
que nous aurons analysé secteur par secteur les mécanismes profonds qui président à la
structuration de l’industrie.

lxi
Chapitre 4
La structure de l'industrie

A la recherche d’une structure. Généralistes et spécialistes. Produits principaux et


produits annexes. Les secteurs correspondent-ils aux marchés ? Structure de dépenses
et modèles d’entreprises.

L’objet du présent chapitre est d’analyser quelques chiffres concernant les firmes qui
composent l’industrie informatique, afin d’en établir une typologie et de tenter d’y
discerner les signes d’une structure et de comportements types.
Dans leur ensemble, les statistiques qui sont régulièrement publiées concernant
l’industrie informatique ne s’attachent pas à définir de façon précise une typologie des
firmes. La plupart d’entre elles postulent une décomposition traditionnelle du marché en
grands segments comme les grands systèmes, les moyens systèmes, les PC, les stations
de travail, les matériels périphériques, les logiciels et les services. Mais à cette
segmentation du marché ne correspond pas nécessairement une spécialisation des
firmes. Dans la réalité, la majorité des firmes opèrent dans plusieurs de ces segments.
Par exemple, presque toutes les firmes de grands et moyens systèmes fournissent
également des logiciels et des services. A l'inverse, beaucoup de commentateurs
regroupent dans un même secteur les progiciels et les services, ce qui n'aurait de sens
que si la majorité des firmes présentes dans l'un était aussi présente dans l'autre.
Certains analystes rangent un peu hâtivement les acteurs de l’industrie informatique
dans des secteurs parallèles aux secteurs de marché ci-dessus, en affectant plus ou
moins arbitrairement à chacun un segment de marché dominant. Cette approche
simplificatrice ignore la composition réelle des offres des différents intervenants et la
fréquence relative des diverses combinaisons. Pour obtenir une image plus exacte de
l’industrie informatique, nous devons analyser le contenu de l’offre de chaque entreprise
pour identifier des groupes de firmes offrant des paniers de prestations similaires. Si de
plus il s’avère que les firmes qui composent chacun de ces groupes présentent d’autres
points communs, nous pourrons penser que la structure ainsi définie est significative.
Rares sont les sources qui fournissent une analyse raisonnablement fiable de la
composition du chiffre d’affaires d’un nombre suffisant d’entreprises. Nous utiliserons
un classement (publié chaque année par la revue Datamation), où le chiffre d'affaires
des 100 premières Sociétés d'informatique américaines est ventilé selon dix rubriques
qui désignent autant de natures de produits, donc de segments de marché : grands
systèmes (large), moyens systèmes (mid), PC, stations de travail, périphériques de
communication (com), autres périphériques (péri), logiciels (soft), maintenance, autres
services (serv) et autres prestations (other).
Comme toutes les statistiques, celles-ci sont évidemment imparfaites. Premièrement,
elles ne sont malheureusement disponibles que pour les fournisseurs américains. Nous
avons néanmoins complété cet échantillon de 100 sociétés américaines par 10 grandes
entreprises japonaises et européennes pour lesquelles les données se trouvaient
disponibles (Fujitsu, Hitachi, NEC, NTT, British Telecom, CAP Gemini, Canon,

lxii
Nomura, Finsiel et Racal)[1]. Notre échantillon totalise ainsi un chiffre d’affaires
informatique de près de 272 milliards de $, soit 80% d’un marché mondial que d’autres
statistiques, comme celles de McKinsey que nous utiliserons par la suite [2], évaluent à
338 milliards pour la même année. Il manque essentiellement quelques grandes firmes
européennes comme Siemens, Olivetti, Bull et ICL, ou japonaises comme Toshiba,
Matsushita ou Mitsubishi, ainsi que de nombreuses sociétés de services très actives en
Europe. Nous examinerons par la suite dans quelle mesure ces omissions pourraient
modifier nos conclusions relatives à la structure du secteur.
Remarquons au passage qu’il est inexact de considérer que le chiffre d’affaires total
de l’industrie informatique est égal à la somme des chiffres d’affaires des firmes
mentionnées. En effet, les fabricants de périphériques et les sociétés de progiciels
vendent une part importante de leur production aux constructeurs de matériel qui
refacturent ces prestations à leurs propres clients.
Deuxièmement, les activités de fabrication de composants d’une part, de distribution
d’autre part, ne sont pas reconnues comme partie intégrante de l’industrie informatique.
Les entreprises spécialisées dans ces domaines ne figurent pas dans le classement. Si
Intel et Motorola sont mentionnées, c’est uniquement pour leurs activités secondaires
dans les grands systèmes et les cartes d’extension pour le premier, les systèmes moyens
et les périphériques de communication pour le second.
Enfin, les chiffres fournis ne sont certainement pas rigoureux. Ils reposent
essentiellement sur les déclarations des entreprises, qui se réfèrent à des définitions
implicites des produits probablement différentes de l'un à l'autre. Par exemple, le fait
que certains constructeurs de matériel ne déclarent aucun revenu de maintenance peut
impliquer qu’ils facturent cette activité avec le matériel et non qu’ils en soient absents.
Nous nous garderons donc d’interpréter ces chiffres comme autre chose que des ordres
de grandeur. Compte tenu du caractère général de nos conclusions, nous considérerons
néanmoins que l'image de l'industrie qu’ils permettent de dessiner est probablement un
reflet assez fidèle de la situation mondiale.

Typologie des acteurs


Sur les 110 firmes de notre échantillon, 76 soit 70% du nombre total ne sont
présentes que dans 1 ou 2 segments. A l'opposé 11 firmes sont présentes dans 7
segments ou plus et occupent près de 60% du marché total alors que les 76 spécialistes
se contentent de 29%. Entre les deux, 23 firmes sont présentes dans 3 à 6 segments,
pour une part de marché totale de 12% (voir tableau ci-dessous). Donc, bien que les
firmes spécialisées soient largement majoritaires en nombre, plus de la moitié du chiffre
d’affaires de l’industrie est réalisé par un petit nombre de généralistes.

Firmes par nombre de secteurs couverts

nb segments 9 8 7 6 5 4 3 2 1
firmes 3 4 4 4 1 6 12 37 39
part marché 34% 21% 4% 2% 0% 3% 7% 14% 15%

lxiii
Les généralistes
Les 11 principaux généralistes sont les offreurs historiques, tous issus de l’activité
de constructeur de matériel : IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard,
Hitachi, NCR/ATT, Unisys, Wang, Data General et Texas Instruments.
La part du matériel dans leur chiffre d’affaires va de 39% pour Unisys à 83% pour
Hitachi, mais en ajoutant la maintenance à l’activité matériel, on obtient un total qui va
de 60% pour Unisys et 64% pour IBM à 89% pour Wang et Data General, et 91% pour
Hitachi. L’histoire de ces firmes généralistes autorise à considérer comme significatif le
total du matériel et de la maintenance, puisque toutes ces firmes ne maintiennent que
leur propre matériel et qu’aucune n’offre de prestations de tierce maintenance.
La part de la maintenance chez ces généralistes varie d’ailleurs considérablement :
de 0 pour Fujitsu et Texas Instruments à 31% pour Digital Equipment et Data General et
42% pour Wang. On peut avancer deux explications possibles à ces variations : d’une
part les techniques de maintenance et la politique de facturation utilisées par chaque
firme peuvent aboutir à des proportions différentes entre le CA maintenance et le CA
matériel correspondant ; d’autre part certaines firmes dont les ventes de matériel ont
connu une récession marquée peuvent avoir encore un parc installé important dont la
maintenance engendre un chiffre d’affaires hors de proportion avec les ventes courantes
de matériel ; c’est probablement le cas de Wang et de Data General.
Ces 11 généralistes restent donc dominés par leur activité d’origine de constructeur
de matériels. Parmi les autres firmes, présentes sur moins de 7 segments, deux
présentent cette même caractéristique sans être clairement spécialisées dans un segment
de matériel particulier : ce sont Control Data et Wyse, que nous regrouperons avec les
généralistes

Généralistes
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
IBM 12.7 8.9 11.9 2.9 17.6 12.3 3.4 11.8 10.0 8.5
Fujitsu 22.0 12.0 13.0 7.5 17.5 15.5 3.0 0.0 9.5 0.0
NEC 20.0 12.9 25.9 1.0 11.9 13.0 0.0 5.5 9.7 0.0
Digital Equipment 0.3 17.6 3.2 7.9 5.6 21.2 1.8 31.2 11.1 0.0
Hewlett-Packard 0.6 10.5 5.7 12.1 3.3 36.2 5.0 2.2 4.7 19.8
Hitachi 35.6 3.7 7.9 2.0 8.6 30.0 4.0 8.3 0.0 0.0
ATT/NCR 1.4 4.9 9.6 0.0 2.7 21.8 31.7 16.4 11.5 0.0
UNISYS 0.3 0.0 0.1 0.1 0.1 0.0 0.0 0.2 0.2 0.1
Wang 0.0 0.2 0.1 0.0 0.0 0.1 0.0 0.4 0.1 0.0
Data General 0.0 0.3 0.1 0.1 0.0 0.1 0.0 0.3 0.1 0.0
Texas Instruments 0.2 0.1 0.2 0.0 0.0 0.2 0.0 0.0 0.2 0.1
Control Data 0.2 0.0 0.0 0.3 0.2 0.0 0.0 0.3 0.1 0.0
Wyse 0.0 0.0 0.2 0.2 0.0 0.6 0.0 0.0 0.0 0.0

Au total, les 13 firmes qui figurent dans le tableau ci-dessus peuvent être
considérées comme des généralistes. Ces 13 firmes représentent 59% du chiffre
d’affaires total de l’échantillon de 110 firmes. Au niveau mondial, il faudrait y ajouter
Siemens-Nixdorf, Toshiba, Olivetti, Bull, ICL et Mitsubishi, respectivement numéros 8,

lxiv
10, 12, 13, 17 et 26 par ordre de chiffre d'affaires, ce qui augmenterait encore la part des
généralistes dans le marché global.
Pour la plupart de ces généralistes, les activités de progiciels et de services sont des
prestations annexes qui ne sont fournies qu’en relation avec leur activité principale de
vente de matériel et ne représentent pas plus de 20% de leur chiffre d’affaires. Apprécier
le caractère « annexe » d’une prestation comporte une part de subjectivité. Par exemple,
des firmes considérées comme spécialisées en matériel comme NCR, Unisys ou Control
Data réalisent entre 11% et 17% de leur CA en services hors maintenance. Le cas de
Control Data est particulièrement intéressant, dans la mesure où cette Société a filialisé
une part de son activité de services dans la société Ceridian, mais en conserve
néanmoins une part supérieure à 12% de son propre chiffre d’affaires.
On peut donc penser qu’une proportion de 12 à 15% de services représente le niveau
normal de l’assistance annexe aux matériels et qu’une proportion inférieure ne permet
pas de considérer la firme correspondante comme réellement mixte. Or, dans le cas
d’IBM les services hors maintenance ne représentent que 10% du chiffre d’affaires, soit
moins que pour les cinq firmes précitées. Mais bien que ce chiffre caractérise une
activité de services purement annexe, et plutôt moins importante relativement au
matériel que celle des autres constructeurs, la taille d’IBM lui donne la première place
sur le marché des services et conduit souvent à la considérer comme une société de
services au même titre que les firmes spécialisées.

Les firmes spécialisées


Bien qu’en partie subjective, cette distinction entre prestations principales et
prestations annexes vaut pour toutes les entreprises. La simple présence d’un acteur sur
un segment ne signifie pas nécessairement qu’il y est un acteur important, ni que la
production correspondante représente une part importante de son activité. Par exemple,
le chiffre d’affaires de Microsoft, que tout le monde s’accorde à ranger parmi les
spécialistes du progiciel, comprend 8% de services et 1% de matériel à coté des 91% de
progiciel. De même, Lexmark est indiscutablement spécialisée dans les périphériques
(précisément les imprimantes) qui représentent 98% de son chiffre d’affaires, les 2%
qu’elle réalise en PC étant anecdotiques.
Sauf à accepter de ranger parmi les généralistes Microsoft, Lexmark et de
nombreuses autres sociétés, nous devons donc considérer comme spécialisées des
firmes qui offrent une prestation principale accompagnée de prestations annexes à la
prestation principale. Pour les firmes offrant principalement des produits (matériels ou
progiciels), les prestations annexes pourront être des services de maintenance ou
d’assistance à l’utilisation de ces produits, voire des progiciels liés à ces produits ou des
matériels périphériques acquis auprès de tiers et revendus comme partie intégrante d’un
système complet. Symétriquement, des sociétés de services peuvent intégrer à leur offre
des matériels qu’elles achètent pour les revendre, ce qui est une situation courante pour
celles qui pratiquent l’intégration de systèmes.
En tenant compte de ces remarques, on peut classer parmi les spécialistes non
seulement les 39 firmes présentes sur un seul segment, mais également 45 de celles qui
sont présentes sur 2, 3 ou 4 segments. Nous aboutissons ainsi à un total de 84 firmes
spécialisées qui se répartissent comme suit, et dont la liste détaillée pour chaque

lxv
spécialité, avec le pourcentage de leur chiffre d’affaires réalisé dans chacun des
segments, est donnée en annexe A (tableaux A-II à A-XII) :

Nombre de spécialistes par segment

lge mid PC stat soft péri com maint serv other


1 segment 0 1 4 0 8 7 4 0 14 1
>1 segment 3 2 5 3 7 8 3 1 12 1
total 3 3 9 3 15 15 7 1 26 2

La plupart de ces affectations sont évidentes, mais certains cas demandent une
explication complémentaire. Dans les catégories de spécialistes en systèmes centraux
coexistent deux types de firmes : celles qui ne commercialisent que les unités de
traitement en laissant leurs clients s’adresser à d’autres fournisseurs pour les
périphériques et les services (comme Convex, Stratus et la plupart des constructeurs de
PC), et celles qui offrent des systèmes plus complets entraînant des chiffres d’affaires
non négligeables dans ces segments annexes. Sont dans ce dernier cas Amdahl pour les
grands systèmes, Tandem pour les moyens, Apple ou CompuAdd pour les micros. On a
également admis qu’un chiffre d’affaires important dans la maintenance ou les services
n’est pas nécessairement révélateur d’une activité réellement mixte, c’est à dire où les
services seraient commercialisés indépendamment des matériels.
Notons enfin que Motorola et Intel n’apparaissent dans les statistiques de
Datamation que pour leurs activités de fournisseurs de systèmes moyens et les
périphériques de communication pour le premier, de grands systèmes et de cartes
d’extension pour le second. Bien que primordial dans le domaine de l’informatique, leur
rôle principal de fabricant de composants n’est pas pris en compte dans ce classement et
la présence de ces deux firmes parmi les spécialistes respectivement des
communications et des périphériques ne doit pas faire illusion, surtout dans le cas
d’Intel.

Les firmes mixtes


En dehors des 13 « généralistes », il reste 13 firmes plus ou moins réellement
mixtes, qui se répartissent comme suit (voir en annexe tableau A-XII) :
– 1 (Prime Computervision) est une Société de matériel qui offre maintenance,
logiciel et services associés, et aurait pu être rangée parmi les spécialistes des
stations de travail, si ce n’est que son activité importante de maintenance concerne
des matériels distincts hérités du rachat de Prime ;
– 1 (Ask) offre principalement du logiciel, complété par du matériel et des
services ;
– 3 (Dun and Bradstreet, Reynolds & Reynolds, National Computer Systems)
complètent par du matériel et du logiciel une offre centrée sur le service et la
maintenance ;
– 4 (Lockheed, NTT, Datapoint, British Telecom) offrent de façon à peu près
équilibrée du matériel et des services ;

lxvi
– 3 (Finsiel, Sterling Software, Nynex) offrent de façon à peu près équilibrée du
logiciel et des services ;
– 1 (MAI), offre de façon à peu près équilibrée des services et de la maintenance.
A part Prime/Computervision, dont l’histoire est celle d’un constructeur de matériel,
la part des services dans l’offre des firmes mixtes est élevée. De fait, presque toutes sont
au départ des sociétés de services qui ont greffé sur cette activité une offre de matériel
ou de progiciel.
Les différences entre les années 1992 et 1993 font intervenir à la fois des évolutions
réelles de la composition de l’offre des firmes et des reclassements d’activités
identiques dans des catégories différentes. Sous cette deuxième rubrique, on trouve
typiquement des regroupements du matériel périphérique avec les systèmes centraux
concernés, des ventilations différentes entre maintenance et autres services, voire des
regroupements de la maintenance avec les matériels ou les logiciels maintenus. Les
seules entreprises qui changent de catégorie en 1993 sont Ceridian qui isole une part
importante de matériel et devient donc mixte, et Gerber qui en précisant sa production
entre dans la catégorie des périphériques.

Correspondance entre secteur et marché


Examinons maintenant comment sont servis les différents marchés. Pour chacun des
dix segments principaux retenus par Datamation, considérons toutes les firmes qui y
réalisent un chiffre d'affaires non nul. Ces firmes peuvent appartenir à toutes les
catégories définies ci-dessus, mais elles seront le plus souvent soit des généralistes, soit
des spécialistes du segment concerné. Le graphique ci-dessous montre pour chacun des
segments la part respective des généralistes, des spécialistes du segment et des autres
firmes (spécialistes d’autres segments ou firmes mixtes). Le détail des chiffres figure en
annexe (tableaux A-XIII et A-XIV).

Généralistes et spécialistes
Large 3

Mid 3
9 ++
PC

Stat 3

Soft 15 ++

Peri 15 ++

Comm 7+

Maint 1

Serv 27 ++ Spec
2 Autres
Other
Gen
0 10000 20000 30000 40000 50000 60000
CA 1992 (M$)
Données Datamation - Analyse GD
G. Dréan - 1997

lxvii
Les treize généralistes dominent largement les segments des grands et des moyens
systèmes, ainsi que le segment maintenance. Ils ne sont clairement minoritaires que
dans le segment des services hors maintenance. Pour les PC, les stations et les
périphériques, les spécialistes du segment occupent ensemble presque tout le reste du
marché, ne laissant qu’une place marginale aux spécialistes des autres segments et aux
firmes mixtes. Ce phénomène de bipolarisation est moins net pour le software, les
périphériques de communication, la maintenance et les services. Dans le segment
maintenance, c’est même la firme spécialisée qui n’occupe qu’une part de marché
marginale, laissant la seconde place aux spécialistes des autres segments et aux firmes
mixtes.
Une analyse plus détaillée segment par segment est donnée en annexe. Les tableaux
A-XV à A-XXIII contiennent, pour chacun des segments, la liste des firmes de
l’échantillon des 110 qui y sont présentes, classées dans l’ordre décroissant de leur part
de ce marché donnée en colonne 2. Pour chaque firme sont rappelées sa catégorie de
spécialisation ainsi que la part du segment considéré dans le chiffre d’affaires
informatique de la firme, qui mesure son degré de spécialisation relativement à ce
segment.

Grands systèmes (tableau A-XV)


Quatorze (14) firmes sont présentes, dont 10 des 13 généralistes, qui réalisent
ensemble plus de 90% du chiffre d’affaires avec des spécialisations inférieures à 36%.
Les 3 véritables spécialistes occupent ensemble moins de 10% de ce marché, et une
seule autre firme (Intel) est marginalement présente.
Les cinq plus fortes parts de marché sont occupées par des généralistes, qui sont en
ordre décroissant IBM, Fujitsu, Hitachi, NEC et Unisys. Le marché des grands systèmes
est donc dominé par ces 5 offreurs, qui réalisent ensemble près de 85% du chiffre
d'affaires. Les spécialistes n’apparaissent qu’à partir de la sixième place, avec des parts
non supérieures à 6%.
Au total, les firmes spécialisées dans les grands systèmes sont trop peu nombreuses
et occupent une trop faible place sur le marché correspondant pour pouvoir être
considérées comme formant un secteur autonome. On peut s’attendre à ce que le
comportement concurrentiel des offreurs de grands systèmes ne soit pas régi par des
facteurs propres à ce segment, mais par des stratégies généralistes qui englobent
également les autres marchés sur lesquels opèrent les offreurs dominants.

Systèmes moyens (tableau A-XVI)


La situation est presque identique à celle des grands systèmes, au nom de certains
acteurs près. Dix-sept (17) acteurs opèrent sur ce segment, dont 10 des 13 généralistes
qui réalisent 88% du chiffre d’affaires. La part de marché totale des trois seuls
spécialistes est ici aussi inférieure à 9%. Quatre (4) autres firmes sont présentes
(Reynolds and Reynolds, Ask, Motorola et Sun), avec des parts de marché allant de 0.2
à 1.2%.
Ici encore, les cinq plus fortes parts de marché sont occupées par des généralistes,
qui sont en ordre décroissant IBM, Digital Equipment, Fujitsu, NEC et Hewlett-
Packard, et réalisent ensemble près de 80% du chiffre d'affaires. Les spécialistes

lxviii
n’apparaissent qu’aux sixième, huitième et douzième places, avec des parts inférieures à
5%. Comme pour les grands systèmes, on ne peut pas parler de secteur autonome.
Il est tentant de regrouper grands et moyens systèmes, où la situation et un grand
nombre d’acteurs sont identiques, et entre lesquels la séparation est d’ailleurs assez
arbitraire. Sur le segment composite sont présentes 23 firmes dont 12 des 13
généralistes qui y occupent les six premières places par ordre de part de marché, et un
total de 89%. Les spécialistes de l’un ou de l’autre, au nombre de six, n’apparaissent
qu’à partir de la septième place avec une part maximale de 3.5%. Les autres firmes n’y
jouent qu’un rôle modeste avec des parts de marché inférieures à 0.5%.
Cette image ne serait probablement pas remise en question si nous prenions en
considération l’ensemble de l’industrie mondiale. En effet, la catégorie des généralistes
s’étendrait alors à des firmes comme Bull, Olivetti et ICL, et sa domination en serait
encore renforcée puisqu’il n’existe hors de notre échantillon que très peu d’autres firmes
présentes dans les grands ou les moyens systèmes. De plus, il est probable que presque
toutes les firmes productrices de ce type de systèmes ont une taille suffisante pour
figurer dans notre échantillon et que l’extension à des firmes de taille inférieure
n’introduirait pas de modifications notables.

PC (tableau A-XVII)
La situation est visiblement différente pour le segment des micro-ordinateurs. Douze
des 13 généralistes figurent parmi les 25 firmes présentes, mais ne totalisent que 51% de
ce marché. En revanche, 9 firmes spécialisées en occupent 47% et apparaissent dès la
deuxième et la troisième place (Apple et Compaq). Les firmes mixtes autres que les
généralistes jouent là aussi un rôle mineur.
Le segment est donc satisfait par deux types de firmes : d’une part des spécialistes
pour lesquels la micro-informatique représente plus de 65% de leur activité, et d’autre
part des firmes pour lesquelles ce segment représente une part minoritaire (moins de
30%) de leur activité.
Si nous prenions en compte la totalité de l’industrie informatique mondiale, on
verrait alors apparaître sur ce segment d’une part les quelques autres généralistes non
américains, mais aussi un grand nombre d’entreprises trop petites pour figurer dans
l’échantillon retenu par Datamation. En nombre d’acteurs, ceci donnerait une très nette
majorité aux firmes spécialisées, et il est fort possible que ceci ait même pour effet
global de donner aux firmes spécialisées la plus grande part du chiffre d’affaires.
On peut donc considérer qu’il existe un secteur autonome d’offreurs spécialisés en
micro-ordinateurs, qui comprend d’ailleurs un grand nombre de petites firmes. Ce
secteur est en concurrence sur le marché avec celui des grands généralistes.

Stations (tableau A-XVIII)


Le cas des stations de travail est en quelque sorte intermédiaire entre celui des
moyens ou grands systèmes et celui des PC. Dix-neuf (19) firmes y sont présentes dont
10 des 13 généralistes, qui représentent encore 63% du marché. Par contre, bien qu’il
n’y ait que trois véritables spécialistes (Sun, Silicon Graphics et Intergraph), ceux-ci
totalisent 32% du marché et y occupent respectivement les première, sixième et

lxix
huitième place, les autres places jusqu’à la onzième étant tenues par sept généralistes et
Prime/Computervision qui s’intercale à la neuvième.
Là encore, on peut donc considérer qu’il existe un secteur autonome d’offreurs
spécialisés en stations, en concurrence sur le marché avec les grands généralistes. Mais
contrairement au cas des PC, ce secteur spécialisé est formé d’un petit nombre de
firmes. Prendre en considération l’ensemble de l’industrie mondiale ne modifierait
probablement pas cette conclusion.

Software (tableau A-XIX)


Une différence importante avec les segments précédents est le nombre des acteurs
présents, qui s’élève à 57 soit plus de la moitié de l’échantillon. De plus, il existe de
nombreuses firmes petites ou non américaines qui sont actives dans ce domaine, si bien
que prendre en considération toute l’industrie renforcerait encore cette particularité. On
peut dire que la majorité des firmes qui composent l’industrie informatique sont
présentes dans le segment du software.
C’est en particulier le cas des généralistes, qui représentent ensemble 57% du chiffre
d’affaires software de notre échantillon, alors que 15 spécialistes en représentent 30% et
que 32 autres firmes, spécialisées dans d’autres domaines ou réellement mixtes,
totalisent 13%. Deux généralistes occupent les premières places, IBM avec 32% et
Fujitsu avec 10%, mais les spécialistes apparaissent rapidement : Microsoft troisième
avec 8%, Computer Associates cinquième avec 5%, Novell sixième avec 3%.
Il existe donc bien un secteur autonome pour le software, toujours en concurrence
avec les généralistes, mais la bipolarisation est moins nette que pour les PC ou les
stations. Entre 38 firmes dont la part d’activité software est inférieure à 30% et 14
firmes clairement spécialisées à plus de 70% s’échelonnent cinq firmes avec des
spécialisations comprises entre 40 et 60%, le reste étant généralement fait de services. Il
s’agit de Nynex, Ask, Sterling Software, Finsiel et Oracle.

Périphériques dont communication (tableaux A-XX et A-XXI)


La situation dans les périphériques, où 41 firmes sont présentes, est intermédiaire
entre celle des PC et celle du software. Là encore, 11 des 13 généralistes occupent au
total un tout petit peu plus de la moitié du marché, IBM venant en tête avec 15%. Mais
15 spécialistes en représentent 40%, la part de marché du plus important d’entre eux
étant supérieure à 7%, tandis que 17 autres firmes, mixtes ou spécialistes d’autres
domaines, totalisent 8%.
Pour les périphériques de communication, le nombre d’acteurs (18) est moindre que
pour les autres périphériques, et ceci pour chaque catégorie. Seuls 7 des 13 généralistes
sont présents, avec 49% du marché, plus 7 spécialistes pour 35% du marché, et 4 autres
firmes pour les 16% restants (dont British Telecom et NTT).
Il faudrait d’ailleurs isoler non seulement les périphériques de communication, mais
aussi distinguer les unes des autres les diverses familles fonctionnelles comme les
imprimantes, les disques, les cartes d’extension, les terminaux, … qui forment des
marchés plus distincts les uns des autres que ne le sont par exemple les grands
ordinateurs, les systèmes moyens et les stations. Dans chacun de ces segments, à coté

lxx
des généralistes toujours plus ou moins présents, on trouve un grand nombre de
spécialistes qui jouent un rôle important malgré leur taille souvent modeste.

Maintenance (tableau A-XXII)


Vingt-huit (28) firmes, dont 10 des 13 généralistes, déclarent un chiffre d’affaires en
maintenance. Les 10 généralistes réalisent ensemble 84% du chiffre d’affaires total et
occupent en particulier les 7 premières places. Une seule firme, Bell Atlantic, peut être
considérée comme spécialisée en maintenance avec 77% de son chiffre d’affaires pour
20% de software et 3% de services ; elle apparaît à la huitième place avec une part de
marché de 3%. Dix-sept (17) autres firmes, généralement spécialisées en matériel ou en
services, se partagent 13% du marché.
Il existe probablement hors de l’échantillon, en particulier hors des USA, quelques
autres firmes spécialisées en maintenance, mais leur part du marché total est
certainement modeste. On ne peut donc pas considérer la maintenance comme un
secteur autonome, mais comme une prestation annexe aux autres prestations, bien que
quelques firmes s’y soient exceptionnellement spécialisées.

Services (tableau A-XXIII)


C’est dans ce domaine que les intervenants sont le plus nombreux avec 63 mentions
sur les 110 firmes de notre échantillon. C’est aussi en matière de services que le nombre
(26) et la part (42%) des spécialistes sont le plus élevés. Cette particularité est
probablement encore plus affirmée au niveau de l’ensemble de l’industrie mondiale, car
il existe, en Europe comme aux USA, une multitude d’entreprises de service trop petites
pour figurer dans l’échantillon des 110, mais dont le chiffre d’affaires cumulé est loin
d’être négligeable. Onze des 13 généralistes sont présents et occupent ensemble 32% de
ce marché, en particulier IBM qui occupe la première place avec 14%. Mais 27 autres
firmes de notre échantillon, pour qui le service est également une activité secondaire,
réalisent quand même 26% du chiffre d’affaires.
On constate que les services attirent de très nombreuses firmes de taille très variable,
et représentent en particulier un secteur autonome bien qu’en concurrence avec les
généralistes.

Conclusions
En règle générale, on ne peut pas associer à chacun des segments de marché un
groupe de firmes qui réaliserait l’essentiel du chiffre d’affaires de ce marché et ne serait
que marginalement présente sur les autres. Les secteurs de l’industrie ne peuvent donc
pas être définis par une correspondance simple avec les segments de marché. Il en
découle en particulier que les comportements des offreurs sur la plupart de ces marchés
ne sont pas déterminés par des considérations propres à ce marché, mais par une
stratégie plus générale. Par exemple, les marchés des grands et des moyens systèmes
sont largement dominés par des acteurs pour qui ces marchés ne représentent qu'un part
minoritaire de leur offre, et pour qui le champ de la concurrence est significativement
plus vaste. Il est donc important de bien distinguer les notions de « segment de marché »
(l'ensemble des acheteurs actuels ou potentiels d'un produit[3]) et celle de « secteur
d'industrie » (ensemble des firmes qui fabriquent des produits étroitement

lxxi
substituables[4]), et à l'intérieur d'un secteur de distinguer des catégories différentes
d'acteurs selon par exemple leur degré de spécialisation.
L’analyse des prestations des 110 firmes dont la décomposition de l’activité est
connue nous permet d’en répartir la grande majorité en huit secteurs :
– les généralistes (IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard,
Hitachi, NCR/ATT, Unisys, Wang, Data General, Texas Instruments, Control Data
et Wyse), auxquels s’ajoutent au niveau mondial Siemens, Toshiba, Olivetti, Bull,
ICL et Mitsubishi ;
– les firmes spécialisées par niche de systèmes conventionnels (Amdahl, Cray,
Convex pour les grands systèmes, Tandem, Sequent et Stratus pour les systèmes
moyens) ;
– les constructeurs de PC (Apple, Compaq, Dell, AST, Gateway 2000, Packard
Bell, Commodore, Tandy, CompuAdd), plus un grand nombre de firmes
européennes, japonaises et américaines de moindre importance ;
– les constructeurs de stations (Sun, Silicon Graphics, Intergraph) ;
– les firmes de software (Microsoft, Computer Associates, Novell, Lotus, Oracle,
Wordperfect, Borland, Legent, Autodesk, SAS, Cadence, Adobe, Mentor
Graphics, Informix, Sybase), et un grand nombre de firmes de moindre
importance, principalement américaines ;
– les constructeurs de périphériques (Canon, Seagate, Xerox, Conner, Quantum,
Maxtor, Lexmark, Intel, Storage Technology, Western Digital, Micropolis, EMC,
Tektronix, Kodak), avec un grand nombre de firmes de moindre importance,
américaines, japonaises et européennes ;
– les constructeurs de périphériques de communication (Northern Telecom,
Motorola, Racal, 3COM, Synoptics, Cabletron, Digital Communications), plus un
grand nombre de firmes de moindre importance, américaines, japonaises et
européennes ;
– les sociétés de services (EDS, Computer Sciences, Andersen Consulting, ADP,
CAP, TRW, First Data, Nomura, Price Waterhouse, Ceridian, PRC, SHL, Ernst
and Young, Coopers and Lybrand, Systematics, General Electric, Martin Marietta,
Boeing, Shared Medical Services, Science Applications, Policy Management,
Litton, Grumman, Fiserv, Computer Task Group, American Management
Systems), et un grand nombre de firmes de moindre importance dans le monde
entier.
Pour obtenir un panorama complet, il faut ajouter deux autres secteurs spécialisés :
celui des composants et celui de la distribution. Intel et Motorola quitteront alors le
secteur des périphériques où les range artificiellement le classement de Datamation pour
rejoindre celui des composants.
Par ailleurs, il faudrait séparer les constructeurs de périphériques en différents
secteurs selon la nature des produits, comme le classement Datamation le fait pour les
périphériques de communication. Un secteur des mémoires comprendrait des firmes
comme Seagate, Conner, Quantum, Maxtor, Storage Technology, Western Digital,
Micropolis et EMC, alors qu’un secteur « sorties sur papier » pourrait comprendre
Canon, Xerox, Lexmark et Kodak en concurrence avec Hewlett-Packard. De la même

lxxii
façon, le secteur des services devrait être décomposé en secteurs spécialisés, tant est
grande la variété des formes de services.

Structure de dépenses et modèles d’entreprise


Une piste pour affiner notre classification consiste à analyser la composition des
dépenses des entreprises. Les statistiques fournies par McKinsey donnent pour un
certain nombre de firmes les pourcentages de leur chiffre d’affaires qu’elles consacrent
à la R&D d’une part, aux dépenses commerciales et d’administration d’autre part. Il est
facile d’en déduire la ventilation de leurs dépenses totales (revenu moins profit) entre
Recherche et Développement, frais administratifs et commerciaux, et enfin coût de
revient des produits vendus. En rapportant ces catégories de dépenses aux dépenses
totales plutôt qu’au revenu, on élimine les différences de profitabilité qui
augmenteraient la dispersion des pourcentages.
Ces ratios sont donnés en annexe dans le tableau A-XXIV pour l’année 1993 prise
comme exemple. Les firmes sont rangées par ordre décroissant du ratio des coûts de
production.
Observons que ces ratios varient dans des plages très larges : de moins de 20% à
près de 90% pour les coûts de production, de 0 à près de 30% pour la R&D, de 6 à plus
de 70% pour les dépenses commerciales et d‘administration. Or il paraît évident que des
firmes qui consacrent 85% de leur chiffre d’affaires à la production contre 4% à la R&D
et aux dépenses commerciales sont très différentes de firmes pour lesquelles la
production ne représente que 25% du CA contre 15% à la R&D et 45% au commerce et
à l’administration. De telles différences révèlent certainement des formes d’entreprises
radicalement différentes et obéissant à des logiques de comportement différentes qui
doivent le faire considérer comme appartenant à des secteurs distincts.
Or l’examen des chiffres fait clairement apparaître une répartition des firmes en
groupes relativement homogènes.
Les fabricants de PC et de périphériques spécialisés pour PC (Western Digital,
Quantum, Conner, Seagate, Maxtor, Micropolis) ont les coûts de production les plus
élevés, avec des ratios compris entre 65% et 90% des dépenses totales, et ceci de façon
constante chaque année. Pour la plupart de ces firmes, la R&D se situe entre 2 et 4%
pour les constructeurs de PC, qui se contentent d’assembler des produits standardisés,
entre 4 et 8% pour les constructeurs de périphériques qui développent des produits
originaux. Les coûts de ventes et d’administration se situent entre 6 et 10% pour les
firmes qui pratiquent une commercialisation indirecte à travers des revendeurs, tandis
que les firmes comme Dell ou Compaq ont des ratios plus élevés. Au total, ces ratios
caractérisent une stratégie d’entreprise reposant sur un petit nombre de produits
standards et une concurrence par les prix plutôt que par les produits. Le seul
constructeur spécialisé dans les micro-ordinateurs qui s’écarte de ce schéma est Apple,
dont les ratios se rapprochent de ceux des constructeurs traditionnels.
A l’autre extrême, le progiciel a les coûts de production les plus faibles, toujours
inférieurs à 50% du CA et la plupart du temps inférieurs à 35%. Corrélativement, les
dépenses de vente et d’administration sont les plus élevées, en étant toujours supérieures
à 30% sauf pour SAP, et dépassant souvent 50%. Les coûts de R&D représentent
typiquement entre 8 et 20% du chiffre d’affaires, le cas d’Ultimate étant probablement
une erreur dans les chiffres.

lxxiii
Les différences entre ces types d’entreprise apparaissent encore plus clairement sur
les diagrammes suivants, où chaque firme est représentée par un point ayant pour
coordonnées son pourcentage de R&D (en abscisse) et de dépenses de vente et
d’administration (SG&A) en ordonnée, et ceci pour l’année 1993. Les trois zones en
grisé représentent les plages où se concentrent la plupart des firmes de micro-
informatique (en bas à gauche), de progiciel (en haut à droite), et les généralistes (zone
intermédiaire), pour l’ensemble de la période considérée.

Dépenses 1993

0,8

0,7

0,6
pro
gici
0,5 els

SG&A 0,4

0,3 généraliste
s
0,2

PC
0,1

0
0,00% 5,00% 10,00% 15,00% 20,00% 25,00%
R&D
Données McKinsey - Analyse GD
G. Dréan - 1997

En ignorant pour l’instant quelques cas aberrants comme ceux d’Apple, dont nous
avons déjà vu qu’il appartient en fait à la catégorie des généralistes, ou encore
d’Ultimate et de Novell, nous voyons que ces plages sont suffisamment étroites et
disjointes pour représenter des types d’entreprises différenciés. De plus, on constate que
ces plages sont très stables dans le temps pour les dernières années, le seul mouvement
notable étant une dérive de la zone des PC vers le bas et la gauche, reflétant sans doute
une rigueur de gestion croissante avec le temps.
Le cas du progiciel appelle quelques commentaires. Ses coûts de reproduction très
faibles entraînent automatiquement des valeurs élevées pour les deux autres types de
dépenses que sont la R&D et les dépenses générales, situant donc la zone du progiciel
en haut et à droite du diagramme. Mais les points représentant les différentes entreprises
restent assez dispersés. Il est probable que les dimensions importantes de la zone du
progiciel s’expliquent essentiellement par le fait que dans ce secteur, la distinction entre
développement, production et commercialisation a été interprétée différemment selon
les entreprises. Par exemple, la frontière entre R&D et production n’a peut-être pas été
située de façon identique par toutes les firmes, ou encore les dépenses de documentation
ont pu être considérées comme des coûts de développement par les uns, comme
dépenses commerciales par d’autres. C’est pourquoi il ne faut sans doute pas attacher
une importance excessive aux points aberrants que nous mentionnions plus haut.

lxxiv
Mis à part ces inexactitudes possibles, la position des firmes sur le diagramme, et
leurs déplacements éventuels au cours du temps, représentent assez bien leur mode de
fonctionnement et leurs choix stratégiques. Le pourcentage de R&D tendra à être
d’autant plus élevé que la firme cherche à offrir des produits originaux, par opposition à
une activité de pur assemblage de produits standard. La part de dépenses commerciales
et d’administration reflète également pour une part l’originalité des produits, qui tend à
exiger un effort commercial particulier, mais surtout le mode de commercialisation
direct ou indirect, le poids des dépenses publicitaires et d’une façon générale le train de
vie de l’entreprise.
Ces explications aident à interpréter la place des autres firmes. Les constructeurs de
systèmes spécialisés ont des taux de SG&A comparables à ceux des généralistes, sauf
Amdahl et Cray qui ont des taux inférieurs, tandis que leurs taux de R&D sont presque
tous supérieurs à ceux des généralistes. C’est en particulier les cas des offreurs de
stations de travail. Les fabricants de périphériques ont des dépenses de vente et
d’administration plus modestes, probablement parce qu’une part plus ou moins
importante de leur production est commercialisée indirectement à travers les offreurs de
systèmes, tandis que leur taux de R&D les rapproche soit des généralistes soit des
micros suivant la vocation de leurs produits.

Dépenses Services
80,00%

70,00%

60,00%

50,00%

SG&A 40,00% Policy Mgmt 91, 92

Shared Med 91
30,00% ADP

VOLMAC 91 Nat Comp 93


20,00%
Policy Mgmt 93

10,00% Hoskyns 91 SEMA 91


CTG 92
Science Apps 93
0,00%
0,00% 5,00% 10,00% 15,00% 20,00% 25,00%
R&D
Données McKinsey - Analyse GD

Les services se répartissent sur tout le plan, confirmant ainsi qu’il s’agit d’un
ensemble d’activités très hétérogène. C’est aussi pour cette catégorie que la proportion
de firmes qui publient ces informations est la plus faible, ce qui peut laisser planer des
doutes sur la fiabilité des quelques chiffres publiés, pour les mêmes raisons d’ailleurs
que pour les progiciels. Néanmoins, on peut observer que des sociétés comme Hoskyns
ou Sema, qui offrent des services d’intégration ou de développement, se situent dans
une zone voisine de celle des PC, alors que la structure de dépenses des firmes de

lxxv
traitement comme Policy Management, ADP ou Shared Medical Systems les rapproche
des généralistes voire du progiciel.

Synthèse
En combinant cette approche de classification avec l’analyse des combinaisons de
prestations, on est conduit aux conclusions suivantes :
Il existe un modèle spécifique aux firmes spécialisées dans le progiciel, qui sont
généralement totalement absentes du marché des matériels, et n’offrent que le minimum
de prestations annexes comme la maintenance ou les services. Ces firmes ont une forte
activité de R&D et une activité commerciale hypertrophiée, mais un coût de production
faible en valeur relative.
Les firmes où le matériel domine appartiennent à deux types distincts :
– un type classique avec une activité de R&D suffisante pour développer des
produits propres, et une forte activité commerciale. Ce type comprend les
généralistes historiques et leurs concurrents plus spécialisés dans certains types de
matériel dont les périphériques associés aux systèmes classiques, ainsi qu’Apple
dans le secteur de la micro.
– un type lié à la micro-informatique compatible, avec des activités de R&D, de
vente et d’administration réduites à leur plus simple expression, donc une
domination absolue de la production.
Les constructeurs généralistes appartiennent au type classique et cherchent à offrir à
la fois une large gamme de matériels y compris des périphériques, ainsi que la
maintenance, les logiciels et les services associés à ces matériels. Ce modèle est celui
des premiers temps de l’informatique ; pour les firmes qui suivent ce modèle, l’objectif
principal est toujours de fournir à leurs clients des systèmes complets, même si les
différentes prestations sont devenues plus ou moins indépendantes sur le plan tarifaire et
commercial, ainsi que dans l’organisation interne des entreprises. Il est également suivi
par des firmes comme Prime, les fournisseurs de stations de travail, ainsi que par Apple
en micro-informatique.
Les constructeurs de matériel spécialisé ont choisi de se limiter à une niche précise,
qu’il s’agisse d’unités centrales ou de périphériques. En règle générale, ces
constructeurs essaient de ne fournir que le minimum de logiciel ou de prestations
annexes. Les plus anciens, comme Tandem, Stratus, Evans & Sutherland ou Memorex
se rattachent au type classique tandis que les constructeurs de compatibles IBM et de
périphériques associés se conforment au modèle qui est devenu la règle dans la micro-
informatique à partir de 1981. On retrouve la séparation historique entre le monde
traditionnel et le monde PC, le monde Unix comme le monde Apple fonctionnant plus
comme le monde traditionnel que comme celui de la micro-informatique compatible.
Dans le domaine des services apparaissent deux types extrêmes : celui des services
« intellectuels » dont la structure de coûts ressemble à celle du matériel micro-
informatique avec des coûts de production élevés et des coûts de R&D et de
commercialisation faibles, et à l’opposé celui des services « de traitement » dont la
structure de coûts ressemble à celle du progiciel avec des coûts de R&D et de

lxxvi
commercialisation élevés. Non seulement cette catégorie regroupe deux formes
d’entreprises diamétralement opposées, mais les similitudes de structure de coûts avec
d’autres secteurs semblent paradoxales : les services de développement de logiciel se
comportent comme les firmes de matériel micro et non comme celles de progiciels,
tandis que les services de traitement se comportent plus comme des firmes de progiciel
que comme des firmes de matériel.
La structure de dépenses des firmes mixtes rapproche certaines de l’un des modèles
dominants ci-dessus. Par exemple, MAI se rattache normalement au modèle de la
micro-informatique, Datapoint à celui des constructeurs classiques et Ask Computers à
celui du progiciel.

Conclusions
L’examen des chiffres, malgré les réserves sur leur fiabilité et la représentativité
partielle de l’échantillon, nous a permis de rattacher la plupart des 110 firmes à un petit
nombre de modèles d’entreprise. Mais ces catégories ne sont pas exactement parallèles
à la segmentation conventionnelle du marché.
A chaque segment de marché est bien associée une certaine population d’entreprises
qui s’y sont spécialisées. L’ensemble de ces spécialistes constitue d’ailleurs la majorité
des entreprises d’informatique. Mais il existe également un groupe de généralistes, dont
chacun est présent dans presque tous les segments en concurrence avec les spécialistes,
et qui bien que moins nombreux réalisent plus de la moitié du chiffre d’affaires de
l’industrie. En dehors des spécialistes et des généralistes, il existe relativement peu de
firmes dont l’activité principale se partage entre deux ou trois segments. Dans la plupart
des cas il s’agit de firmes dans une situation transitoire, par exemple des entreprises de
systèmes « clés en mains » qui restreignent leur offre au progiciel (comme
Computervision ou Ask), ou à l’inverse des entreprises de services qui complètent leur
offre par des matériels spécialisés. En tout état de cause, ces entreprises mixtes ne
tiennent qu’une place marginale dans les segments de marché où elles sont présentes.
La plupart des segments sont donc servis par des entreprises appartenant à des
groupes différents, et certains groupes sont caractérisés par leur présence sur plusieurs
segments. Autrement dit, la définition classique d’un secteur d’industrie comme
« l’ensemble des firmes produisant un certain produit » ne nous permet pas de répartir
les firmes en groupes homogènes et raisonnablement disjoints.
La principale distinction est donc entre généralistes et spécialistes, ceux-ci se
distinguant à leur tour selon leur activité. En analysant de plus près la structure de
dépenses de chaque entreprise, nous avons isolé parmi ces spécialistes deux
personnalités très typées : les constructeurs de matériels microinformatiques et de
périphériques associés, avec des dépenses commerciales et de R&D réduites au
minimum, et à l’opposé les producteurs de progiciel, avec des dépenses de R&D
importantes et des frais commerciaux et généraux hypertrophiés. Les entreprises de
services forment une population hétérogène, où certaines ont une structure de dépenses
voisine de celle des matériels microinformatiques et d’autres une structure voisine de
celle des progiciels.
Ce critère définit trois types de spécialistes : le progiciel à un extrême (avec les
firmes de service spécialisées dans le traitement), le matériel micro-informatique (avec

lxxvii
les services d’assistance et de développement) à l’autre extrême, et les entreprises des
autres catégories avec des profils plus équilibrés qui ne diffèrent pas radicalement du
profil des généralistes. Les spécialistes des grands ou des moyens systèmes, comme
ceux des stations de travail et Apple, se rangent dans cette catégorie des entreprises plus
conventionnelles.
Notons enfin que les spécialistes des grands systèmes et des moyens systèmes, ainsi
que ceux de la maintenance, sont peu nombreux et ne tiennent qu’une place modeste sur
les segments de marché correspondants.
Ces conclusions seraient globalement inchangées si nous considérions l’ensemble de
l’industrie mondiale et non un échantillon des plus grandes firmes principalement nord-
américaines. La plus grande différence serait l’apparition parmi les grands acteurs de
firmes non spécialisées en informatique comme Fujitsu, NEC, Hitachi, Siemens, Canon,
etc. Il s’agit d’un phénomène typiquement japonais et un peu européen, puisque aux
USA les groupes non spécialisés ne jouent plus un rôle de premier plan en informatique
depuis leurs tentatives des années 60. Par ailleurs, la prise en compte des petits acteurs
accentuerait encore le contraste entre des secteurs concentrés comme les matériels
conventionnels, qui comporte peu d’acteurs en dehors des grands, et des secteurs
dispersés comme le matériel micro-informatique, le progiciel ou les services, où les
petites firmes sont légion.

[1]
A la date de rédaction du présent chapitre, cet ensemble de données enrichies n’est disponible
que pour l’année 1992. C’est pourquoi l’étude qui suit repose sur les données relatives à cette année, bien
que le classement Datamation 93 ait été publié en Juin 1994. Nous mentionnerons les différences
significatives entre 1993 et 1992, qui ne remettent pas en question la typologie qui suit.

[2]
McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994).

[3]
Kotler, Principles of Marketing

[4]
Porter, Competitive Strategy

lxxviii
Chapitre 5
Structure et performances

La croissance par secteur. Réflexions sur les profitabilités comparées. Cycles de


production et dispersion des profits. Il n’y a pas de bons et de mauvais secteurs.
Profitabilité et services. Profitabilité et croissance.

Les observateurs s’étonnent souvent de la diversité des performances des firmes


du secteur informatique. Alors que jusque vers la fin des années 80, l’informatique était
réputée être une industrie prospère, les catastrophes s’y succèdent depuis quelque
temps. Les firmes naguère les plus florissantes traversent des années de déclin de leur
volume d’affaires et de pertes financières qui leur imposent de douloureuses
restructurations. Dans le même temps, d’autres firmes généralement plus jeunes, plus
petites et plus étroitement spécialisées alignent année après année des taux de croissance
de 30% et plus, et des marges nettes supérieures à 20%.

A partir de ce constat, tel qu’il s’exprime dans les résultats publiés par les
entreprises, l’objet du présent chapitre est de déceler les corrélations qui peuvent
apparaître entre les types d’entreprise et les performances, que nous caractériserons par
deux indicateurs : le taux de croissance du CA et le taux de profit net. Les sources
utilisées sont les statistiques publiées par le Groupe McKinsey dans la série de ses
rapports sur l’industrie informatique, dont les éditions récentes couvrent les années
1985 à 1993 . Nous en avons éliminé les firmes dont l’activité informatique représente
24

une trop faible part du total pour que le taux de profit soit représentatif de cette activité.

Dans les analyses qui suivent, nous utilisons la classification des entreprises selon
la nature de leur production que nous avons présentée au chapitre précédent. Cette
analyse diffère de celles qui sont régulièrement publiées dans la presse, et qui
s’attachent à l’évolution des segments de marché, c’est à dire des différents produits et
services qui composent l’offre informatique indépendamment de leur source. Pour les
entreprises qui sont spécialisées dans chacun de ces segments, leur taux de croissance
reflète pour l’essentiel l’évolution de la demande du marché pour les produits du
segment, et au niveau individuel l’adéquation des produits de chaque entreprise à cette
demande. La croissance est donc une caractéristique plus liée au marché qu’au type
d’entreprise, sauf s’il est possible de mettre en évidence des cas où une entreprise
évolue de façon différente des autres entreprises du même secteur, et où cette différence
de comportement correspond à une différence de personnalité.

Les taux de profit, en intégrant les coûts de production et donc les caractéristiques
économiques de chaque entreprise, peuvent en revanche fournir des indications sur le

24 McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994)

lxxix
mode de fonctionnement concurrentiel des différents secteurs, comme nous le verrons
au chapitre suivant. Enfin, nous avons vu dans le chapitre précédent que chaque
segment est servi par des entreprises de nature différente, et qu’à l’inverse il existe des
entreprises qui opèrent sur plusieurs segments. Il est donc intéressant de comparer dans
chaque segment de marché le comportement des spécialistes à celui des généralistes et
des firmes mixtes.

Les taux de croissance

Le taux de croissance du chiffre d’affaires des firmes est l’indicateur de


performance le plus facilement disponible et le plus souvent utilisé comme mesure du
succès. Il est en effet admis que l’entreprise qui croît le plus vite est celle qui satisfait le
mieux la demande du marché, et qu’ainsi la croissance est la juste récompense du
savoir-faire. De plus, celui qui croît le plus vite gagne des parts de marché au détriment
des autres et acquiert ainsi de nouveaux avantages concurrentiels qui nourriront ses
succès futurs.

Cet indicateur est néanmoins très imparfait. D’une part, il intègre l’effet des
fusions et acquisitions, des séparations d’entreprises en unités distinctes, et plus
généralement de toutes les autres variations possibles du périmètre des entreprises. Par
ailleurs, le taux de croissance n’est pas nécessairement un bon indice de la santé de la
firme. Une entreprise peut à la fois croître vite et perdre de l’argent, donc se condamner
à régresser voire à disparaître ; à l’inverse, une réduction drastique du périmètre
d’activité, et donc du chiffre d’affaires, peut être une bonne façon de restaurer la
profitabilité. Enfin, comme nous le verrons par la suite, il existe des secteurs où la part
de marché n’est pas un avantage en soi, et donc où la croissance n’est pas
nécessairement l’objectif prioritaire. Pour toutes ces raisons, nous privilégierons par la
suite l’étude de la profitabilité par rapport à celle de la croissance.

Les taux de croissance des firmes de notre échantillon, pour les années 1986 à
1993, figurent en annexe dans le tableau A-XXV.

Très globalement, il apparaît que la croissance au niveau de l’entreprise est le plus


souvent forte pour les périphériques de communication, les services et le progiciel,
faible ou négative pour les généralistes et les firmes mixtes, très erratique pour les PC,
les autres périphériques et les stations de travail. Les plages de variation sont très larges
dans chaque catégorie, avec souvent à la fois des maxima élevés et des minima
fortement négatifs. On ne décèle pas de relation simple entre secteur et croissance de
l’entreprise. Il ne suffit pas de se spécialiser dans un segment porteur comme les PC, les
périphériques, les services ou le progiciel pour y bénéficier automatiquement de la
croissance de la demande ; et à l’inverse, opérer dans un secteur globalement en
régression comme celui des généralistes ou des systèmes conventionnels ne condamne
pas forcément chaque entreprise à la régression.

La constat le plus évident est que les généralistes et la plupart des firmes mixtes
connaissent une régression depuis 1990, et en tous cas croissent moins vite que les

lxxx
firmes spécialisées dont elles réunissent les productions. Les chiffres semblent indiquer
que le simple fait d’offrir une gamme étendue de produits et des services diversifiés
mais étroitement coordonnés est devenu un handicap par rapport à une stratégie de
spécialisation sur tel ou tel de ces produits ou services. L’exception que constitue
Hewlett-Packard confirme a contrario cette thèse : cette société s’est constamment
distinguée des autres grands généralistes traditionnels en fonctionnant comme un
conglomérat de divisions spécialisées indépendantes plutôt qu’en s’efforçant d’offrir
une gamme intégrée. En tout état de cause, la place des généralistes dans l’industrie
informatique est en régression, comme d’ailleurs celle des autres firmes mixtes.
L’informatique devient progressivement dominée par les firmes spécialisées.

Profitabilités comparées

Les analyses qui suivent portent sur le profit net après impôt des entreprises.
L’avantage essentiel de cet indicateur est d’être facilement disponible au niveau global
de chaque entreprise. A l’inverse, il est sans signification pour notre étude dans les cas
où l’activité informatique n’est qu’une partie non individualisée de l’ensemble des
productions de l’entreprise, comme c’est le cas par exemple des grands groupes
japonais ou de nombreuses sociétés de service. Nous avons donc éliminé les firmes qui
ne sont pas spécialisées en informatique et celles dont la profitabilité n’est pas publiée.

Le taux de profit net après impôt n’est qu’un des indicateurs possibles de
profitabilité. De nombreux analystes lui préfèrent le taux de rentabilité du capital investi
(ROIC) ou la rentabilité des actifs (return on assets), dont le sens économique est plus
clair . Malheureusement, ces indicateurs sont beaucoup moins facilement disponibles
25

pour un nombre suffisant d’entreprises que le profit après impôts. De plus, c’est à cette
dernière notion de profitabilité, c’est à dire le bénéfice par rapport au chiffre d’affaires,
que s’intéressent en général la plupart des commentateurs non économistes.

Rappelons toutefois le sens économique de ce ratio, dont la définition est


fondamentalement comptable, et précisément fiscale. Le bénéfice net après impôts est
ce qui reste du revenu de l’entreprise après qu’elle a payé son personnel, ses
fournisseurs et ses créanciers, amorti ses immobilisations conformément aux règles
comptables et payé ses impôts. Ce bénéfice net peut servir d’un part à rémunérer le
capital investi, c’est à dire les actionnaires, et d’autre part à augmenter les
investissements de l’entreprise par rapport à ce qui peut être financé par les
amortissements des investissements passés. On voit que le niveau de profit « normal »
d’une entreprise dépend principalement de ses besoins en investissements et de son
rythme de croissance. Une activité exigeant de forts investissements matériels et en
croissance rapide, comme les composants, exige des taux de profit élevés, tandis qu’une
activité faiblement capitalistique, comme c’est le cas de la plupart des services, peut
s’accommoder de profitabilités plus modestes, même en période de croissance.

25 Comme nous le rappellerons au Chapitre 6, la théorie économique montre que sous certaines
conditions dites de concurrence « pure et parfaite », le marché tend vers un état d’équilibre où, dans
toutes les entreprises, le taux de rentabilité des capitaux est égal au taux d’intérêt du marché.

lxxxi
Analyse par catégorie

Pour chaque catégorie, les graphiques suivants montrent les taux de profit
minimum et maximum atteints chaque année par les firmes de l’échantillon, ainsi que la
médiane de la catégorie (le niveau tel que le nombre de firmes ayant un profit supérieur
est égal à celui des firmes ayant un profit inférieur) et la moyenne de la catégorie (total
des profits nets divisé par le total des chiffres d’affaires). Le détail des chiffres est
donné en annexe (tableaux A-XXVI à A-XXXV).

Ces graphiques et ces chiffres doivent être interprétés avec précaution. Certaines
catégories comme les grands et les moyens systèmes, les stations ou les périphériques
de communication ne sont représentés que par très peu de firmes. Les valeurs
maximales et minimales peuvent être aberrantes par rapport aux autres valeurs, et
donner une fausse idée de la distribution des profitabilités autour de la médiane. Un
écart important entre la moyenne et la médiane peut indiquer un avantage ou un
désavantage de taille potentiel, mais peut aussi être dû à des résultats aberrants pour une
firme importante. C’est pourquoi les commentaires doivent se référer aux tableaux des
valeurs détaillées données en annexe.

Les spécialistes des grands systèmes (tableau A-XXVII) sont en trop faible
nombre (3) pour être décrits autrement qu’en termes d’histoires individuelles. Dans les
années fastes (1985 à 1988), leurs résultats sont parmi les meilleurs de toute l’industrie
informatique. Ils entament une chute spectaculaire à partir de 1991. En regardant de
près, on voit que Convex et Amdahl chutent ensemble de plus de 8% à zéro ou moins en
1991, tandis que Cray qui était déjà tombé en 1989 de plus de 20% aux environs de
13% les rejoint autour de zéro en 1992. Amdahl continue sa chute en 1993, rejoint par
Convex, tandis que Cray remonte à près de 7%.

Profitabilité - grands systèmes

30%
Moyenne
20% Mediane
10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des moyens systèmes (tableau A-XXVIII) est également le lieu


d’histoires individuelles mouvementées. Stratus est le seul à bien tirer son épingle du
jeu en permanence. Tandem plonge en 1993 après avoir vacillé en 1991 et 1992,
Sequent et Pyramid oscillent entre le meilleur et le pire tandis que Norsk Data touche le

lxxxii
fond depuis 1989, et ne redresse sa profitabilité en 1993 qu’en perdant près de 40% de
son chiffre d’affaires. Là encore, les firmes sont trop peu nombreuses (5) pour qu’on
puisse tirer quelque enseignement statistique. L’allure générale des plages est voisine de
celle des généralistes, avec des dispersions encore plus grandes en 1991 et 1992.

Profitabilité - moyens systèmes

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Pour les spécialistes de matériel de type traditionnel, l’année 1991 marque une
rupture. Dans les années 1985 à 1990, le profit médian pour toutes ces catégories est
voisin de 10%. On constate de très bonnes réussites dans des niches particulières (Cray,
Pyramid), et à l’exception de Norsk Data, seules les firmes en phase de démarrage sont
dans le rouge. A partir de 1991, les profits commencent à baisser. Les maxima
deviennent modestes à l’exception de Stratus, et nombreuses sont les firmes déficitaires.

Profitabilité - micros

30% Moyenne
Médiane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des spécialistes PC (tableau A-XXIX) contient entre 8 et 10 firmes


selon les années. Elle présente une évolution plus stable bien qu’on y constate une
même tendance défavorable à partir de 1991. Les dispersions sont relativement faibles
sauf en 1985, et s’élargissent un peu en 1992 à cause des pertes importantes d’Everex et

lxxxiii
Commodore. En 1993, si on excepte le désastre de Commodore, aucune autre firme ne
descend sous -1.4%, ce qui correspond à une plage analogue à celle de 1991. De 1986 à
1992, le profit moyen varie dans une bande étroite entre 3 et 6 %, mais tend à baisser
depuis 1991. Le maximum, voisin de 13% (Compaq) en 1990, est en baisse régulière
(8.5% pour AST en 91, 7.3% pour Apple en 92, 6.4% pour Compaq en 1993).

Profitabilité - stations

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Les spécialistes des stations (tableau A-XXX) sont eux aussi en très faible nombre
(3) et se situent dans des plages toujours étroites, avec une tendance générale à la baisse
et des niveaux moyens comparables à ceux des PC. Compte tenu de la taille de
l’échantillon, cette catégorie de spécialistes ne semble pas se comporter différemment
de celle des PC.

Profitabilité - périphériques

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des périphériques (tableau A-XXXI) comporte entre 9 et 17 firmes


selon les années. On y rencontre également des histoires individuelles assez
mouvementées (Memorex Telex, Maxtor, Storage Technology, Tandon). Chaque année,
une firme au moins frôle ou dépasse les 10% alors qu’une ou plusieurs sont dans le

lxxxiv
rouge, mais les positions individuelles des firmes varient considérablement d’année en
année. On ne perçoit de tendance clairement défavorable qu’en 1993, où la majorité des
firmes est en pertes, et où presque toutes voient leur profit baisser, sauf EMC qui
dépasse allègrement 16%, le deuxième n’atteignant que 8%.

Profitabilité - communications

30%

20%

10%

0%

-10%
Moyenne
-20% Mediane

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Les 3 spécialistes des communications (tableau A-XXXII) se distinguent par leurs


excellentes performances depuis 1990, même si une firme a connu des pertes en 1990.

Profitabilité - progiciels

30%

20%

10%

0%

-10%

-20%
Moyenne
-30% Mediane
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La catégorie des progiciels (tableau A-XXXIII), qui compte ici entre 13 et 16


firmes selon les années, présente une physionomie assez différente des précédentes. En
particulier, on n’observe pas de rupture nette en 1991. Le profit médian passe par un
creux relatif de 1990 à 1992, mais pour revenir à son niveau antérieur en 1993, tandis
que la moyenne se maintient en permanence au-dessus de 10%. La dispersion est en
permanence élevée, avec des maxima toujours supérieurs à 20% et dépassant même les
25% depuis 1989. Mais on observe aussi chaque année depuis 89 des résultats négatifs
(sans tenir compte des startups), dont certains lourdement comme Mentor Graphics et

lxxxv
Ultimate depuis 1991, Informix en 1990, Borland en 1989, 1991 et 1992. Même Novell
qui était en tête en 1991 et 1992 à plus de 25% devant Microsoft passe dans le rouge en
1993. Notons néanmoins que si les minima sont fortement négatifs, le nombre de firmes
déficitaires est chaque année faible : une sur 13 en 1989, 3 en 1990, 1991 et 1992. Les
moyennes se situent toujours au-dessus de 10% sauf en 1991.

Profitabilité - services

30% Moyenne
Mediane
20%

10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Le secteur des services (tableau A-XXXIV) est représenté par 14 à 21 entreprises


selon les années. Sa physionomie est différente à la fois des catégories de matériel
(grands et moyens systèmes, PC, stations et périphériques) et de celle des progiciels.

Comme pour les PC, le profit moyen pour l’ensemble des services est
remarquablement stable entre 4 et 6%, avec une très légère tendance à la baisse depuis
1992. La dispersion est toujours relativement faible malgré le grand nombre de firmes,
et aussi malgré l’hétérogénéité du secteur. En 1990 et en 1992, une seule firme était
dans le rouge, et toutes les autres se situaient au-dessus de 2%. En 1991, les trois
dernières firmes se situaient à -9%, -3% et 0%, et les 18 autres au-dessus de 2%. Ce
n’est qu’en 1993 que la situation commence à se dégrader un peu plus.

Si on distingue les sous-secteurs, les profits moyens sont tout aussi stables : entre
9% et 11% pour le traitement, entre 4% et 5% pour le développement de 1985 à 91,
avec une chute en 1992.

Les maxima récents se situent entre 13 et 15% de façon régulière, et pour les
années antérieures Volmac apparaît comme un phénomène exceptionnel en atteignant
21% avant 88 et 19% en 1989, alors que son suivant immédiat est toujours dans la plage
des 13 à 15%. Ces performances élevées sont toujours le fait de sociétés de traitement
applicatif nord-américaines telles que Shared Medical Systems, First Data, ADP, Policy
Management, les offreurs de services plus classiques se contentant de profits presque
toujours inférieurs à 8%. Depuis 1989, le secteur connaît chaque année une ou deux
sociétés en pertes (parmi celles de l’échantillon).

lxxxvi
Profitabilité - généralistes

30%

20%

10%

0%

-10%
Moyenne
-20% Mediane
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

La situation des généralistes (tableau A-XXVI) est bonne jusqu’en 1987 sauf pour
Wang et Data General, tandis que Bull est tout juste positif. On constate à partir de 1989
une tendance générale à la baisse : Digital Equipment et Bull sont dans le rouge à partir
de 1990, IBM à partir de 1991, et Unisys de 1989 à 1991. La seule entreprise qui obtient
un résultat à peu près stable est Hewlett-Packard qui passe néanmoins de 7% en 1985
(troisième rang) à 5% en 1992 et 6% en 1993, ce qui est pour ces deux années la
meilleure performance de la catégorie.

Profitabilité - firmes mixtes

30%
Moyenne
20% Mediane
10%

0%

-10%

-20%

-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD

Depuis 1989, les firmes mixtes (tableau A-XXVII) ont des profitabilités
moyennes presque toujours négatives, et des maxima modestes inférieurs à 9% qui se
réduisent à 4.3% en 1992. L’année 1993 semble aberrante avec MAI qui, après des
pertes considérables de 1989 à 1992, remonte soudain au chiffre exceptionnellement
élevé de 24% (mais en ayant perdu en 1993 près de 60% de son chiffre d’affaires 1992).
Mis à part ce point aberrant, la majorité des firmes est dans le rouge en 1991 et 1992, et
de façon souvent très lourde. La tendance générale est défavorable, et il semble clair que

lxxxvii
les résultats des firmes mixtes sont toujours moins bons que ceux des firmes
spécialisées dans les prestations individuelles qui composent leur portefeuille.

Une première conclusion générale est que pour presque toutes les combinaisons
de catégorie et d’année, les plages de variation du profit net sont assez larges voire très
larges. Les moyennes sont de ce fait peu représentatives, et les caractéristiques
individuelles de chaque firme comptent au moins autant que le secteur ou la catégorie à
laquelle elle appartient. Il faut de plus tenir compte du nombre de firmes représentées,
qui est quelquefois trop faible pour qu’on puisse en tirer des conclusions significatives.

Profitabilité par secteur - 1993

Comm Soft Stat Mid Sces PC Gen Péri Mixed Large


30%

20%

10%

0%

-10%

-20% Moyenne

Mediane
-30%

Données McKinsey - Analyse GD

Le graphique ci-dessus reprend les plages de profitabilité de l’année 1993 pour


l’ensemble des catégories, rangées par ordre de médianes décroissantes. On constate
que chaque catégorie, à part celle des périphériques de communications, contient des
firmes qui gagnent de l’argent et des firmes qui en perdent, ce qui est vrai chaque année.
Autrement dit, il n’y a ni catégorie maudite ni catégorie miracle ; certaines firmes
arrivent à gagner de l’argent avec des grands systèmes traditionnels, et d’autres arrivent
à en perdre dans les progiciels. Mais pour citer McKinsey : « des compagnies ayant des
stratégies viables et bien exécutées peuvent réussir dans n’importe quel segment ». Il
n’est pas totalement inutile d’ajouter qu’à l’inverse, une stratégie non viable mal
exécutée conduit à l’échec quel que soit le segment.

Néanmoins, même en tenant compte de la diversité des situations individuelles,


les différentes catégories s’ordonnent autour de profitabilités moyennes très différentes.
Progiciels et périphériques de communications se maintiennent au-dessus de 10% ; les
stations, les services et les systèmes moyens se placent dans la zone plus normale de 3 à
6% ; PC, généralistes et périphériques tournent autour de zéro tandis que les firmes
mixtes et les grands systèmes sont dans le rouge.

Notons que cette situation est très différente de celle de 1987 que nous avons
choisie comme représentative de l’ordre qui prévalait à la fin des années 80. Si les
dispersions étaient également élevées, les profits moyens par catégorie étaient beaucoup
plus homogènes et généralement supérieurs. La baisse des profits moyens a été

lxxxviii
relativement faible dans les stations, les systèmes moyens et les services, forte pour les
PC, les généralistes et les périphériques et dramatique pour les firmes mixtes et les
grands systèmes.

Profitabilité par secteur - 1987

Comm Soft Stat Mid Sces PC Gen Péri Mixed Large


30%

20%

10%

0%

-10%

-20%
Moyenne
Mediane
-30%

Données McKinsey - Analyse GD

La dispersion des profits

On peut s’interroger sur les raisons de la grande variabilité des résultats entre
firmes d’une même spécialisation. Un premier cas est celui des entreprises débutantes
(startups), dont les premières années sont des années d’investissements assortis de
pertes d’exploitation souvent lourdes, comme pour Convex, Sequent ou Teradata en
1985, ou Exabyte et Sybase en 1987. Une grande dispersion des résultats peut aussi
révéler l’hétérogénéité d’un secteur qui regroupe des activités présentant des
caractéristiques différentes. Dans le domaine des périphériques, les périphériques de
communication ont un comportement différent des autres mais la distinction entre les
périphériques micro et les autres ne montre pas de différences frappantes. Pour les
services en revanche, si l’évolution générale des sous-secteurs est parallèle, les services
de développement occupent toujours clairement la partie basse de la plage des profits, et
les services de traitement la partie haute.

Dans les segments homogènes et après élimination des startups, la dispersion des
résultats doit être rapprochée des modalités de gestion des firmes. Les directions des
entreprises consacrent en permanence des efforts considérables à rechercher un résultat
satisfaisant. Il faut donc admettre que, sauf exception, des résultats négatifs ne sont pas
le signe de l’incapacité ou de la négligence du management, mais d’une impossibilité
profonde de faire mieux dans les limites de l’exercice comptable considéré, et ceci après
avoir exploité toutes les opportunités de redressement réellement disponibles.

Dans les chapitres ultérieurs, nous serons amenés à analyser les relations
temporelles entre la formation des dépenses et la formation des revenus dans
l’entreprise. Contentons-nous ici de rappeler que dans la réalité industrielle, l’entreprise
décide des dépenses, mais c’est le marché qui décide des recettes. Plus précisément,
l’entreprise commence par engager des dépenses dans l’espoir d’un revenu futur, et ce

lxxxix
n’est que plus tard qu’elle constate les revenus correspondants. Les produits de chaque
exercice comptable servent en partie à payer la production de ces produits eux-mêmes,
mais aussi à investir pour préparer les exercices suivants. Si le chiffre d’affaires d’un
exercice se révèle inférieur aux attentes, il est généralement impossible de réduire les
dépenses dans les mêmes proportions sans réduire les investissements de l’exercice et
compromettre ainsi l’avenir même de l’entreprise.

Ce raisonnement nous conduit à formuler l’hypothèse qu’une grande dispersion


des profits dans un secteur homogène est liée à des situations où les engagements de
dépenses sont devenus irréversibles au moment où on constate les revenus
correspondants. Ceci est vrai en particulier lorsque les investissements sont importants
et ne portent leurs fruits qu’après un délai long. On dira alors que le « cycle de base » de
l’entreprise est long. Si au contraire les investissements sont faibles ou produisent
rapidement du chiffre d’affaires, le « cycle de base » de l’entreprise est court et il est
possible d’ajuster les dépenses au revenu sans trop compromettre l’avenir. Dans de tels
secteurs, les entreprises pourront généralement éviter des pertes trop importantes même
en cas de chute significative du chiffre d’affaires.

A l’inverse, quand par chance le revenu se révèle supérieur aux prévisions, ceci
n’entraînera que relativement peu de dépenses supplémentaires pour les firmes à cycle
long qui réaliseront ainsi des profits élevés. Les entreprises à cycle court ne pourront
réaliser ce revenu qu’en consentant des dépenses supplémentaires qui ramèneront le
profit au voisinage du niveau prévu.

En résumé, une grande dispersion des profits pour une période donnée
caractériserait des secteurs où le cycle dépenses-recettes est long et où le coût marginal
est une faible part du coût moyen.

Appliquée à l’évolution dans le temps des plages de profitabilité, cette hypothèse


conduirait à formuler les prédictions suivantes :
–pour un secteur naissant, les profits moyens sont faibles et la dispersion est grande.
Au fur et à mesure que les acteurs progressent sur la courbe d’apprentissage, la
moyenne augmente tandis que les limites de la plage se resserrent.
–un ralentissement de l’activité se traduit par une baisse des revenus par rapport aux
prévisions, et donc une baisse générale des profits, donc du profit moyen. Dans les
secteurs à cycle long, les entreprises ne pourront ajuster leurs dépenses que très
partiellement ; le profit moyen baissera donc de façon significative et certaines
entreprises connaîtront des pertes importantes qui se traduiront par un effondrement
du minimum. Dans les secteurs à cycle court, les entreprises pourront mieux ajuster
leurs dépenses ; de ce fait, la baisse du profit moyen et surtout du minimum sera
moins prononcée.
–une firme ne peut être durablement dans le rouge que dans un secteur à cycle long,
où les espoirs que représentent ses investissements justifient sa survie. Dans un
secteur à cycle court, une firme déficitaire doit (et peut plus facilement qu’une
entreprise à cycle long) se redresser rapidement ou disparaître. Au niveau de
l’ensemble, un secteur à cycle court ne verra pas le point minimum rester loin sous la

xc
barre du profit zéro, tandis que dans un secteur à cycle long le point minimum pourra
stagner à des valeurs fortement négatives.

Facteurs de profitabilité

Pour terminer cette exploitation des statistiques, examinons deux questions


relatives à la profitabilité des firmes.

Profitabilité et part de services

Selon une idée reçue, de nombreuses firmes de matériel cherchent à développer


leur activité de services afin d’améliorer leur profitabilité. Cherchons donc s’il existe
une corrélation entre le bénéfice net et la part des services dans le chiffre d’affaires, en
remarquant d’ailleurs au préalable que les services autres que le traitement applicatif
n’ont pas une profitabilité notablement meilleure que celle des PC ou de certains
périphériques.

Sur le graphique suivant figurent les firmes qui offrent du matériel, des services
ou les deux. L’année concernée est 1992. Nous avons éliminé les cas extrêmes qui
correspondent à des situations anormalement déficitaires, par exemple les startups.

Net% 30%

20%

10%

0%

-10%

-20%

-30%
0% 20% 40% 60% 80% 100%
Part Services

Pour les entreprises de services spécialisées, qui apparaissent à l’extrême droite


avec une part de services égale à 100% ou voisine, les profits se concentrent entre -1%
et 13% (sauf Ceridian et Grumman plus déficitaires). A l’autre extrémité, pour les
firmes dont la part de services est inférieure à 20%, les profits présentent une grande
dispersion entre -30 et 25%, mais la grande majorité des firmes se situe entre -2 et 17%,
dans une plage qui recouvre celle des entreprises de services. Les cas intermédiaires
restent dans la même plage que les pures entreprises de services, sans que se dessine une
tendance apparente vers le haut ou vers le bas.

Le coefficient de corrélation entre le taux de profit et la part de services est


d’ailleurs égal à 0.16, ce qui indique une corrélation très faible entre ces deux facteurs.
Contrairement à une idée bien ancrée, il n’y a donc aucune raison statistique (et nous

xci
verrons plus tard qu’il n’y a aucune raison logique) de penser que développer les
services permet aux constructeurs d’améliorer leurs résultats. L’observation des chiffres
réels peut tout au plus inciter à penser que viser une part de services supérieure à 20%
semble une façon de limiter les risques de pertes, mais tout en plafonnant également les
gains possibles.

Relation entre profit et croissance

La dernière question que nous aborderons à partir des statistiques est celle de la
relation entre la profitabilité et le taux de croissance des firmes. Dans leurs analyses, les
chercheurs de McKinsey ont conclu que les résultats financiers ne sont pas liés à la
croissance du revenu, et de fait le coefficient de corrélation calculé sur l’ensemble des
firmes est faible.

Mais cette conclusion reste-t-elle vraie pour chacune des catégories d’entreprises
prises isolément, dont nous avons des raisons de penser que les dynamiques sont
différentes ? Le tableau ci-dessous donne les coefficients de corrélation catégorie par
catégorie, en distinguant les périodes 1986-1988 d’une part, 1989-1993 d’autre part.
Cette séparation renvoie au fait que les années 1988-1989 semblent marquer une rupture
dans le comportement de plusieurs secteurs. Lorsque le nombre d’observations pour une
catégorie et une période est inférieure à une quinzaine, la valeur du coefficient de
corrélation a été considérée comme non significative (ns). Nous avons utilisé la
décomposition en sous-catégories selon le poids des coûts de production.

On voit que si la conclusion de McKinsey à l’absence de corrélation est vérifiée


pour les services de développement, les services de traitement et les stations, il existe
sur l’ensemble de la période une corrélation positive bien qu’assez modeste entre
croissance et profit pour tous les autres secteurs. La comparaison des périodes 1986 à
1988 d’une part, 1989 à 1993 d’autre part est surprenante : les PC et les périphériques
passent d’une corrélation nulle à une corrélation relativement forte alors que les
généralistes et les services de développement suivent l’évolution inverse, et que les
services de traitement passent d’une corrélation fortement négative à une corrélation
positive.

Corrélation profit-croissance
86-88 89-93 86-93

general 0.57 0.26 0.41


large ns ns 0.54
midrange 0.43 0.72 0.66
PC 0.08 0.61 0.40
stations ns ns -0.10
périph micros 0.09 0.51 0.43
comm ns ns 0.61
périph autres 0.19 0.41 0.33
services dévpt 0.56 0.04 0.19
services fm ns ns 0.40

xcii
services traitement -0.72 0.43 0.08
mixed 0.62 0.56 0.57
software 0.50 0.56 0.52

On peut penser que l’explication de ce constat se rattache au schéma de


fonctionnement des firmes que nous avons évoqué plus haut pour expliquer les
variations de profitabilité. La plupart des entreprises règlent leurs actions, et en
particulier leurs engagements de dépenses, sur un budget annuel dont la partie recettes
représente les espoirs ou les ambitions de la firme pour l’exercice considéré, et dont la
partie dépenses est calculée de façon à produire par différence un résultat considéré
comme acceptable. Le budget de chaque exercice tient compte des résultats des
exercices précédents : si ceux-ci sont satisfaisants, le budget tendra en général à les
prolonger en reproduisant les ratios actuels. Sinon, le budget visera une amélioration
soit en faisant l’hypothèse d’une accélération de la croissance du revenu, soit en
restreignant les dépenses autorisées. A ce stade, les firmes se fixent des objectifs de
profit qui dépendent de leur situation et peuvent varier d’une firme à l’autre, le taux de
croissance de chaque firme n’étant que l’un des paramètres de cette situation. Dans
l’hypothèse où chaque firme réaliserait exactement ses plans, on voit qu’il n’y aurait pas
nécessairement une corrélation étroite entre profit et croissance.

Dans la réalité, à cause du décalage temporel entre dépenses et recettes


correspondantes, les dépenses réellement engagées sont le plus souvent assez voisines
du budget, tandis que les recettes peuvent s’en écarter de façon plus significative. Une
croissance des recettes supérieure à l’hypothèse retenue pour le budget tendra donc à
améliorer la profitabilité d’autant plus que le cycle de base de l’entreprise est plus long,
et une croissance inférieure aura l’effet inverse.

Selon ce modèle, les secteurs où les profits sont dispersés devraient aussi
présenter la plus grande corrélation entre profit et croissance, sans toutefois que cette
corrélation atteigne une valeur très élevée. Cette hypothèse se vérifie bien dans le cas
des généralistes et des systèmes moyens pour les corrélations élevées, des stations et des
services (hors facilities management) pour les corrélations nulles, des grands systèmes
dans le cas intermédiaire. Les résultats sont moins clairs pour les PC où la corrélation
est moyenne et la dispersion faible, et les progiciels où la corrélation est également
moyenne, mais la dispersion grande.

On peut aussi penser qu’une faible corrélation, voire une corrélation


paradoxalement négative, peut correspondre à des prestations en difficulté ou en
régression dans certaines périodes. Certaines firmes peuvent alors adopter une stratégie
de repli qui préserve leurs marges en acceptant une diminution de leur chiffre d’affaires,
tandis que d’autres firmes qui poursuivent des objectifs de croissance obtiennent des
résultats déficitaires.

Conclusions

L’analyse des performances des entreprises de notre échantillon ne valide que très
imparfaitement les idées reçues. On y lit bien les difficultés et la régression des

xciii
généralistes ainsi que de la majorité des constructeurs traditionnels, en particulier depuis
la rupture de 1988, et corrélativement la montée en puissance des spécialistes. D’une
industrie dominée par une poignée de généralistes, l’informatique devient
progressivement l’affaire d’un grand nombre de spécialistes offrant chacun un élément
du système. Cette transition est actuellement au voisinage de son point de basculement,
puisque les généralistes réalisent encore environ la moitié du chiffre d’affaires total de
l’industrie.

Il ne semble pas que cette évolution laisse beaucoup de place à des firmes mixtes,
qui fonderaient leur stratégie sur l’association de prestations sélectionnées trop peu
nombreuses pour en faire des généralistes. Un grand nombre d’entreprises offrent des
services ou du logiciel à titre annexe en support de leurs produits principaux, mais les
performances réalisées par les quelques rares firmes alliant à parts voisines matériel et
services, ou progiciel et services, ne sont pas de nature à leur susciter beaucoup
d’émules. En particulier, contrairement à une idée répandue, nous n’avons pas constaté
de lien entre une part importante de services, au-delà des 10 à 15% annexes aux
produits, et une amélioration de la profitabilité.

Au-delà des différences évidentes dans les prestations, nous avons pu déceler des
comportements différents selon les secteurs, que la structure des dépenses contribue à
expliquer. En particulier, il nous est apparu que les modalités de la relation temporelle
entre les dépenses nécessaires à la mise sur le marché d’un produit et les recettes
provenant de ce produit ont une influence profonde sur le fonctionnement de la firme.
Cette relation est liée au cycle de production, et donc à la nature de chaque produit ainsi
qu’à la stratégie mise en œuvre par chaque firme. Les différences entre productions à
cycles courts et productions à cycles longs semblent assez bien rendre compte de la
dispersion des profits et de la corrélation (ou l’absence de corrélation) entre profit et
taux de croissance.

Mais, quelles que soient les caractéristiques globales qu’il est possible d’attacher à
chaque secteur pris en particulier, cette analyse met en lumière la grande dispersion des
résultats à l’intérieur de chaque catégorie, et donc l’importance des stratégies
individuelles, de leur adaptation au secteur et de la qualité de leur exécution.

xciv
Deuxième partie
Les matériels et les mécanismes économiques
A ... E ... I ... Cela est vrai ... Vive la science !
Molière

Dans la suite de cet ouvrage, nous allons rechercher des explications rationnelles
aux phénomènes que nous observons dans l’industrie informatique. Résumons tout
d’abord les grandes constatations structurelles qui se dégagent du survol historique et
statistique qui précède.

L’informatique à ses débuts est un produit unique, dans la mesure où toutes les
firmes offrent des paniers de prestations complets équivalents. De plus, assez
rapidement, les firmes d’informatique se trouvent toutes spécialisées dans ce produit.
L’informatique se constitue ainsi comme un secteur bien délimité, puisque formé de
firmes spécialisées, et homogène puisque composé de firmes toutes conformes au
modèle intégré. Après que les principales firmes aient absorbé l’activité de fabrication
des composants dans les années 60, le secteur acquiert son autonomie totale par rapport
aux industries électriques et électronique, tout en restant homogène.

Le nombre de firmes actives dans l’industrie informatique croît par rapport à la


mécanographie dont elle était issue, grâce à l’entrée de nombreux concurrents dont seuls
les plus spécialisés y survivent. Ceci n’entame pas la suprématie croissante d’un acteur
dominant, IBM, qui occupe en permanence entre 60% et 70% du marché. Jusque vers la
fin des années 60, l’industrie conserve pour l’essentiel sa structure homogène et
concentrée, avec un relativement petit nombre d’acteurs dominés par une firme
nettement majoritaire.

A partir du début des années 70, on assiste à une désintégration progressive de


l’industrie selon plusieurs dimensions : par nature de prestations à la suite de la
facturation séparée des services, par niche de marché avec les minis et les compatibles,
et plus tard désintégration verticale d’une partie du secteur avec l’apparition de
fournisseurs spécialisés dans les composants ou les sous-ensembles. Cette
désintégration s’accentue encore dans les années 80 avec la montée d’un nouveau pan
de l’industrie, dont la structure est éclatée dès l’origine, et qui conquiert
progressivement une part importante du territoire de l’informatique traditionnelle.
Simultanément, les technologies informatiques se diffusent dans tous les secteurs
d’activité et modifient radicalement certaines industries au point d’estomper les
frontières avec ces secteurs.

Cette évolution a structuré les acteurs de l’industrie informatique en classes


d’entreprises assez bien définies, mais qui ne correspondent qu’imparfaitement à la

xcv
structuration du marché selon les produits et services offerts. Les firmes spécialisées
sont les plus nombreuses, mais la plupart des segments de marché sont dominés par une
poignée de firmes qui offrent chacune la quasi-totalité des formes de produits et de
prestations. En dehors de ces généralistes, il existe peu de firmes offrant une
combinaison particulière de prestations, et les combinaisons représentées sont elles-
mêmes en petit nombre. Ces classes d’entreprises définies par leurs prestations semblent
se rattacher à leur tour à quelques grands modèles qui se distinguent par la structure de
leur compte d’exploitation et leur comportement en réaction aux aléas du marché.

Les moteurs de cette évolution ont été dans tous les cas les décisions des firmes, et
celles de l’acteur dominant qu’a été IBM ont été particulièrement déterminantes. Ces
décisions ont eu constamment pour objectif d’exploiter le potentiel de progrès
technologique au mieux des intérêts propres de la firme. Les initiatives des
organisations extérieures à l’industrie, en particulier des pouvoirs publics, n’ont eu en
fin de compte que peu d’effet. En revanche, les réactions des marchés ont favorisé les
offres les plus en harmonie avec la demande, et sanctionné voire éliminé les entreprises
dont le comportement était trop en désaccord avec les attentes des clients.

Tel est, brièvement résumé, l’ensemble de faits dont nous nous proposons de
rechercher les causes. Comment expliquer cette tendance à la désintégration ? Pourquoi
seules certaines combinaisons de prestations semblent-elles viables ? Peut-on justifier
dans chaque secteur les tailles relatives et les parts de marché des acteurs présents ?
Comment expliquer la disparition de la suprématie d’IBM et les difficultés actuelles des
généralistes ? Quelle relation logique lie les types d’entreprise aux choix de prestations
et les performances aux types d’entreprise ? Comment décrire les interactions entre
l’informatique et les autres industries ?

Ces questions sont fondamentalement des questions d’économie. C’est donc


d’abord vers la théorie économique que nous sommes tentés de nous tourner pour
rechercher les explications les plus fondamentales. Mais nous constaterons qu’il
n’existe pas de chapitre de la théorie économique qui soit capable d’expliquer
complètement la structuration d’un secteur productif et l’évolution de cette structure.
Plus grave encore, les paradigmes centraux sur lesquels repose l’essentiel de la science
économique ignorent par construction des notions que l’intuition et l’expérience
désignent comme fondamentales pour la structuration de l’industrie, dont la
différenciation des produits, le comportement spécifique des firmes, la concurrence
entre producteurs ou l’évolution technologique. Ceci nous obligera à forger en partie
nos propres outils d’analyse.

Quant aux questions liées à la coexistence de prestations de nature différente au


sein d’une même entreprise, qui contribuent à expliquer la spécialisation des firmes,
notre conviction est qu’elles ne relèvent pas seulement du calcul économique, mais font
intervenir des incompatibilités plus fondamentales de nature qualitative. C’est pourquoi

xcvi
nous essaierons de faire apparaître les liens qui existent entre la nature des productions
d’une part, l’organisation et la culture de l’entreprise d’autre part.

xcvii
Chapitre 6
Les mécanismes économiques

Un modèle évolutionniste de l’industrie. Ajustement de la production, échelle de


production et structure. Oligopoles, monopoles et concurrence imparfaite. Forces
concurrentielles et rentabilité. Industrie, secteurs et métiers. Concentration, dispersion
et profitabilité. Les frontières de l’informatique. Evolution sectorielle et cycle de vie.

L’étude économique de la structure de l'industrie et du comportement des firmes


productrices est l’objet d’une discipline appelée « économie industrielle », qui se donne
pour objet d’analyser et de justifier, dans chacun des secteurs industriels :
–le nombre et la taille des entreprises présentes, qui déterminent en particulier le
degré de concentration,
–la diversification horizontale des entreprises, c’est-à-dire leur propension à offrir
une gamme de produits diversifiée et à opérer sur plusieurs marchés,
–l’intégration verticale des entreprises, c’est-à-dire leur propension à assurer elles-
mêmes l’ensemble des opérations successives nécessaires à la production de leurs
produits.

Cette discipline n’existe en tant que telle que depuis les années 70, bien que son
objet ait été abordé antérieurement, par exemple par Marshall ou Chamberlin . Nous en 26

retiendrons en particulier une thèse fondamentale qui rejoint l’un des postulats
empiriques du présent ouvrage : la structure industrielle résulte de l’action de la
concurrence et des forces économiques.

Nous poserons donc en principe que les différentes caractéristiques liées à la


structure de l’industrie ne sont ni le fruit du hasard, ni celui de phénomènes extérieurs
au cadre de l’économie, mais qu’ils peuvent s’expliquer par l’action de lois
économiques qu’il convient de rechercher. C’est à un résumé des principaux acquis de
la théorie économique applicables à notre propos qu’est consacré le présent chapitre,

26 Pour le lecteur qui souhaiterait une vue plus complète de l’économie industrielle, le livre de
Rainelli “Economie Industrielle” (Dalloz, 1993) présente une bonne synthèse récente et contient de
nombreuses références.

xcviii
ainsi qu’à une analyse plus précise des phénomènes de concurrence inspirée des thèses
de Porter.

Quelques notions d’économie industrielle

L’évolution des structures industrielles

Les entreprises tirent leur subsistance de la vente de produits et de services , pour 27

la production desquels elles disposent de ressources. Les marchés sur lesquels


l’entreprise se procure ces ressources et vend ses produits, ainsi que l’environnement
technologique, juridique, institutionnel et économique, forment le milieu dans lequel
évolue l’entreprise.

Les marchés étant par hypothèse limités, les firmes productrices sont en
concurrence entre elles. Bien que la concurrence sur les marchés des facteurs de
production soit quelquefois importante, la concurrence la plus déterminante a lieu sur le
marché où l’entreprise offre ses produits. Ce marché permet à la demande de
sanctionner le comportement des offreurs en agissant directement sur les performances
économiques et la santé financière des entreprises. Celles-ci essaient d’anticiper cette
sanction en s’organisant pour offrir des produits susceptibles de satisfaire le marché. A
travers la sélection immédiate des produits, le marché sélectionne ainsi les organisations
et les formes d’entreprise les mieux adaptées à la satisfaction permanente de la
demande. C’est cette sélection indirecte des firmes qui détermine la structure de
l’industrie.

Pour atteindre leurs objectifs, les firmes doivent prendre une multitude de
décisions d'importance variable, et qui s'inscrivent dans des cycles temporels différents.
En particulier, la nature et le prix des produits offerts sur le marché à un instant donné
résultent en grande partie de décisions prises longtemps auparavant, sur la base d’une
projection subjective de la demande, interne à chaque firme productrice et fortement
influencée par les caractéristiques de la firme, et qui peut se révéler notablement
différente de la demande réelle. Au moment où l’offre et la demande se rencontrent sur
le marché, l’offre de produits a été déterminée par les firmes productrices sur des bases
internes et prévisionnelles, et la demande qui s’exprime effectivement à cet instant peut
s’écarter considérablement des hypothèses qui ont présidé à la détermination de l’offre.

Si par exemple une firme met sur le marché en 1994 un produit dont la conception
et le développement ont duré un an, avec l’espoir que les ventes de ce produit soient

27 Dans cet ouvrage, nous utiliserons fréquemment le terme «produit» pour désigner aussi bien des
services que des produits. La distinction entre ces deux notions sera examinée dans les chapitres suivants,
principalement le chapitre 11 «Le labyrinthe du logiciel et des services».

xcix
importantes au bout de deux ans, on peut au mieux espérer que la définition du produit
intègre l’idée que la firme se faisait en 1992 de la demande à ce moment et de la
demande en 1996. En tout état de cause, la demande réelle en 1994 n’a contribué en rien
dans la définition du produit. Si Sperry Rand et IBM ont créé les ordinateurs en 1951 et
Apple les micros en 1977, ce n’est évidemment pas parce que le marché du moment le
demandait.

L'offre de produits et de services résulte donc des décisions que prennent les
acteurs industriels en fonction de leurs possibilités, de leurs objectifs, de l'image qu'ils
ont de leur environnement concurrentiel et de l'idée qu'ils se font du marché. En
particulier, la fixation des niveaux de prix, qui joue un rôle déterminant dans la
concurrence entre firmes et technologies rivales, procède de la stratégie concurrentielle
de chaque firme. C’est la raison pour laquelle, contrairement à la vision habituelle, nous
pensons réaliste de considérer que, au moment où se passent les transactions sur le
marché, il n'existe pas de relation causale directe allant de la demande vers l'offre. En
d’autres termes, dans le court terme des échanges, l’offre précède la demande.

En revanche, à travers le marché, la demande agit rétroactivement sur l’offre et


sur l’évolution de la firme et du secteur.

Au niveau le plus immédiat, le marché sanctionne le comportement des


entrepreneurs en achetant les produits de ceux qui ont su faire les meilleurs choix et les
mettre en œuvre de la façon la plus efficace aux yeux des clients potentiels. De ses
résultats commerciaux et de ceux de ses concurrents, ainsi que des autres réactions des
clients, la firme tire des indications sur la demande réelle du marché. En cas de résultats
insuffisants, elle a la possibilité d’ajuster immédiatement ses prix et certaines conditions
commerciales, mais modifier les quantités produites ou les caractéristiques du produit
exige un certain temps pendant lequel la position relative de la firme va se dégrader.

Si de graves écarts entre l’offre et la demande persistent, et s’ils ont un effet


négatif important, les organes de direction de la firme vont en rechercher les causes
pour essayer de les corriger. La firme cherchera à réduire ses coûts de fonctionnement
avec d’autant plus d’énergie qu’elle se sent en difficulté. Elle réagira à l’échec d’un
produit non seulement en concevant des produits différents, mais aussi en modifiant son
processus de conception des produits, ne serait-ce qu’en remplaçant les responsables des
échecs. Elle peut ainsi remettre en question les moyens et les procédés de production,
les méthodes de travail, les systèmes de gestion, les structures, les comportements et les
individus. Elle peut aussi constater que les actes de l’entreprise ne sont pas conformes
aux intentions des dirigeants, et réexaminer ses mécanismes d’information, de
commandement et de contrôle.

Pour chacun des offreurs, la demande qui s'est réellement concrétisée pour ses
produits, en volume et en prix, détermine son revenu, son équilibre financier et donc sa
viabilité et sa survie. Les offreurs dont les produits rencontrent durablement une forte
demande prospéreront et croîtront, tandis que ceux qui se trompent trop souvent devront
jeter l'éponge et disparaître.

Les performances financières, qui conditionnent la survie de la firme, mesurent


donc à la fois l'adaptation de l'offre au marché et celle de la firme à son environnement.

c
La sélection naturelle opère ainsi à trois niveaux : celui de la sélection des produits par
le marché, celui de la sélection des organisations et des comportements à l’intérieur de
chaque firme, et enfin celui de la sélection des firmes et des modèles d’entreprise.
L'industrie évolue ainsi selon un processus en quelque sorte darwinien dans lequel le
marché joue le rôle de l'environnement et la personnalité profonde des firmes celui du
matériel génétique, chaque firme déterminant son comportement d'offreur selon sa
personnalité.

Un schéma évolutionniste
Secteur

Secteur

Firme Nombre d'acteurs


Firme Taille des acteurs
Différentiation
Firme Intégration
Firme
Personnalité
Stratégie
Comportement
concurrence sélection

Le Marché

Ce modèle est analogue à celui de la sélection naturelle en biologie. Chaque


entreprise y est assimilée à un organisme vivant dont le comportement résulte d'une
recherche active de la meilleure adaptation possible à son environnement, mais est
contraint et partiellement déterminé par ses caractéristiques internes : compétences,
ressources, organisation, systèmes de management, système de valeurs, schémas de
comportement …, que nous désignerons d'une façon générale comme sa «personnalité».
En déterminant l'évolution de chacun des offreurs en fonction du succès de ses produits,
le marché effectue également une sélection entre les différentes personnalités
d'entreprise, de même qu'à travers le comportement des individus l'environnement
sélectionne le matériel génétique. C’est ainsi que peuvent apparaître et évoluer des
« espèces » d’entreprises.

La théorie classique de la production

L’ensemble de la théorie économique contemporaine , qui résulte des 28

développements inaugurés par Adam Smith au XVIIe siècle, gravite autour du modèle de

28 Les lecteurs qui souhaiteraient rafraîchir leurs connaissances en économie sont invités à se
reporter à un ouvrage didactique classique, par exemple l’excellent « Economics » de Samuelson
(McGraw Hill), qui a fait l’objet de nombreuses éditions.
La plupart des manuels reflètent l’état des principaux courants de la pensée économique aux
alentours des années 50, et contiennent de nombreuses références bibliographiques. Dans le présent
ouvrage, nous ne mentionnerons les références que pour des travaux plus récents ou peu connus.

ci
référence de l’économie néoclassique. Ce modèle suppose un très grand nombre
d’agents, chacun très petit par rapport au marché et tous conformes à un modèle unique,
l’« homo economicus », qui est lui-même un modèle simplifié du comportement humain
individuel.

La théorie économique classique et néoclassique étudie les transactions entre ces


agents économiques en supposant que la taille de chacun est négligeable par rapport à
celle du marché. Ceci implique l’existence d’un très grand nombre de producteurs et
d’acheteurs pour chaque bien, dont chacun est trop petit pour influencer les prix sur le
marché. Le prix du bien se fixe par confrontation de la demande globale et de l’offre
globale et devient une donnée pour chaque producteur.

Réciproquement, au prix du marché, chaque producteur peut écouler toute la


quantité du bien qu’il peut produire, à condition que cette quantité reste une très faible
part de l’offre et de la demande totale. S’il essaie de vendre au-dessus du prix de
marché, il ne vendra rien. S’il essaie de vendre au-dessous du prix de marché, il ne
vendra pas plus et il perdra de l’argent. Si on excepte les tâtonnements qui sont
nécessaires au début de chaque séance pour découvrir le prix de marché, le prix n’est
pas un paramètre concurrentiel et la seule variable d’ajustement possible pour chaque
producteur est la quantité qu’il produit.

Chaque producteur dispose de certains moyens de production qui peuvent être


caractérisés par une « fonction de production » liant le coût de revient à la quantité
produite. Le coût total de production pour une certaine quantité est généralement formé
d'une partie fixe indépendante du volume de production et de coûts variables
dépendants du volume. Dans la majorité des cas réels, le coût variable augmente à partir
d'un certain seuil de volume (loi dite « des rendements décroissants »), si bien que le
coût moyen par unité produite commence par décroître quand la quantité augmente, puis
recommence à croître au-delà d'une quantité « optimale ». Autrement dit, pour un
appareil de production donné, il existe un volume de production optimal qui minimise le
coût moyen donc maximise le profit du producteur puisque le prix de vente est donné
par ailleurs.

La quantité optimale de production et le coût moyen correspondants peuvent être


différents pour chaque producteur selon son appareil de production, qui peut plus ou
moins bien exploiter les technologies disponibles. De la même façon qu'il existe une
quantité optimale de production pour un appareil de production donné, il existe une
échelle optimale de production pour un produit et un état donné des technologies. C’est
celle qui assure le coût de production unitaire le plus bas possible en utilisant au mieux
les technologies disponibles, et qui procure ainsi une rentabilité maximale pour les
producteurs qui fonctionnent à cette échelle.

L’augmentation des capacités productives et l’exploitation de nouvelles


technologies nécessite des investissements. Une industrie attirera de nouveaux offreurs
et de nouveaux investissements tant que la rentabilité des capitaux investis dans cette
industrie est supérieure au taux d’intérêt du marché. Ces nouveaux offreurs et les
quantités supplémentaires offertes vont faire baisser les prix et les profits. Dans le cas
inverse, les offreurs et les capitaux tendront à déserter ce secteur tant que l’égalité de
ces deux taux ne sera pas rétablie.

cii
Au total, le secteur va tendre vers une situation d'équilibre « à long terme » où :
–les prix et les quantités échangées correspondent au point d'équilibre entre les
intérêts des offreurs et ceux des acheteurs,
–chacun des offreurs opère à une échelle au moins égale à l'échelle optimale de
production,
–la rentabilité des capitaux investis est égale au taux d'intérêt du marché.

Il faut noter que l’existence d’un état d’équilibre n’implique pas que l’économie
réelle fonctionne dans cet état. Dans la réalité, il est possible que l’équilibre soit déplacé
par l’évolution des technologies avant même d’être atteint. De fait, il est extrêmement
rare de constater des équilibres stables, surtout dans un domaine aussi mouvant que
l'informatique. D'une façon générale, et même si la théorie économique tend à
privilégier l'étude des états d'équilibre, plus faciles à traiter par des outils
mathématiques, nous en retiendrons plutôt les conclusions relatives aux mécanismes et
aux tendances d'évolution.

Oligopoles, monopoles et concurrence imparfaite

Le raisonnement de l’économie classique suppose que dans tous les états de


l’économie, y compris l’équilibre à court terme et l’équilibre à long terme, la quantité
produite par chaque offreur est insignifiante par rapport à la quantité totale échangée, ce
qui revient à dire que l’échelle optimale de production est extrêmement faible par
rapport à la taille du marché. Ce raisonnement ne tient plus dès que l’échelle optimale
de production devient égale à une part significative du marché, et il s’effondre quand le
coût moyen est indéfiniment décroissant, ce qui définit une échelle optimale de
production infinie.

Or ces derniers cas sont moins rares que les économistes classiques ne veulent
l’admettre. Si par exemple le coût variable est le même pour chaque unité produite, le
coût moyen de chaque unité est égal à la somme de ce coût variable et du quotient du
coût fixe par la quantité produite, et donc d'autant plus faible que la quantité est élevée.
Or, dans les activités de production industrielle, cette hypothèse est généralement vraie
pour un très large intervalle de volumes, voire acceptée comme valable quel que soit le
volume dans les décisions de management. Dans ce cas, le même raisonnement que ci-
dessus montre que le premier qui prend un avantage sur ses concurrents finira par les
éliminer tous. De plus, dès qu’un offreur atteint une part de marché suffisante, ses
actions peuvent avoir une influence sur le prix de marché, et il peut manipuler les prix
dans le cadre de sa stratégie concurrentielle.

En première approximation, on peut néanmoins dire que le rapport entre l'échelle


optimale de production (EOP) et la taille globale du marché détermine la structure finale
du secteur. Si l'EOP est très faible par rapport à la taille du marché, de nombreux
offreurs peuvent fonctionner de façon durablement profitable, et la situation
concurrentielle se rapproche de la concurrence « pure et parfaite » chère aux
économistes. Si au contraire l'EOP est égale ou supérieure à la taille du marché, on a
une situation de monopole où un seul offreur peut survivre. Dans les cas intermédiaires

ciii
où la taille du marché est un petit multiple de l'EOP, on se trouve dans une situation dite
d'oligopole où un petit nombre de firmes se disputeront le marché.

Le cas du monopole, où le bien n’est offert que par un seul producteur, a été très
tôt formalisé et traité. Contrairement aux offreurs sur les marchés concurrentiels, le
monopoleur a le pouvoir de fixer unilatéralement le prix du bien. On montre qu’il peut
maximiser son profit en limitant les quantités offertes et en vendant à un prix supérieur
à celui qui prévaudrait en situation concurrentielle. Il est protégé de l'entrée de
concurrents par le niveau des investissements que ceux-ci devraient consentir pour
mettre en place un appareil de production compétitif. Ceci lui permet le plus souvent de
réaliser de façon durable un profit supérieur à celui qui correspond au taux d'intérêt des
capitaux investis (les économistes parlent alors de « rente »).

Mais ce faisant, le monopole ne satisfait que partiellement la demande, et introduit


une sorte de rationnement et des prix anormalement élevés par rapport à ce que
permettrait une concurrence « pure et parfaite ».C’est pourquoi les économistes
classiques considèrent que les monopoles entraînent une dégradation de l’efficacité de
la machine économique et que les pouvoirs publics doivent soit empêcher leur
constitution ou les briser quand ils existent, soit les soumettre à des réglementations qui
rétabliront la conformité à l’intérêt général.

La notion d'échelle économique de production est fondamentale pour la


compréhension d'un secteur d'activité, car elle détermine à la fois le nombre des firmes
qui pourront y opérer de façon viable, la forme de la concurrence qui y régnera et le
niveau de profitabilité que ces firmes pourront espérer. Elle constituera pour notre
modèle le premier critère de distinction entre firmes et entre secteurs. Nous la
retrouverons d'ailleurs parmi les considérations principales dans l'analyse de la
dynamique concurrentielle.

La structure industrielle en économie classique

La théorie classique décrit les agents producteurs comme étant en concurrence sur
des marchés pour la fourniture de biens. Le paradigme du marché autorise a priori tout
agent à intervenir à tout moment sur tous les marchés comme offreur aussi bien que
comme demandeur. On constate néanmoins que pour la plupart des biens certains
acteurs sont toujours offreurs et d’autres sont toujours demandeurs. A chaque bien (ou
marché) est donc associé un groupe relativement stable d’agents producteurs de ce bien,
qui forment l’« industrie » associée au marché. Dans la mesure ou l’ensemble des
demandeurs du bien n’est lui-même qu’une partie de l’ensemble des agents, on utilise
également le terme de « marché » pour désigner « l’ensemble des acheteurs réels ou
potentiels du produit ». A chaque produit correspond ainsi un marché et une industrie.
29 30

La théorie postule aussi que chaque décision de vente ou d'achat est indépendante
des autres décisions du même agent sur ce marché et sur les autres marchés. A chaque
bien correspond un marché et vice-versa, et les marchés sont totalement indépendants
29 Kotler, Principles of Marketing
30 Il s’agit là d’une autre acception du mot marché, qui dans le vocabulaire économique habituel
désigne le dispositif physique ou institutionnel qui permet les transactions entre vendeurs et acheteurs

civ
les uns des autres. Les phénomènes économiques peuvent alors être étudiés séparément
pour chaque bien ou marché. L’économie est vue comme une juxtaposition de marchés
disjoints correspondant chacun à un bien isolé. Les interactions entre ces marchés se
résument aux arbitrages que font d’une part les consommateurs en affectant leurs
ressources à l’acquisition de différents biens, d’autre part les producteurs en affectant
les facteurs de production.

Dans cette vision, deux producteurs distincts produisent soit des biens identiques
totalement substituables l’un à l’autre, soit des biens totalement différents et
indépendants l’un de l’autre. De plus, un producteur est implicitement associé à un
produit et un seul. S’il offre plusieurs produits, la théorie économique classique les
traite indépendamment en supposant implicitement que l’offreur se comporte sur chaque
marché de la même façon que s’il opérait exclusivement sur ce marché. La théorie
classique postule ainsi une structure industrielle faite de la juxtaposition de groupes de
firmes tels que toutes les firmes d’un groupe offrent un même produit, et que tous les
groupes, donc tous les produits, sont indépendants les uns des autres.

Cette structure hypothétique ne correspond évidemment pas à la réalité. Il est


extrêmement rare que deux firmes différentes offrent exactement le même produit.
Chaque producteur s'emploie à rendre son offre différente de celle de ses concurrents.
Sauf sur certains marchés alimentaires ou de matières premières, qui n'entrent pas dans
notre propos, il n'y a pas de produits rigoureusement identiques. Les produits sont tous
plus ou moins différents et plus ou moins substituables les uns aux autres, si bien que
regrouper des produits réels en familles homogènes assimilables aux produits abstraits
de la théorie économique comporte une grande part d’arbitraire.

La notion de produit ou de bien est elle-même moins évidente qu’il n’y paraît :
par exemple, un service de transports entre Paris et Lyon n’est pas substituable à un
service de transports entre New York et Chicago. Ce n’est donc pas le même produit
bien que ce soit le même secteur d’industrie. Deux produits, même voisins, ne sont
jamais identiques, et à l’inverse deux produits très différents peuvent s’influencer
réciproquement, par exemple les progiciels et les unités de disques . De plus, des 31

produits différents sont souvent liés entre eux au stade de leur utilisation ou au stade de
leur production. Par exemple, la demande sur le marché des progiciels dépend du
nombre d’ordinateurs en service, et la demande en composants électroniques dépend de
la demande en ordinateurs. Ces interdépendances sont d’autant plus significatives qu’on
se propose d’étudier une industrie comme l’informatique, où coexistent un grand
nombre de types de produits liés entre eux par des relations complexes.

Jusque vers 1930, la théorie économique représente le monde comme une


juxtaposition de marchés appartenant à l’un ou l’autre de deux types : ceux dont le
fonctionnement est correctement approché par le modèle de la concurrence pure et
parfaite, et ceux dont le fonctionnement obéit au modèle du monopole.

31 Cette influence est d’ailleurs multiforme : d’une façon générale, la consommation de progiciels
crée une demande de capacité de stockage sur disques, mais il existe des logiciels de compression de
données qui réduisent cette demande.

cv
La tentative la plus ambitieuse de formaliser un modèle général est due à
Chamberlin (The Theory of Monopolistic Competition, 1933). Dans ce modèle, on
considère que chaque producteur offre un bien dont il a le monopole, et que deux biens
offerts par deux producteurs différents ne sont ni totalement identiques ni totalement
différents, mais présentent un certain degré de substituabilité caractéristique de ce
couple de biens. Les cas de la pure concurrence et du monopole deviennent des cas
particuliers, le premier correspondant au cas où les produits de nombreux producteurs
sont totalement substituables, le second au cas où le produit d’un certain producteur n’a
aucun substitut. Dans le cas général, le comportement de chaque offreur ressemble plus
à celui d’un monopoliste qu’à celui du producteur infiniment petit de la théorie
classique, d’où le nom de « concurrence monopoliste » donné à ce modèle.

Malheureusement, ni Chamberlin ni ses disciples n’ont pu en faire dériver un


système analytique suffisamment opérationnel pour servir de base à une théorie
nouvelle. La difficulté est dans la définition de la demande de chaque produit : puisque
tous les produits sont plus ou moins substituables entre eux, et donc plus ou moins
concurrents, la courbe de la demande pour chaque produit (ou sur chaque marché, ou
pour chaque offreur) est liée à tous les autres marchés, produits, et offreurs. Or on n’a
imaginé à ce jour aucune façon de décrire les interrelations entre produits qui soit à la
fois suffisamment rigoureuse et suffisamment simple pour servir de base à une
redéfinition des notions de concurrence, de marché et d’industrie. Autrement dit,
l’approche de Chamberlin, toute séduisante qu’elle soit, ne nous est que de peu d’utilité
pour résoudre le problème que nous posons dans le présent ouvrage.

La théorie économique s’avoue ainsi impuissante à fixer des critères rigoureux


permettant d'isoler une partie quelconque du système économique pour l'étudier
indépendamment du reste. Chamberlin lui-même avait écrit : « En toute rigueur, ni un
marché ni un secteur ne peuvent être définis de façon objective. Le monde économique
peut être considéré comme un réseau de marchés et de secteurs interdépendants, dont les
frontières sont choisies de façon à rendre la représentation commode, mais qui sont
essentiellement arbitraires ».

La concurrence et les structures industrielles

Pour analyser plus finement les phénomènes concurrentiels qui président à la


structuration de l’industrie, il nous faut recourir à des sources qui décrivent la
concurrence de façon plus exhaustive et détaillée que ne le fait la théorie économique.
Nous utiliserons pour cela les ouvrages de Michael Porter, qui sont devenus la référence
dans ce domaine . Tout en reprenant les concepts économiques appropriés, comme ceux
32

d’obstacles à l’entrée ou d’échelle optimale de production, l’analyse de Porter les


complète par de nombreuses autres considérations issues de l’expérience des
entreprises, et présente ainsi une synthèse de l’étude du comportement des firmes en
situation de concurrence.

32 Les deux ouvrages de référence de Porter sont « Competitive Strategy » (1980) et « The
Competitive Advantage » (1985), tous deux publiés par The Free Press, New York. Le premier a été
publié en français sous le titre « Choix Stratégiques et Concurrence » (Economica, 1982) et le second
sous le titre « L'Avantage Concurrentiel » (InterEditions, 1986).

cvi
Nous devrons toutefois en adapter les concepts et les outils au propos du présent
ouvrage. Les ouvrages de Porter s’adressent aux responsables d'entreprise afin de les
aider à formuler des stratégies efficaces compte tenu de leurs activités et de leur
environnement particuliers. Dans cet esprit, ils cherchent à recenser de façon exhaustive
les facteurs susceptibles d'être pris en compte, même si leur analyse doit rester
incomplète ou imprécise. A l’inverse, Porter admet implicitement que ses lecteurs se
situent à l’intérieur d’une firme particulière appartenant à une structure industrielle
donnée et que chacun d’entre eux sait de façon pragmatique quelles sont les firmes dont
il doit tenir compte dans l’établissement de sa stratégie concurrentielle.

Nous pourrons simplifier le modèle proposé par Porter en ne retenant que les
éléments qui sont en relation directe avec la structure industrielle. Certains facteurs
peuvent se révéler importants pour la détermination de la stratégie d'une firme en
particulier, mais peuvent être considérés comme mineurs pour l'étude de la structure
globale ; nous pourrons donc sans dommage les évacuer de notre modèle. De même,
nous pourrons ignorer les facteurs qui ne concernent pas l’industrie informatique, ou qui
agissent de la même façon sur toutes les firmes.

Les cinq forces de Porter

Selon Porter, la concurrence dans une industrie donnée est gouvernée par l'action
de cinq forces fondamentales :
–la menace de nouveaux entrants,
–la rivalité entre les concurrents existants,
–la pression exercée par les produits de remplacement,
–le pouvoir de négociation des clients,
–le pouvoir de négociation des fournisseurs.

Forces concurrentielles

entrants M. Porter - Competitive strategy (1980)


potentiels

fournisseurs rivalité clients

déterminent:
intensité de la concurrence
substituts
structure de l'industrie
profitabilité potentielle
stratégies possibles

évoluent le long du cycle de vie

cvii
Chacune de ces forces synthétise de nombreux facteurs se rattachant au produit ou
service concerné, au système de production, à la firme productrice ou au secteur
d'industrie. De l'interaction de ces cinq forces dépendent en particulier l'intensité de la
concurrence et le niveau de profitabilité potentiel du secteur, le nombre de concurrents
en présence et la répartition des parts de marché, les règles du jeu concurrentiel et
l'éventail de stratégies possibles.

Notion de secteur

S'appuyer sur l'étude de la concurrence pour comprendre la structure de l'industrie


exige que l’analyse soit conduite secteur par secteur. Le choix des clients, et donc la
concurrence, ne joue pleinement qu'entre firmes offrant des produits substituables l'un à
l'autre dans le sens où ils peuvent satisfaire un même besoin du client. Des produits non
substituables entre eux définissent donc autant de secteurs disjoints qui se structurent
indépendamment les uns des autres, au moins en première analyse. Par exemple, le
secteur des imprimantes ou celui des progiciels de traitement de texte sont aussi
distincts de celui des ordinateurs que le secteur des disques compacts l'est de celui des
composants électroniques.

Porter utilise le terme d’« industry » pour désigner « un groupe de firmes qui
fabriquent des produits étroitement substituables ». C'est en somme l'ensemble des
acteurs qui luttent entre eux pour un marché donné et que structure le jeu des forces de
la concurrence. Ce terme a été assez heureusement remplacé par celui de « secteur »
dans la traduction française, car ce qu’il désigne est beaucoup plus étroit que ce
qu’évoque habituellement le mot « industrie ». Dans cette acception, le présent ouvrage
adopte le terme de « secteur » en conservant au mot « industrie » son sens plus large et
plus flou. Cette notion de secteur est différente de la notion de marché ou de segment de
marché, qui se définit comme « l'ensemble des acheteurs réels et potentiels d'un
produit » (Kotler, Principles of Marketing, 1980).

Selon cette définition, l'informatique ne constitue pas une industrie ou un secteur


unique, mais elle est composée d'un grand nombre de secteurs correspondant à autant de
produits substituables. Les produits d'Intel ne sont pas substituables à ceux de Lotus, ni
ceux d'EDS à ceux de Compaq. Parmi les matériels, imprimantes et unités de disque
forment deux secteurs distincts, de même que les tableurs et les traitement de texte
parmi les logiciels. Au sens de Porter, non seulement les composants, les matériels, le
logiciel et les services constituent des secteurs distincts, mais ces secteurs eux-mêmes
doivent être décomposés à leur tour en sous-secteurs, qui peuvent obéir à des logiques
de production et à des dynamiques concurrentielles différentes, et revêtir de ce fait des
structures différentes.

Comme les économistes classiques, Porter reconnaît qu’il est difficile de fixer
exactement les bornes d'un secteur, comme d’ailleurs de séparer les candidats à l’entrée
des concurrents existants ou de distinguer les produits de remplacement des produits
courants. Mais la nature même de son propos l’autorise à éluder explicitement la
question. Le praticien auquel il s’adresse sait quels sont pour lui les produits et les
concurrents pertinents, et peu importe au fond le tracé exact des frontières du secteur

cviii
pourvu que tous les concurrents soient pris en compte d’une façon ou d’une autre, selon
l’importance de la menace qu’ils représentent.

Nous devrons donc adapter ce modèle pour identifier des critères objectifs et
généraux de structuration de l’industrie, et tenir compte des relations de covariance ou
d’antagonisme entre certains produits, et donc les secteurs correspondants, ainsi que du
fait que la plupart des firmes offrent plusieurs produits et opèrent de ce fait dans
plusieurs secteurs.

Par exemple, la plupart des firmes de progiciel sont présentes dans plusieurs
domaines d'application, et presque toutes les firmes de matériel offrent aussi des
services. Lorsque de nombreuses firmes sont présentes dans une même configuration de
secteurs élémentaires, on peut considérer que cette situation définit un secteur
composite, mais il est souvent utile de prendre en compte le fait que certains de ces
secteurs sont en réalité la juxtaposition de secteurs élémentaires pouvant soit obéir à des
logiques différentes, soit se situer à des phases différentes d'évolution sectorielle.

La bonne méthode consiste à faire porter l'étude d'abord sur les secteurs aussi
« élémentaires » que possible, correspondant à des produits incontestablement
substituables. Ce n'est que dans un deuxième temps, après avoir étudié des secteurs
« purs » au sens des corps purs en chimie, que nous pourrons tenir compte des
similitudes et des interrelations entre secteurs.

Dans une première approche, nous nous en tiendrons aux quatre grandes
catégories traditionnelles que sont les composants, les matériels, les logiciels et les
services, tout en cherchant s’il existe des différences dans l’action des forces
concurrentielles à l’intérieur de ces catégories.

Forces concurrentielles et rentabilité

Le modèle classique de l’équilibre économique indique que chaque secteur


d’industrie tend vers une situation où la rentabilité des capitaux investis est égale au
taux d’intérêt du marché, donc est la même pour toutes les firmes et tous les secteurs.
Le taux de profit de la firme, exprimé en pourcentage du chiffre d'affaires après impôts,
est égal au produit du taux de rentabilité des capitaux par le rapport des capitaux au
chiffre d’affaires. Il en résulte que, dans l’hypothèse de concurrence « pure et parfaite »,
la profitabilité moyenne d'un secteur ne dépend que de l'intensité capitalistique de ce
secteur. Il sera élevé pour des activités fortement capitalistiques comme les composants
électroniques, et faible pour des activités comme les services de conseil et d'assistance,
mais dans tous les cas juste suffisant pour rétribuer les capitaux investis au taux du
marché.

Ceci suppose, entre autres hypothèses, que les offreurs puissent librement entrer et
sortir du marché sans encourir de dépenses particulières, et faire varier leur production
par quantités infinitésimales.

La présence de barrières à l’entrée ou à la sortie, ou celle de paliers de variation de


production, modifie ces conclusions. De nouveaux offreurs n’apparaîtront que si la
rentabilité du secteur est suffisamment élevée pour justifier leur investissement initial et

cix
le risque qui lui est associé. A l’inverse, en présence d’obstacles à la sortie, les offreurs
malchanceux ne quitteront pas le secteur tant que leur rentabilité restera suffisante pour
les dissuader de payer le prix de la sortie. Au total, la présence de barrières à l’entrée
tend à maintenir la profitabilité du secteur au-dessus de la moyenne et celle de barrières
à la sortie en dessous. Dans un cas comme dans l’autre, le processus de convergence est
enrayé et les rentabilités des firmes présentes peuvent rester durablement différentes les
unes des autres.

Les mêmes considérations régissent également le nombre d’offreurs présents dans


chaque secteur et l’intensité de la concurrence qui y règne. La présence d’obstacles à
l’entrée tend à réduire le nombre de concurrents et constitue un facteur de concentration
du secteur, tandis que celle d’obstacles à la sortie tend à maintenir le nombre de
concurrents à un niveau artificiellement élevé, et constitue un facteur de dispersion du
secteur. Par ailleurs, la concurrence tend à être d’autant plus vive que le les concurrents
sont nombreux. S’il est possible de sortir facilement du secteur, les firmes en difficulté
pourront abandonner plutôt que continuer la lutte. Si par contre, pour une raison ou une
autre, les firmes engagées dans un secteur rencontrent des difficultés pour le quitter,
certaines choisiront de se battre « dos au mur » en exaspérant la concurrence.

La menace de nouveaux entrants et la concurrence entre offreurs existants


contribuent donc à déterminer la rentabilité d’un secteur. De la même façon, la menace
de produits de remplacement fixe une limite supérieure au prix du produit et donc à la
rentabilité possible, tandis que le pouvoir de négociation des clients et de fournisseurs
détermine la mesure dans laquelle les firmes du secteur peuvent imposer leurs
conditions et ainsi conserver la valeur qu’elles créent. En résumé, pour les firmes qui y
sont présentes, un secteur est d’autant plus favorable que les obstacles à l’entrée sont
élevés, les obstacles à la sortie faibles, la menace de produits de remplacement lointaine,
le pouvoir relatif des clients et des fournisseurs limité.

Types de secteurs
Obst. entrée
concentration
rentabilité
secteur concentré secteur très concentré
concurrence vive concurrence modérée
profits moyens profits élevés
profits risqués profits stables

secteur très dispersé secteur dispersé


concurrence intense concurrence vive
profits faibles profits faibles
profits risqués profits stables

facilité sortie
sécurité

L’obstacle à l’entrée le plus important est une échelle économique de production


élevée. Une telle situation impose au candidat éventuel à l'entrée des investissements et

cx
des besoins en capitaux importants, ainsi qu’un volume minimal de production et des
prix-plafond qui sont ceux des firmes déjà en place, augmentant ainsi son risque. On
retrouve ici la théorie économique qui montre que l'échelle optimale de production est
d'autant plus élevée que le rapport entre les frais fixes et les frais variables de
production est élevé.

Les secteurs de l’industrie informatique

Les frontières de l’informatique

Bien que la théorie économique conclue à l’impossibilité d'isoler une partie


quelconque du système économique pour l'étudier indépendamment du reste, le réalisme
nous contraint à délimiter le champ de la présente étude de façon plus précise que nous
ne l’avons fait jusqu’ici.

Nous pouvons définir l’industrie informatique comme « l’ensemble des


organisations qui produisent des biens ou des services entrant dans la composition des
systèmes informatiques ou utilisés dans leur mise en œuvre ». Cette définition suppose à
son tour que nous puissions définir de façon précise ce qu’est un système informatique,
ce qui n’est pas si évident qu’il n’y paraît.

Informatique et ordinateurs ont longtemps été synonymes, mais la baisse


constante du coût des composants a permis d’intégrer des éléments d’ordinateurs à
toutes sortes d’objets dont la plupart existaient avant l’informatique, et dont certains
appartiennent à la vie courante. Les avions, les voitures, les appareils photographiques,
les instruments de musique, les téléphones, les machines-outils contiennent des
microprocesseurs plus ou moins nombreux et plus ou moins puissants. Doit-on pour
autant considérer ces objets comme des systèmes informatiques et les industries
aéronautique, automobile, photographique, musicale, téléphonique, … comme des
branches de l’industrie informatique ? Dans le même esprit, où ranger les calculettes, les
jeux électroniques ou les simulateurs de vol ?

Pour le moment, nous déciderons arbitrairement de focaliser notre étude sur les
ordinateurs dits « universels », tout en retenant que les technologies et les composants
de l’informatique sont aussi utilisés dans d’autres machines, mais à des fins particulières
correspondant aux fonctions propres à ces machines. Ce n’est qu’après avoir examiné
l’industrie informatique dans ce sens étroit que nous reviendrons sur la question des
objets informatisés et que nous essaierons de comprendre les phénomènes industriels
qui se situent aux frontières de l’informatique stricto sensu.

La définition de l’industrie informatique que nous avons retenue nous invite à


établir un inventaire des produits et services qui « entrent dans la composition des
systèmes informatiques ou sont utilisés dans leur mise en œuvre ».

Vus par leurs utilisateurs, les systèmes informatiques (que nous assimilons aux
ordinateurs) sont toujours constitués par des matériels interconnectés, sur lesquels
s’exécutent des logiciels qui en définissent les fonctions applicatives. La part matérielle
peut être aussi simple que la combinaison d’une unité centrale, d’un écran, d’un clavier

cxi
et d’une imprimante, ou bien comprendre tout un réseau de centres de traitement
comportant chacun de nombreuses unités de calcul et de stockage, et accessible à partir
de milliers de terminaux. Il existe une grande variété de matériels qui se distinguent par
leur fonction primaire (calcul, stockage, lecture et production d’informations sous
différentes formes physiques, communication entre systèmes informatiques, …), ainsi
que par les modalités et les performances d’exécution de ces fonctions. Ces divers
matériels peuvent être acquis séparément auprès de fournisseurs concurrents.

Les logiciels définissent concrètement les services que le système informatique


rend à ses usagers. Tout système informatique contient donc une part importante de
logiciels, que l’on range habituellement en plusieurs catégories : logiciels système
directement liés aux matériels, programmes utilitaires réalisant des fonctions de service,
applications générales communes à de nombreux utilisateurs, applications spécifiques à
un groupe particulier. Tous ces logiciels peuvent être obtenus de différentes façons :
certains logiciels généraux sont préparés par des entrepreneurs et peuvent être acquis sur
le marché comme n’importe quel autre produit ; on parlera alors de « progiciels ». Ils
peuvent à l’opposé être développés spécifiquement pour un utilisateur particulier, qui
peut confier ce travail à son propre personnel ou à une société de services. Notons dès à
présent que contrairement au matériel qui implique une relation classique simple entre
fournisseur et client, le logiciel peut donner lieu à trois modes de relation économique
différents : celui de la production industrielle pour les progiciels, celui du service ou
celui de l’autarcie pour les développements spécifiques.

Outre le développement de logiciels, d’autres services interviennent dans la


composition ou la mise en œuvre des systèmes informatiques : services de
communications, d’intégration, de formation, de gestion, de maintenance, etc. De plus,
à la décomposition « horizontale » perçue par les utilisateurs se superpose une
décomposition « verticale » correspondant à une spécialisation des étapes de
production, qui fait intervenir les matières premières, les produits intermédiaires, les
services aux entreprises productrices d’informatique, etc.

A ce point, notre tentative de donner des bornes claires à l’industrie informatique


rencontre une deuxième difficulté : parmi tous les biens et services utilisés par les
systèmes informatiques, et parmi les secteurs qui les produisent, lesquels doivent être
retenus comme faisant partie de l’industrie informatique ? Il est clair par exemple que
même si les ordinateurs sont enfermés dans des boîtiers métalliques, ceci ne suffit pas à
faire de la métallurgie une branche de l’informatique. Mais à l’inverse, de nombreux
commentateurs fusionnent volontiers l’industrie des télécommunications et celle de
l’informatique. Dans la mesure où un très grand nombre de systèmes informatiques
incorporent des services de télécommunications fournis par les opérateurs spécialisés,
nous devons nous demander si les services de télécommunications entrent dans notre
définition.

Là encore, notre position sera utilitaire et non dogmatique. En cas de doute, il


semble plus utile à l’analyse de considérer deux secteurs comme distincts et d’en étudier
explicitement les relations quitte à conclure à leur similitude, plutôt que de postuler a
priori qu’ils n’en forment qu’un. Dans ce cas précis, les services de télécommunications
offrent une fonction de transport de l’information qui n’est pas spécifique aux systèmes
informatiques. Même dans le cadre de ces systèmes, la fonction de transport peut être

cxii
réalisée par d’autres moyens comme la poste ou les transports routiers, qui sont ainsi
substituables aux télécommunications et pourraient eux aussi être candidats à entrer
dans le champ de notre étude.

D’une façon générale, nous adopterons les règles empiriques suivantes :


–écarter les industries pour lesquelles l’informatique est un client minoritaire et non
le client dominant,
–écarter les industries qui existaient avant l’informatique, c’est à dire avant 1950.

Nous retiendrons ainsi une définition étroite de l’industrie informatique, qui ne


contient en particulier pas les télécommunications, considérées comme une industrie
distincte. Dans la suite de notre étude, nous examinerons les firmes qui jouent un rôle
important en informatique sans que ce soit leur activité dominante, ainsi que les firmes
dont l’informatique influence fortement l’activité – deux critères qui s’appliquent aux
télécommunications – pour voir les implications de cette proximité et reprendre plus
tard la question de leur rapprochement éventuel.

Les facteurs structurants

L’échelle économique de production

Une échelle optimale de production élevée, provenant par exemple d’un ratio des
coût fixes aux coûts variables très élevé, constitue le plus important des obstacles à
l’entrée. Cette situation est de façon extrême celle des composants électroniques où les
investissements sont de l'ordre du milliard de dollars alors que les coûts marginaux sont
très faibles. C’est aussi celle des progiciels dont le coût de reproduction par exemplaire
est très faible alors que le coût (fixe) de développement peut être élevé.

Pour les matériels, la situation dépend de la stratégie adoptée. Un constructeur


peut se contenter d'assembler de façon artisanale des composants et des unités qu'il
acquiert sur le marché, auquel cas ses frais variables seront prédominants et son échelle
de production faible. Les économies d'échelle apparaissent lorsqu'il passe à une
production plus industrielle exigeant des investissements, ou lorsqu'il produit lui-même
tout ou partie des composants qu'il utilise.

Les services ne se laissent pas appréhender de façon simple. Certains comme les
services de conseil et d'assistance sont caractérisés par une échelle de production très
faible et donc sont exempts d'obstacles à l'entrée. D'autres, comme les
télécommunications, exigent des investissements matériels considérables entraînant des
frais fixes élevés et une échelle de production constituant un obstacle quasi-
infranchissable. Dès maintenant, nous voyons que le secteur des services est très
hétérogène et devra faire l'objet d'une subdivision en sous-secteurs.

Un autre obstacle à l'entrée d'un nouveau concurrent est formé par les coûts que
les clients doivent consentir pour changer de produit, ou les autres inconvénients liés à
ce changement. Ces obstacles dépendent de la différenciation du produit, de la fidélité
de la clientèle existante, et des coûts de transfert pour le client. Le candidat à l'entrée

cxiii
peut réduire ces coûts en choisissant de copier des produits existants, en particulier
lorsque ceux-ci font l'objet d'un standard ou d'une norme. Cet obstacle à l'entrée sera
donc important en l'absence de normalisation, faible pour les services et les matériels
standardisés et très faible pour des services banalisés comme l'assistance technique ou le
développement de logiciels.

Les obstacles à la sortie

Dans le cas de l’informatique, la principale source d’obstacles à la sortie est


l’utilisation d’actifs spécialisés qui perdent toute valeur en cas de cessation de la
production. D’autres sources potentielles sont les relations stratégiques réelles ou
supposées avec d’autres activités de l’entreprise, ou encore des restrictions
gouvernementales. Concernant ce dernier point, les gouvernements qui ont soutenu une
industrie nationale ont voulu s’assurer l’existence d’un constructeur national
généraliste. En continuant à le soutenir au moment où tous les généralistes sont en
difficulté, ils ont contribué à maintenir un nombre de généralistes plus élevé que ne le
voudrait la simple logique concurrentielle.

Le besoin de capitaux

Le besoin de capitaux est directement lié à la structure des coûts pour l'activité
considérée et se rapproche donc de l'échelle de production, si ce n'est qu'il s'agit ici du
besoin en valeur absolue alors que l'échelle de production se rattache au besoin en
capitaux à travers son rapport aux coûts variables. Par exemple, les composants et les
progiciels ont tous deux une échelle de production élevée, mais le besoin en capitaux de
l'activité progiciels est beaucoup plus faible en valeur absolue.

Le besoin en capitaux est une barrière à l'entrée particulièrement sévère lorsque


ces capitaux sont destinés à financer des coûts irrécupérables (« sunk costs »), c'est à
dire qui ne peuvent être éliminés même en cas d'arrêt total de la production. C'est le cas
par exemple des dépenses de recherche et de développement et de commercialisation,
ou des coûts de construction de l'appareil de production dans la mesure où cet appareil
ne peut être utilisé à d'autres fins et n'a donc pas de valeur d'usage en cas d'arrêt de la
production. Cette dernière situation peut résulter d'une évolution rapide des technologies
de production, par exemple dans le cas des composants électroniques.

La propriété des technologies

Une firme qui dispose de technologies originales peut rendre difficile l’entrée de
concurrents en leur interdisant d’accéder à ces technologies grâce à des brevets ou tout
autre dispositif de protection. Même en l’absence de telles dispositions de propriété
industrielle, l’investissement et le temps nécessaire à l’acquisition d’un niveau de
compétence concurrentiel peuvent représenter un obstacle à l’entrée non négligeable.

Ce type de barrières à l’entrée forme un obstacle majeur dans le secteur des


composants, et intervient aussi pour les services « intellectuels » où la compétence est
déterminante. La situation est plus confuse pour les progiciels, pour lesquels la

cxiv
protection juridique n’est pas pleinement efficace et constitue un problème majeur
d’actualité.

Le pouvoir des clients

La motivation des clients à négocier âprement avec les fournisseurs, et leur


pouvoir relatif dans ces négociations, sont d’autant plus élevés que :
–les clients achètent des volumes élevés par rapport à la taille des vendeurs,
–le coût des achats est une part importante des dépenses des clients,
–les produits sont peu différenciés et les coûts de transfert faibles,
–les clients sont financièrement fragiles,
–les clients ont la possibilité de produire eux-mêmes les biens concernés (menace
d’« intégration vers l’amont »),
–le produit n’est pas critique pour l’activité des clients,
–les clients disposent d’une bonne information sur les produits, le marché et les
fournisseurs.

Dans leur grande majorité, les fournisseurs informatiques s’adressent à une


clientèle diversifiée qui couvre toutes les branches d'activité et ne forme pas un groupe
ayant des caractéristiques particulières. L’importance des achats pour le client est très
variable selon les applications et les secteurs de clientèle, mais reste la plupart du temps
moyenne. Les coûts de transfert sont élevés pour les matériels non standard, faibles pour
les matériels standard et la plupart des services, mais sont très élevés pour certains
services à caractère monopoliste comme les télécommunications. La menace
d'intégration amont n’existe que pour la majorité des services, où elle est importante.

A l’intérieur de l’industrie informatique, nous pouvons appliquer l’analyse ci-


dessus aux cas où les produits d’un secteur sont utilisés par un autre secteur. En
éliminant le cas banal, non spécifique à l’informatique, de l’utilisation d’ordinateurs à
des fins de gestion ou d’aide aux activités internes de la firme, les deux cas à examiner
sont celui de la fourniture de composants aux constructeurs et de la fourniture de
matériels et progiciels aux offreurs de certains services.

Nous avons vu que le secteur des composants et fortement concentré alors que
celui des matériels est dispersé. De plus, les composants représentent une part critique
des matériels, et les fournisseurs de composants peuvent exercer une menace crédible
d’entrée dans le secteur du matériel. En revanche, les constructeurs de matériel ne
forment un débouché critique que pour ceux des fournisseurs de composants qui sont
hautement spécialisés en informatique. Le secteur des composants jouit donc d’un
pouvoir important sur ses clients les constructeurs de matériel et peut dans une large
mesure leur imposer ses conditions et empocher la plus grande part de leur valeur
ajoutée combinée.

Dans le cas des offreurs de services qui incorporent à leurs prestations du matériel
ou du progiciel, comme c’est le cas des services de traitement, de l’intégration de

cxv
systèmes, ou du facilities management, les deux secteurs sont dispersés. Mais d’une part
ces achats sont plus critiques pour les sociétés de service que pour les constructeurs, et
d’autre part les constructeurs peuvent exercer une menace permanente d'intégration en
aval des services, alors que l’inverse est peu crédible. Le pouvoir des fournisseurs de
matériels et progiciels est donc relativement supérieur à celui de leurs clients les
offreurs de services. Cette conclusion doit néanmoins être tempérée par le rôle de
prescripteur et de distributeur que peuvent jouer ces derniers.

Secteurs concentrés et secteurs dispersés

Nous pouvons maintenant compléter la distinction entre secteurs que nous avions
ébauchée au chapitre précédent à partir de l’échelle optimale de production.

Une grande échelle optimale de production due à des frais fixes élevés par rapport
aux frais variables, et/ou une forte différenciation des produits entraînant pour le client
des coûts de transfert élevés en cas de changement de fournisseur, constituent de fortes
barrières à l'entrée et font du secteur un secteur concentré où la concurrence se joue
entre un petit nombre de grandes firmes. Un exemple typique est celui des
microprocesseurs.

Une échelle de production élevée va de pair avec des coûts fixes élevés et un fort
besoin de capitaux, que nous ne considérerons donc pas comme des facteurs de
structuration indépendants. D’autres facteurs qui poussent à la concentration d’un
secteur sont principalement l’utilisation de technologies protégées ou peu répandues et
l’absence d’obstacles à la sortie.

Dans les secteurs concentrés, les firmes peuvent espérer atteindre une profitabilité
élevée, mais la part de marché joue un rôle déterminant. Plusieurs études ont cherché à
comprendre s’il existe une configuration stable des parts de marché, en partant du
principe que la concurrence est la plus intense entre firmes de taille comparable et doit
devenir plus modérée entre firmes de taille très différente. De façon empirique, on
constate souvent une tendance vers une configuration où un leader occupe 55% à 65 %
du marché, un challenger environ 30%, avec quelques firmes secondaires se partageant
quelque 10 à 15% . C’était par exemple le cas de l’informatique jusqu’aux années 80
33

avec IBM dans le rôle du leader, et c’est maintenant les cas des microprocesseurs avec
Intel, des progiciels système et de chacun des principaux logiciels utilitaires avec
Microsoft, ou des logiciels de réseau avec Novell.

A l'opposé, de faibles barrières à l'entrée entraînent une structure dispersée où 34

opèrent de nombreuses firmes concurrentes. Les parts de marché y sont plus faibles, la

33 Ce constat a été érigé en règle par Henderson, du Boston Consulting Group, sous le nom de
« règle de 3 et 4 », qui s’énonce « dans une industrie stable, il n’y a que trois concurrents significatifs et
leurs chiffres d’affaires sont dans les rapports 4-2-1 »
34 Nous avons préféré le terme « dispersé » à « fragmenté » pour traduire le mot « fragmented »
utilisé par Porter. D’une part c’est un meilleur antonyme de « concentré », et d’autre part ce choix nous
permet de réserver le mot « fragmenté » pour désigner une industrie où les différents biens sont produits
par des firrmes spécialisées distinctes, par opposition à une industrie « intégrée ». Voir les chapitres 14 et
15.

cxvi
firme la plus importante ayant rarement plus de 15% du marché et les 10 premières ne
totalisant le plus souvent pas 50%. La profitabilité potentielle y est également faible,
même pour les firmes les plus performantes. Cette situation peut être due à une échelle
optimale de production réduite grâce à des frais fixes modérés, ainsi qu'à une
banalisation ou une standardisation des produits qui facilite le changement de
fournisseur. Elle est aggravée par l’utilisation de technologies banales ou la présence
d’obstacles à la sortie.

Notion de métier

Plusieurs secteurs au sens de Porter (groupe de firmes qui fabriquent des produits
étroitement substituables) peuvent se caractériser par des appareils de production très
voisins et donc avoir en commun tous les facteurs de structuration qui se rattachent au
système de production, alors même que leurs produits ne sont pas substituables. Nous
utiliserons le terme de « métier » pour désigner un tel groupe de secteurs. C’est par
exemple le cas de l’assemblage des matériels, qui peut concerner aussi bien des
imprimantes que des unités de calcul ; c’est aussi le cas des progiciels, puisqu’un
tableur et un gestionnaire de communications, bien que non substituables, font
néanmoins appel au même processus de production.

Le jeu des forces concurrentielles au niveau d’un métier se situe quelque part
entre un secteur au sens strict et une industrie au sens large. En effet, la similitude de
l’appareil de production poussera certains acteurs d’un même métier à être présents dans
plusieurs secteurs, voire à tirer de cette présence un avantage concurrentiel et à protéger
cet avantage en établissant des liaisons entre des produits appartenant a priori à des
secteurs distincts. Ce phénomène a dominé le secteur des matériels avant que la
standardisation ne vienne isoler les différents types d’unités les uns des autres et
permettre le cloisonnement entre sous-secteurs. Il joue maintenant un rôle de plus en
plus visible dans les progiciels où les leaders comme Microsoft ou IBM, et leurs
challengers immédiats comme Lotus ou Novell cherchent à couvrir un domaine
d’application aussi étendu que possible. Nous reviendrons sur cette problématique dans
le chapitre consacré au progiciel. En revanche, le fonctionnement du marché, et en
particulier les effets de substitution entre produits concurrents et la répartition des parts
de marché, doivent bien être analysés secteur élémentaire par secteur élémentaire.

Produits et secteurs informatiques

A ce stade de notre étude, on peu donc prévoir que le secteur des composants se
caractérise par un faible nombre d'acteurs et une rentabilité élevée, celui des matériels
par un assez grand nombre d'acteurs et une rentabilité moyenne, celui des services par
un grand nombre d'acteurs et une rentabilité faible. Pour les secteurs des matériels et des
progiciels, il ne nous a pas été possible de caractériser de façon simple des facteurs tels
que la différenciation des produits et les coûts de changement de fournisseur. La
structuration de ces secteurs doit donc tenir compte du phénomène de standardisation :
un haut degré de normalisation des produits abaisse les barrières à l'entrée, donc
augmente le nombre de concurrents et diminue la profitabilité potentielle par rapport à
un secteur où les concurrents offrent des produits plus différenciés.

cxvii
Le secteur des progiciels présente un caractère paradoxal à l’observateur
superficiel, car tout à la fois les obstacles à l'entrée et à la sortie y semblent faibles, et
les économies d'échelle y sont très fortes, la plus grande part des coûts étant supportée
en phase de développement. On y constate d’ailleurs la coexistence d’un grand nombre
de firmes avec des profitabilités très élevées. La réalité est que les firmes de progiciels
ne constituent pas un secteur unique, mais autant de secteurs que de domaines
d’application (systèmes d’exploitation, gestion de réseaux, traitement de textes,
tableurs, utilitaires, …), ces nombreux secteurs formant un métier unique. La dispersion
n’est ici qu’apparente et concerne le niveau du métier. Chaque secteur élémentaire obéit
à une logique de concentration, ce qui explique les fortes rentabilités constatées.

Le secteur des services est encore plus hétérogène puisqu’il contient des types de
services divers assis sur des appareils de production très différents dans leurs
caractéristiques économiques, en particulier leur échelle de production. Même en
première approximation, les services ne peuvent pas être analysés comme un secteur
homogène, ni même comme un métier au sens d’un ensemble de firmes dont les
appareils de production ont des caractéristiques voisines. Ceci explique la diversité des
situations dans un domaine où coexistent des métiers et des secteurs différents, comme
nous le verrons au chapitre 13.

Attrait et rentabilité
Obst. entrée
concentration
rentabilité
très attractif
télécoms
composants
mat original
temps partagé progiciels
traitement infogérance
backup
dévelopt
mat standard maintenance intégration

formation
assistance
conseil
peu attractif
facilité sortie
sécurité

G. Dréan - 1994

Cycle de vie

Les cinq forces de la concurrence évoluent dans le temps, et avec elles la structure
et les caractéristiques des secteurs, qui connaissent en général un cycle de vie passant
par les phases d'introduction, de croissance, de maturité et de déclin. En règle générale,
au fur et à mesure que le secteur évolue vers la maturité et le déclin, le pouvoir des
clients augmente, les produits se standardisent, la concurrence tend à s'intensifier et la
profitabilité à diminuer. Mais il arrive que certains des sous-secteurs nouvellement créés
reprennent le cycle à son début et présentent une structure très différente de celle du
secteur dont ils sont issus.

cxviii
Pour illustrer cette analyse, appliquons-la à la totalité du macro-secteur
informatique, en reportant l’étude de chaque branche au chapitre concerné.

Le premier groupe de facteurs d’évolution est lié au marché. La clientèle


desservie par l’informatique est en expansion constante, mais à des rythmes différents
selon qu’il s’agit des grandes organisations, des petites entreprises, des professions
libérales et des particuliers. A ces différentes populations correspondent d’ailleurs des
besoins et des comportements d'achat différents, qui contribuent à une segmentation
croissante des marchés et ouvrent en permanence aux offreurs de nouvelles opportunités
de spécialisation. Parallèlement, les besoins évoluent dans le sens d’une diversification
des applications, ainsi que des attitudes des utilisateurs vis à vis de la personnalisation et
de l'intégration de leurs systèmes. Les grandes entreprises souhaitent majoritairement
disposer de systèmes sur mesure, les plus petites et les utilisateurs individuels veulent
des systèmes standard prêts à l’emploi. Ces différences créent des demandes différentes
en matière de progiciels et de services, donc à nouveau des opportunités de
spécialisation.

Une croissance rapide permet à la concurrence de s’orienter vers la conquête de


nouveaux clients, tandis qu’un ralentissement contraint chacun des acteurs à rechercher
sa croissance au détriment des autres, avivant ainsi la concurrence. L’informatique est
globalement passée d’un régime de croissance rapide à un régime de croissance ralentie,
mais des poches de décroissance et de poches de croissance rapide coexistent avec des
zones de croissance moyenne.

La pénétration du marché est variable selon les segments. Elevée pour les grands
organismes et les petites entreprises très techniques, elle est encore moyenne pour les
autres petites entreprises, et relativement faible pour les travailleurs individuels et les
particuliers. Selon le produit et le marché, le taux de pénétration peut correspondre à la
phase d'introduction, à la phase de croissance, de maturité ou de déclin. Il en va de
même des phénomènes d’apprentissage des acheteurs, dont les niveaux de compétences
sont extrêmement divers.

Un deuxième groupe de facteurs d’évolution se rattache à l’évolution


technologique, qui peut apporter des innovations dans le produit ou les processus de
production, des modifications de l'échelle de production ou des innovations dans le
domaine commercial. Pour l’informatique, les phénomènes les plus significatifs ont lieu
dans le domaine des composants, où la miniaturisation continuelle augmente en
permanence le rapport des frais fixes aux frais variables, ce qui élève à chaque
génération l'échelle optimale de production, le besoin de capitaux et les obstacles à
l'entrée. Du coté commercial, l’importance croissante de la vente directe à des individus
ou des services, plutôt qu’à des organes spéciaux de grandes entreprises, confère à
l’activité de distribution un poids croissant dans l’ensemble du secteur.

Au total, ce rapide examen des facteurs principaux confirme l’hétérogénéité du


macro-secteur informatique et indique des pistes de segmentation. Tant que le marché
reste globalement en expansion, la maturation du secteur est compensée par
l’éclatement du marché en segments distincts qui offrent aux firmes productrices des
opportunités de concentration, donnant ainsi naissance à de nouveaux secteurs qui
peuvent avoir des caractéristiques différentes de celui dont ils sont issus. Un secteur en

cxix
phase de maturité peut ainsi donner naissance à un secteur nouveau où jouera la
dynamique d’une phase d’introduction. La notion de cycle de vie n'a pas grand sens
pour l'ensemble de l'informatique : les progiciels multimédia sont en phase
d'introduction alors que les grands et moyens systèmes entrent en phase de déclin et que
le service de traitement à façon a dépassé la phase de déclin. La position dans le cycle
de vie constitue un nouveau facteur de différenciation interne à l’informatique, qui
contribue à enlever toute pertinence à une analyse globale.

cxx
Chapitre 7
Les composants, un secteur concentré

Un survol de l’industrie des semi-conducteurs. Technologie, production et formation


des coûts. Les arbitrages technico-économiques. Mémoires et processeurs. Coûts fixes,
coûts variables et échelle de production. Concurrence et structure sectorielle. Coûts
irrécupérables et formation des prix. Les configurations stables et la répartition des
parts de marché. Risc contre Cisc. Vers la fin du progrès ?

Toute l’évolution de l’informatique trouve son moteur dans le progrès des


technologies électroniques. Or c’est essentiellement dans les composants que se réalise
ce potentiel. De même que leurs performances gouvernent l’ensemble des performances
des systèmes informatiques, nous devons nous attendre à ce que l’économie de leur
production exerce une influence déterminante sur la structure de l’ensemble de
l’industrie.

Dans ce chapitre, nous allons appliquer au métier de production de composants


électroniques les éléments théoriques que nous avons résumés dans le chapitre
précédent. Pour cela, nous commencerons par rappeler l’historique et la structure
actuelle de ce secteur d’activité, puis les considérations technologiques qui gouvernent
la production des composants et l’économie du secteur.

Nous nous limiterons aux circuits intégrés (mémoires et microprocesseurs), qui


constituent la part la plus « noble » des ordinateurs et qui ont l’influence la plus
marquée et la plus originale sur l’évolution du secteur industriel. Parmi les autres
composants, les plus critiques sont les affichages, où la technologie des écrans plats
s’apparente à celle des mémoires et profite des développements de la micro-
électronique, et les diverses unités d’entrée-sortie et de stockage d’informations, où la
micro-électronique s’allie à la mécanique de haute précision.

Historique

A l'origine, les ordinateurs utilisaient les mêmes composants électroniques que les
autres matériels et les constructeurs s'approvisionnaient auprès de fabricants tels que
General Electric, RCA, Sylvania, Raytheon … pour lesquels l’informatique n’était
qu’un client très marginal. L'industrie informatique naissante était ainsi distincte de
celle des composants, qui existait avant elle. De nombreux fournisseurs de composants
tenteront d'ailleurs de prendre pied dans l'informatique, et tous abandonneront tôt ou
tard.

Autour de 1960, les constructeurs de matériel informatique commencent


progressivement à produire eux-mêmes tout ou partie des composants de leurs
machines. Ce mouvement va de pair avec l'apparition de composants spécifiques
comme les mémoires, puis avec celle des circuits intégrés dont la conception ne peut

cxxi
plus être séparée de celle des matériels où ils sont utilisés. A partir de 1964, à la suite
d'IBM, chaque constructeur d'ordinateurs conçoit et produit lui-même l'essentiel des
composants qu'il utilise. En même temps que l’industrie informatique se détache ainsi
de l’industrie électronique généraliste, la production de composants s’intègre dans
l'activité de chacun des constructeurs. Cette intégration reste à ce jour une
caractéristique du monde de l'informatique traditionnelle.

En sens inverse, les microprocesseurs développés par les constructeurs


informatiques trouvent des applications dans d’autres industries. C’est pour répondre à
ces besoins que se créent de nouvelles entreprises spécialisées comme Intel en 1968.
Ces deux mouvements se rejoignent lorsque IBM décide d’utiliser des composants Intel
dans ses micro-ordinateurs lancés en 1981, faisant revenir le monde du PC à la situation
initiale où les constructeurs de matériels achetaient leurs composants à des fournisseurs
extérieurs. Cette spécialisation entre l'industrie des composants et celle des matériels
dans le monde du PC a été confirmée aussi bien par la floraison des constructeurs qui
utilisent les composants Intel que par l'apparition de fournisseurs de composants
compatibles tels AMD ou Cyrix. Le point le plus remarquable est sans doute que,
malgré les efforts d'IBM pour revenir sur le marché des composants pour PC, la
domination d’Intel n'ait fait que se renforcer.

Non seulement le monde du PC, mais aussi l’alternative Apple se conforme au


même modèle en utilisant des processeurs construits par Motorola. C’est donc
l’ensemble du monde des micro-ordinateurs qui repose sur l’utilisation de
microprocesseurs fournis par des firmes spécialisées distinctes des constructeurs de
matériel. L’exception – de taille – est IBM qui produit une grande partie des composants
qu’elle utilise, sur la base d’accords de licence avec Intel.

Par contre, le monde Unix a conservé la structure du monde traditionnel, chacun


des principaux constructeurs (Sun, Hewlett-Packard, IBM, Digital Equipment, Silicon
Graphics) utilisant son propre processeur. Il se trouve que dans leur majorité, ces
constructeurs ont choisi d'utiliser pour leurs machines Unix des processeurs utilisant les
concepts Risc (Reduced Instruction Set Computer). Dans chaque cas, la conception et la
fabrication du processeur font l'objet d'un partenariat entre le constructeur de matériel et
une ou plusieurs firmes spécialisées en micro-électronique. C'est ainsi que Motorola est
associé à IBM, Hitachi à Hewlett-Packard, Texas Instruments et Fujitsu à Sun et
Mitsubishi à Digital Equipment. Par ailleurs, autour de chaque processeur, se sont
formés des consortiums regroupant des constructeurs de matériel qui utilisent ce
processeur dans leurs machines. En ce sens, la structure industrielle attachée aux
composants Risc, semblable au départ à celle du monde traditionnel, commence à
présenter certains des traits du monde PC. Mais chaque constructeur majeur de matériel
Unix continue néanmoins à considérer la possession d'un processeur original comme
faisant partie de ses avantages concurrentiels.

Dans les dernières années, un nombre croissant de constructeurs de matériels,


généralistes ou spécialisés, offrent des systèmes construits à partir de composants du
commerce, et certains constructeurs traditionnels comme NCR ou Unisys ont même
abandonné la fabrication de composants pour utiliser ceux d’Intel. Ce mouvement
semble représenter une tendance de fond que nous allons chercher à expliquer dans la
suite de ce chapitre.

cxxii
Le segment et le secteur

Le tableau suivant donne la liste des 10 premiers fournisseurs de composants


électroniques pour ordinateurs en 1992. La colonne « composants » donne leur chiffre
d’affaires dans ce domaine en millions de $, et la colonne « semi-conducteurs » leur
chiffre d’affaires total en composants électroniques, toutes applications confondues.

Tableau I Chiffre d’affaires des composants


composants semi-conducteurs
Intel 4690 5064
Motorola 1464 4635
NEC 1158 4976
AMD 637 637
Hitachi 616 3902
Texas Instruments 530 3052
Mitsubishi 487 2307
Toshiba 457 4765
National Semiconductors 395
Philips 287 2108

Remarquons que, sauf pour Intel et AMD, les composants informatiques ne sont
qu’une part minoritaire de la production totale de semi-conducteurs. On estime que pour
1992, le chiffre d’affaires total de l’industrie des semi-conducteurs a été de 59 milliards
de $ (pour 130 milliards de composants électroniques), dont 27 milliards (45%) destinés
aux ordinateurs. Ces 27 milliards se répartissent en 25% environ pour les
microprocesseurs, 30% pour les mémoires et le reste pour les autres composants (puces
spécialisées, cartes, …).

Certains fournisseurs sont en même temps des généralistes de l’informatique


comme Texas Instruments ou les japonais NEC, Hitachi et Toshiba, mais pour toutes ces
firmes, les activités de production de composants et celles de construction d’ordinateurs
sont gérées de façon totalement indépendante, sur le modèle du conglomérat et non sur
celui des constructeurs généralistes intégrés.

Rappelons aussi que plusieurs constructeurs d’ordinateurs fabriquent leurs propres


composants, mais n’apparaissent pas dans ce tableau puisque leur production est
réservée à leurs propres besoins et n’est pas commercialisée. Le plus important est bien
sûr IBM, dont la production de composants est comparable en valeur à celle d’INTEL
même si sa composition est assez différente, et qui se place donc dans les tout premiers.
C’est aussi le cas de Digital Equipment, Hewlett-Packard, Sun et Silicon Graphics. Mais
il faut noter que toutes ces firmes se sont alliées à des fournisseurs de composants plus
spécialisés ou plus importants : IBM à Motorola pour son programme PowerPC, Digital
Equipment à Mitsubishi, Hewlett-Packard à Hitachi, Sun à Fujitsu et Texas Instruments,
Silicon Graphics à NEC. De plus, toutes ces firmes s’orientent vers la fourniture de
leurs composants sur le marché.

cxxiii
Les problèmes techniques

Rappels de technologie

Les puces électroniques utilisées dans les ordinateurs sont de petits rectangles de
silicium sur lesquels sont gravés des circuits. Les dimensions des cotés de ces rectangles
sont de l'ordre de un à trois centimètres. Les circuits électroniques gravés sur la puce
peuvent réaliser des fonctions de mémorisation et de traitement d’information. Certaines
puces ne contiennent que de la mémoire, tandis que les microprocesseurs contiennent
principalement des circuits de traitement, ainsi que la mémoire directement nécessaire
au fonctionnement de ces circuits. Nous reviendrons plus loin sur cette différence entre
les puces mémoire et les microprocesseurs, qui joue un rôle important dans la
dynamique de l’industrie.

La largeur des traits gravés sur le silicium, pour constituer par exemple un
conducteur, caractérise un niveau de technologie. Les microprocesseurs récemment mis
sur le marché ont une largeur de trait inférieure à 1 micron (µ), c'est à dire un millième
de millimètre. Pour les puces les plus récentes, cette largeur est de l’ordre de 0.5µ. Il est
difficile de se représenter ce que signifient ces dimensions. Imaginons qu’une puce
comme le PowerPC soit agrandie de façon à permettre le passage d'êtres humains au
lieu d'impulsions électroniques. Il faudrait pour cela remplacer les traits de 0.5µ par des
sentiers de 1 mètre de large. La puce aurait alors la taille d’un carré de plus de 20 km de
coté, et la distance moyenne entre deux sentiers voisins (la largeur des plates-bandes ou
l’épaisseur des haies) serait de 6 mètres. La complexité de tels circuits est donc
équivalente à celle d'un labyrinthe de couloirs de 1 m de large qui couvrirait totalement
la région parisienne selon une grille de 6 mètres sur 6, et sur 4 à 6 niveaux. Cette
complexité contribue à expliquer l'importance des dépenses de recherche et
développement nécessaires à la conception des microprocesseurs.

La finesse de gravure des traits et l’écartement entre deux traits voisins


déterminent la densité des circuits. Elle est limitée principalement par trois facteurs :
–les lois de la propagation des électrons dans les solides, qui pour de très faibles
distances font intervenir des phénomènes quantiques encore mal connus,
–les phénomènes de rayonnement et d’interférence électromagnétique entre circuits
voisins,
–la précision des techniques de photolithogravure utilisées pour la fabrication.

Avec les technologies actuelles, une puce typique contient 4 millions de bits de
mémoire, ou environ 3 millions de transistors pour les microprocesseurs. Avec une
largeur de trait de 0.35µ, les puces mémoire de la prochaine génération contiendront 16
millions de bits, et les microprocesseurs une dizaine de millions de transistors.

Les limites théoriques sont encore lointaines puisqu'on sait aujourd'hui faire
fonctionner en laboratoire des éléments de quelque nanomètres (millionièmes de
millimètre) soit 100 fois plus fins que les circuits actuels du commerce, donc
potentiellement 10000 fois plus denses. Au niveau de la fabrication, on commence à
maîtriser en laboratoire les techniques qui permettront de graver industriellement des

cxxiv
circuits de 0.1µ, ce qui représente l’horizon actuel des techniques de fabrication et
annonce des puces à 256 millions de bits ou plus de 100 millions de transistors.

Les performances globales de la puce sont déterminées d’une part par son
architecture, d’autre part par la vitesse d'horloge, qui détermine le nombre de
changements d'état des composants actifs par unité de temps. L’architecture d’une puce,
qui définit en particulier le répertoire d’instructions qu’elle sait reconnaître et exécuter,
influe aussi sur ses performances à travers les facteurs suivants :
–la quantité d'information qui circule en parallèle entre les différents blocs
fonctionnels de la puce (32 bits pour la plupart des puces courantes, 64 bits pour les
plus modernes),
–la quantité d'information qui circule en parallèle entre la puce elle-même et le reste
de l'ordinateur, et qui peut être différente de celle qui circule à l'intérieur,
–la possibilité d'exécution simultanée de plusieurs opérations à l'intérieur de la puce.
Une puce est dite « superscalaire » si elle contient plusieurs unités de traitement
capables d’exécuter en parallèle des instructions différentes, et « pipeline » si les
étapes successives d’une même instruction sont exécutées par des unités différentes,
ce qui permet à plusieurs instructions successives d’être simultanément en cours
d’exécution. Ces deux approches peuvent se combiner dans une même puce.

Une puce, définie par son architecture et sa technologie, peut fonctionner à des
vitesses d'horloge différentes. La vitesse maximale est limitée par les possibilités
d'évacuation de la chaleur dégagée par la puce. En effet, comme dans tout conducteur, la
circulation de l'électricité produit de la chaleur. Plus la densité des circuits et la vitesse
d'horloge sont élevées, plus le dégagement calorifique par unité de surface est grand
(certains circuits actuels rayonnent autant qu'un matériau chauffé à 1200°C, soit 6 fois
plus qu'une plaque de cuisson). Il est possible de diminuer le dégagement calorifique et
la consommation en réduisant la tension de fonctionnement, mais ceci diminue
également l’intensité des signaux et il faut alors veiller à ce que ceux-ci puissent être
distingués du bruit électronique présent dans les circuits. Les puces les plus récentes
fonctionnent sous une tension de 3.3 volts contre 5 volts pour la génération précédente.
La réduction progressive des tensions de fonctionnement est une constante de
l’évolution technologique.

Une puce donnée peut fonctionner dans une assez large plage de vitesses. Plus que
de la puce proprement dite, la vitesse d’horloge maximale est directement fonction de la
capacité d’évacuation de la chaleur, qui dépend elle-même de l’environnement dans
lequel la puce est destinée à fonctionner. Un ordinateur portable ne peut comporter
aucun dispositif particulier d’évacuation de la chaleur, et les puces qui lui sont destinées
ne pourront pas dépasser une certaine densité et une certaine fréquence. Au contraire, un
gros ordinateur peut contenir un dispositif de refroidissement très puissant qui autorise
les densités et les fréquences d’horloge maximales pour la technologie électronique
considérée.

cxxv
La fabrication des puces

Pour fonctionner correctement, une puce ne doit pas comporter de défauts


susceptibles de perturber le déplacement des impulsions électriques. A l'échelle humaine
que nous avons utilisée ci-dessus, les hôtes de notre labyrinthe s'y déplaceraient à 600
mètres par seconde et ne devraient rencontrer aucun obstacle susceptible de les gêner
dans les couloirs larges de 1 mètre. Autrement dit, la qualité de fabrication des puces
électroniques actuelles doit être la même que celle d'une surface de 20 km de côté où ne
subsisterait aucune irrégularité supérieure à quelques dizaines de cm. Ceci impose que
la production des composants se déroule en atmosphère extrêmement purifiée.

Le cycle de production commence par la fabrication d’un cristal cylindrique de


silicium pur à partir de silicium fondu. Les techniques actuelles permettent d’obtenir des
cylindres de 20 cm de diamètre et 1,5 mètre de long. Ce cylindre est ensuite découpé en
tranches d’environ un demi-millimètre d’épaisseur, sur chacune desquelles seront
fabriquées simultanément de nombreuses puces identiques.

Sur la tranche de silicium, les circuits sont formés d’un certain nombre de
couches, (typiquement entre 5 et 15) portant chacune un dessin particulier réalisé avec
une substance chimique particulière (dopant ou conducteur métallique). Chacune de ces
couches est créée en un cycle comprenant quatre opérations principales : dépôt d’une
résine photosensible, photolithographie, gravure et dopage. Les tranches sont ainsi
soumises à une série de traitements chimiques et thermiques successifs permettant de
graver les motifs correspondants aux différents niveaux et aux différents réactifs utilisés
dans la fabrication, et de déposer les substances constituant les circuits. Ce processus
utilise une succession de masques, qui doivent être positionnés avec une exactitude
cohérente avec la dimension des circuits eux-mêmes, c’est à dire au dixième de micron
près. La fabrication exige donc des équipements permettant des positionnements stables
à des précisions inférieures au micron, enfermés dans des salles anti-vibrations elles-
mêmes construites dans des bâtiments antisismiques. Les réactifs utilisés, en général
sous forme gazeuse, sont nombreux, souvent toxiques, et doivent eux-mêmes être
exempts de toute impureté de taille supérieure à 0.2µ. C’est dire que leur circulation
exige des systèmes très particuliers.

A l'issue du processus, chaque puce est testée individuellement afin de marquer et


d’éliminer ultérieurement celles sur lesquelles figurent des défauts dus aux
imperfections du silicium ou du processus de fabrication. La tranche est alors découpée
en puces, les puces défectueuses sont éliminées et les puces satisfaisantes sont munies
de leurs connecteurs et enrobées de résine protectrice. Le pourcentage de puces
satisfaisantes, ou rendement, est la principale mesure de la qualité du processus.
Habituellement faible au début de la production, il peut ne se stabiliser à un niveau
acceptable qu'après de nombreux mois.

cxxvi
Economie de la production

Les déterminants de la performance et des coûts

Lorsqu’ils conçoivent une nouvelle puce, les fabricants cherchent évidemment à


obtenir la meilleure performance au moindre coût. Or le prix de revient d’une puce est
en gros proportionnel à sa surface et inversement proportionnel au rendement du
processus de fabrication. Par contre, ce prix de revient est à peu près indépendant du
contenu fonctionnel de la puce : en dehors des coûts de développement, le prix de
revient d’une puce de 16 Mégabits est à peu près le même que celui d’une puce de 4
Mégabits, et le coût d’un processeur est le même pour 3 millions de transistors que pour
1 million, en supposant bien entendu la même surface et le même rendement. Le coût
par fonction (par bit de mémoire ou par fonction logique) est donc d’autant plus faible
que la densité est grande. C’est ce mécanisme qui explique la recherche de densités sans
cesse plus élevées et, par voie de conséquence, la baisse continuelle des coûts du
traitement de l’information, au rythme de 20% par an.

La dimension des puces résulte principalement d’un arbitrage entre le rendement


d’une part, le contenu fonctionnel et les considérations pratiques de conditionnement
d’autre part. Plus une puce est grande, plus elle peut être riche en fonctions et plus le
coût par fonction peut être faible. A l’inverse, le rendement du processus est en gros
inversement proportionnel à la probabilité de trouver un défaut sur une puce, qui étant
donnée l’origine des défauts est elle-même proportionnelle à la taille de la puce.
Supposons par exemple que chaque tranche de silicium contient en moyenne après
traitement 5 petits défauts répartis au hasard. Si on a fabriqué sur cette tranche 100
puces identiques de 1 cm de coté, cinq au maximum contiennent chacune un défaut et
devront être éliminées, et le rendement sera donc de 95%. Si on avait fabriqué sur cette
même tranche 10 puces de 4 cm de coté, il est toujours probable que 5 d’entre elles
contiendraient un défaut, et le rendement ne serait plus que de 50%. Incidemment, si on
voulait utiliser toute la tranche pour un seul composant géant, on n’en réussirait qu’un
de temps en temps et de manière non prévisible. Ce phénomène pousse à produire des
puces de petites dimensions.

Mais, quelle que soit la densité des circuits, il est impossible de réduire les
dimensions des puces en dessous de certaines limites. Leur raccordement au monde
extérieur, en l’occurrence le reste de l’ordinateur, se réalise en effet à travers quelques
centaines de connecteurs (typiquement entre 200 et 500) qui doivent trouver leur place
sur la puce, et lui imposent une dimension minimale qui varie suivant le nombre de
connecteurs et la technologie de raccordement utilisée. De plus, ce nombre de
connecteurs croît avec le nombre de bits traités en parallèle, et plus généralement avec
la richesse fonctionnelle de la puce. Dans la pratique, ceci explique que la taille des
puces se situe entre un peu moins d’un centimètre et environ 2.5 cm de coté, et que ces
dimensions aient peu de chances d’évoluer considérablement quoi qu’il arrive.

Le progrès des technologies électroniques se traduit donc d’abord par une


croissance du contenu de chaque puce, en capacité de mémoire et en nombre de
fonctions logiques, et subsidiairement par des vitesses de commutation plus rapides et la
possibilité d’opérer à des tensions faibles. L’enrichissement fonctionnel des puces

cxxvii
logiques peut se traduire par des performances accrues sous réserve d’une architecture
appropriée. Ce sont les technologies annexes de refroidissement qui déterminent pour
chaque niveau de technologie électronique les vitesses d’horloge possibles et donc les
performances réelles de la puce dans un environnement donné.

Mémoire et logique

Il existe entre les puces mémoire et les puces logiques ou microprocesseurs des
différences fondamentales qui ont des implications industrielles importantes.

Alors que de nombreux circuits sont actifs simultanément sur une puce logique,
une toute petite partie d'une puce mémoire est active à un instant donné. Un processeur
présente donc un plus grand risque d’interférences entre circuits voisins et un
dégagement calorifique plus élevé que celui d’une puce mémoire de même technologie
et de même vitesse. Pour une même largeur de trait, la densité des circuits et la vitesse
de commutation peuvent être plus élevées pour une puce mémoire que pour une puce
logique. A titre d’exemple, la même technologie 0.5 microns est utilisée pour des
processeurs comme le PowerPC de 2.8 millions de transistors et pour des puces
mémoire de 16 Mégabits. En ne comptant qu’un transistor par bit, la densité de la puce
mémoire (1 cm sur 2) est de 80000 transistors par mm 2 alors que celle du processeur est
d’environ 20000 transistors par mm2.

Une puce mémoire remplit une fonction simple, celle de stocker et de restituer sur
demande des informations représentées par des éléments binaires. Au plan fonctionnel,
deux puces mémoire de générations ou de technologies différentes ne se distinguent que
par leur capacité et leur vitesse. La structure d’une puce mémoire est donc hautement
répétitive et relativement stable d'une génération à l'autre, ce qui limite les efforts et les
coûts de conception. De plus, le test d’une puce mémoire est une opération relativement
simple et presque identique d’une génération à l’autre.

Au contraire, les puces logiques réalisent des fonctions complexes et variables


d’une puce à l’autre. Chaque nouvelle technologie impose le développement d’une
nouvelle puce, car il serait sans intérêt de se borner à fabriquer la même puce en plus
petit. Chaque saut technologique permet en gros de placer deux à trois fois plus de
transistors par puce. Or une puce logique contenant trois fois plus de transistors que la
précédente ne peut pas en être dérivée de façon simple, mais implique une nouvelle
architecture. La nature même des puces logiques demande des programmes de test très
complexes, qui devront être refaits pratiquement ex nihilo à chaque génération.

Pour toutes ces raisons, les puces mémoire sont plus simples à concevoir et plus
faciles à fabriquer que les puces logiques. Dès que la R&D technologique permet de
fabriquer des puces d’une densité correspondant à une nouvelle génération, la
technologie peut être utilisée dans des puces mémoire qui sortiront les premières sur le
marché. Utiliser cette même technologie pour des puces logiques demande des
investissements et un délai supplémentaire pour concevoir les microprocesseurs et
construire le système de support au développement et les procédures de test. Ce délai est
également utilisé pour qualifier complètement la technologie et résoudre les problèmes
de fabrication et de rendement. Les mémoires peuvent ainsi être constamment en avance

cxxviii
d'une génération technologique par rapport aux processeurs, si bien que l’évolution à
court terme des microprocesseurs peut facilement être prédite à partir de celle que l’on
observe dans le domaine des mémoires, le décalage temporel étant d’environ deux ans.

On commence par exemple à voir sortir des lignes pilotes des puces mémoire à 64
Mégabits, avec une largeur de trait de 0.35 microns, dont la densité est supérieure à
300000 transistors par mm2. Compte tenu de la plus faible densité des processeurs, cette
technologie permettra en 1996 de produire des puces de plus de 8 millions de transistors
pour la taille du PowerPC, et de 25 millions aux dimensions du Pentium.

Cette situation permet également aux fabricants de mémoires d’offrir l’utilisation


de leurs lignes de production à des firmes spécialisées dans les microprocesseurs, mais
qui se contentent de les concevoir et de les faire fabriquer par des tiers. Ces firmes
« fabless » (sans fabrication) peuvent ainsi limiter leurs investissements à la R&D
nécessaire à la conception du processeur, et faire apparaître la totalité des coûts de
fabrication comme des coûts variables.

La formation des coûts

Un trait fondamental du métier des composants est l’énormité des investissements


de production. Les lignes de production combinent en effet des matériels de très haute
précision faisant appel à des technologies de pointe, implantés dans conditions
exceptionnelles en termes d’environnement, qu’il s’agisse de la pureté de l’atmosphère,
de la stabilité physique des installations, de la circulation des fluides ou du contrôle des
températures. Une ligne de fabrication de puces avec les technologies actuelles coûte
entre 600 et 800 millions de $. Soulignons qu’il s’agit là de l’unité de production
industrielle élémentaire, en ce sens qu’une ligne de production moins coûteuse n’est pas
concevable, ou entraînerait des coûts unitaires de production prohibitifs. La capacité
d’une telle ligne élémentaire est d’environ un million de puces par mois.

Or les générations se succèdent à intervalles de deux ans et demi à trois ans.


Depuis le milieu des années 80, le coût d’une ligne de production a augmenté de plus de
50% à chaque génération technologique, et on s’accorde à penser que cette tendance va
continuer, faute d’une révolution dans les procédés, qui n’est pas actuellement en vue.
On sait déjà qu’une ligne de mémoires 64 Mégabits, qui seront sur le marché vers 1996,
ou de microprocesseurs de technologie équivalente qui apparaîtront en 1997/98, coûtera
notablement plus d’un milliard de $. Toshiba estime par exemple que la taille idéale
d’une usine de composants représente un investissement de près de 3 milliards de $
(300 milliards de yen) pour une production annuelle de même valeur.

En revanche, les matières premières sont soit bon marché comme le silicium qui
revient à environ 70$ le kilo sous forme pure, soit consommées en très faible quantité
dans chaque puce. On estime que le coût total des matières premières, des réactifs et des
fluides utilisés par la production des semi-conducteurs, y compris celle des masques, est
de l’ordre de 13% de la valeur de la production. La production utilise peu de personnel,
et les coûts salariaux, dans la mesure où il est légitime de les considérer comme des

cxxix
frais variables, sont relativement faibles . Le coût marginal de production de chaque
35

puce, c’est à dire le coût supplémentaire encouru pour produire une puce de plus, est au
total de l’ordre de 50 $ en moyenne, tous types de puce confondus.

Nous avons vu que plusieurs dizaines ou centaines de puces identiques sont


fabriquées simultanément sur chaque tranche de silicium, les puces défectueuses étant
éliminées en fin de fabrication. Le coût marginal par tranche est en gros proportionnel à
la surface de la tranche, quel que soit le contenu de celle-ci. Le coût par puce est donc
inversement proportionnel au nombre de puces par tranche d’une part, au rendement
d’autre part. Sous réserve que les problèmes de rendement aient été résolus, le coût
marginal d’une puce ne dépend donc que de sa surface et non de son contenu. Accroître
la densité des circuits permet donc d’en réduire le coût par fonction, et à densité et
contenu égaux une puce est d’autant moins chère qu’elle est petite. Par exemple, le coût
marginal du PowerPC (environ 100 mm2) est trois fois plus faible que celui du Pentium
(environ 300 mm2). Mais il faut rappeler que cette différence n’a qu’une signification
limitée, le coût variable de production ne représentant qu’une faible part du coût moyen
et du prix de vente.

Les coûts de recherche et développement couvrent non seulement la conception


de la puce, mais aussi la R&D sur les technologies, le développement des procédés de
fabrication, et le coût de la ligne pilote. Ces coûts ont été estimés par Intel à 500
millions de $ pour le processeur 486 et 750 millions pour le Pentium. Pour les
mémoires, le tableau suivant donne les estimations de Siemens en millions de $, aussi
bien pour la R&D (colonne 2) que pour la production (colonne 3). Ces chiffres sont
cohérents avec ceux qui sont donnés ci-dessus, compte tenu du fait que les
investissements de production prévus par ce fabricant comprennent plusieurs lignes
élémentaires.

Tableau II Coûts fixes de production des mémoires


R&D production introduction
64Kb 120 190
256Kb 400 180 1985
1Mb 350 1300 1988
4Mb 380 1600 1990
16Mb 510 3700 1993
64Mb 1000 6000 1996

Il convient enfin de noter que tous ces investissements sont par définition
irrécupérables (« sunk costs » en anglais), c’est à dire qu’ils perdent toute valeur en cas
de cessation de la production ou de passage à une nouvelle technologie.

35 Il serait plus logique de considérer les frais de personnel comme des coûts fixes récupérables,
dans la mesure où les effectifs sont peu sensibles au volume produit, mais les coûts correspondants
peuvent être annulés en cas de cessation totale de la production.

cxxx
Concurrence, prix et parts de marché

Traduisons en termes économiques les particularités de la production des


composants micro-électroniques à très haut niveau d’intégration, que nous venons de
décrire.

Configuration générale du secteur

Comme nous l’avons vu au Chapitre 6, le secteur des composants est un secteur


concentré caractérisé par des obstacles à l’entrée très élevés. On peut penser a priori que
peu d’entreprises peuvent consentir les niveaux d’investissements ci-dessus, et que donc
un tout petit nombre de firmes sera présent.

L’échelle économique de production est au moins égale à la production annuelle


d’une ligne, qui est de l’ordre de 1 million de puces par mois soit 12 millions par an, ce
qui est de l’ordre du quart du marché mondial. L’estimation de Toshiba citée plus haut,
qui s’applique à des technologies de production plus récentes, porterait même cette
échelle aux alentours de 30 millions de puces par an. De plus, les investissements de
R&D sont eux-mêmes importants, et il reste donc possible de réaliser des économies
d’échelle en juxtaposant des lignes de production de la taille ci-dessus. Dans toute la
gamme des valeurs raisonnables de la production totale, les coûts unitaires moyens sont
indéfiniment décroissants, et dans ce cas la théorie économique conclut même à la
formation d’un monopole.

Il semble que des ratios de cet ordre sont exceptionnels dans les autres industries,
surtout en ce qui concerne la relation entre l’échelle économique de production et la
taille totale du marché. A titre de comparaison, une étude de la taille efficace des
appareils de production réalisée en 1975 situe cette taille en dessous de 3% du marché
36

des USA pour presque toutes les industries, le maximum étant inférieur à 15% de ce
marché. En dehors du monopole strict, la littérature économique a peu étudié des cas
aussi extrêmes de concentration, ce qui nous oblige à admettre d’avance que nos
conclusions ne sont pas nécessairement généralisables à d’autres situations.

Or la structure réelle du secteur des microprocesseurs est celle d’un oligopole


asymétrique formé d’une demi-douzaine de firmes de tailles très inégales. En prenant
comme base l’ensemble des architectures, les parts de marché des trois premiers sont
respectivement 81%, 10% et 5%. Si on se limite aux compatibles Intel, les trois
premiers occupent 93%, 6% et 1% du marché. En même temps, ce secteur est le lieu
d’une concurrence sévère par les prix, et d’une poursuite continuelle des
investissements aboutissant au renouvellement des produits selon une périodicité de
l’ordre de 2 ans, avec à chaque fois des améliorations spectaculaires du ratio
performances/prix. Donc, si ce secteur est proche d’un monopole par la distribution des
parts de marché, il est très éloigné du monopole classique par la virulence de la
concurrence qui y règne.

36 Scherer et al : The Economics of Multi-Plant Operation, an international comparison study


(Harvard University Press, 1975)

cxxxi
Remarquons également que cette structure sectorielle caractérisée par des parts de
marché très inégales, avec un offreur dominant dépassant les 60%, est en réalité très
répandue. Elle caractérisait l’ensemble de l’informatique, qui formait alors un secteur
unique, jusque dans les années 80. Elle se rencontre encore aujourd’hui dans le cas des
progiciels système et des grands utilitaires. Plusieurs auteurs avaient déjà constaté que,
dans de nombreux secteurs, les configurations stables se caractérisent par des parts de
marché très différentes, et recherché une explication économique à ce phénomène, sans
toutefois aborder de cas aussi extrêmes.

Notons au passage que cette situation ne s’explique pas par la théorie des
« monopoles contestables ». Baumol et d’autres auteurs ont montré que si les barrières à
la sortie sont faibles, par exemple si les investissements consentis pour l’entrée peuvent
être récupérés en cas de sortie, la simple menace d’entrée de nouveaux concurrents
suffit à faire tendre les prix vers ceux qui résulteraient d’une concurrence pure et
parfaite. Or ici les coûts fixes sont non seulement très élevés, mais irrécupérables
(« sunk » en anglais) dans la mesure où ils sont encourus même si la firme décide de
cesser la production . Les actifs auxquels correspond l’essentiel des coûts fixes n’ont en
37

effet pas de valeur hors de leur utilisation pour la production de composants, et il est
peu probable qu’un concurrent les rachèterait en cas d’arrêt. Ces coûts irrécupérables
constituent de réelles et sévères barrières à l’entrée et font que les composants ne
forment pas un marché contestable. Il devrait donc se présenter comme un monopole
naturel, ou du moins tendre rapidement vers une situation de monopole.

Il est difficile de croire qu’un phénomène aussi fréquent n’a pas une solide
explication économique, plus convaincante en tous cas que la thèse classique de Gibrat
selon laquelle l’inégalité des parts de marché est simplement le fruit du hasard . En 38

effet, les simulations de l’« effet Gibrat » conduisent à des parts maximales de l’ordre
de 40% après plus de 100 ans, alors que dans notre cas la part du leader est très
supérieure, et que la distribution inégalitaire s’établit en quelques années.

Or il semble que tout se passe comme si le processus d’évolution vers le


monopole s’arrêtait en cours de route pour laisser plusieurs firmes secondaires subsister
durablement à côté de l’offreur dominant, entretenant ainsi une concurrence assez vive
pour se traduire à la fois par des prix bas et des investissements importants. Nous allons
essayer de montrer que ce type de configuration sectorielle est lié aux caractères
spécifiques du secteur que sont le rapport des coûts fixes aux coûts variables et la durée
du cycle des produits, et caractérise les secteurs fortement concentrés.

Echelle de production et rationalité limitée

L’échelle optimale de production est-elle vraiment infinie, c’est à dire égale par
définition à la taille du marché ?

37 Un exemple contraire est celui d’une liaison aérienne dont les actifs fixes, comme les avions,
peuvent être réutilisés sur d’autres liaisons en cas de fermeture de cette ligne.
38 On montre que si une population d’entreprises initialement égales évolue chaque année selon des
taux de croissance individuels distribués de façon aléatoire autour d’une valeur moyenne, leurs tailles
tendent vers une distribution inégalitaire.

cxxxii
Remarquons que la définition de l’échelle optimale de production dans la théorie
classique repose sur l’hypothèse que les firmes exploiteront complètement toute
possibilité de réduire le coût moyen de production à travers l’augmentation des
quantités produites, tant que la baisse des prix de vente reste inférieure à la réduction
attendue des coûts, et cela aussi minime que soit la différence.

Il n’est pas évident que, dans le monde réel, les industriels raisonnent de cette
façon. Le comportement postulé par les économistes supposerait que d’une part la
relation entre les coûts et les quantités soit connue avec certitude, et d’autre part que les
producteurs décident de simultanément baisser leurs prix et d’augmenter leur capacité
de production au prix de lourds investissements. Or dans la réalité la relation entre
volumes de production et coûts n’est pas connue avec certitude, et encore moins la
relation entre les prix et les quantités réellement vendues, surtout en situation
concurrentielle. Il est donc plus vraisemblable que les offreurs agissent avec plus de
prudence et ne s’engagent dans une baisse de prix que si le bénéfice qu’ils peuvent en
attendre est suffisamment certain.

Vu du coté de la demande, il est clair que lorsque l’écart de prix entre deux
produits substituables est faible, les autres facteurs de choix deviennent relativement
plus importants. Par exemple, un écart de prix inférieur à 15% n’est pas nécessairement
déterminant s’il existe d’autres facteurs de différenciation entre les produits. A ce
niveau, les offreurs chercheront à se différencier par d’autres caractéristiques ou à
pousser les volumes par des actions telles que la publicité plutôt que par la baisse des
prix.

Le comportement équivalent en termes de coût consiste à ne rechercher une


réduction de coûts par des quantités accrues que si cette réduction est suffisante. En
simplifiant, on peut considérer que le coût moyen est égal à la somme du coût variable,
supposé constant, et du quotient des frais fixes par la quantité. A partir du moment où ce
deuxième terme est inférieur à un certain seuil, disons 10% du coût variable, le potentiel
de réduction de coût qui subsiste est au maximum égal à ces 10%. En avenir incertain, il
est peu probable que les offreurs s’engagent dans des programmes d’action (et donc de
dépenses) visant à réduire encore le coût moyen en augmentant les volumes.

Appelons R le rapport des frais fixes au coût variable unitaire. Si le nombre


d’unités produites est égal à R, la part des frais fixes dans le coût moyen est exactement
égale au coût variable unitaire, et le potentiel de réduction par des volumes accrus est de
50%. Si par contre le nombre d’unités produites est égal par exemple à dix fois R, la
part des frais fixes dans le coût moyen est égale au dixième du coût variable unitaire,
soit au onzième du coût moyen, et le potentiel de réduction par le volume n’est plus que
de 9%. Dans le cas des coûts variables constants, nous pouvons donc remplacer la
notion d’échelle optimale de production par celle d’échelle économique de production,
qui se mesure par un petit multiple (entre trois et cinq) du rapport des coûts fixes au
coût variable unitaire. Dans le cas des composants dont la durée de vie commerciale est
de l’ordre de quelques années, l’échelle économique annuelle de production est ainsi du
même ordre de grandeur que le rapport des coûts fixes au coût variable unitaire.

Nous avons vu que pour la fabrication des composants, sans même tenir compte
des dépenses de R&D, les coûts fixes s’élèvent à 600 à 800 millions de $ pour une ligne

cxxxiii
de production, et que les coûts variables sont environ 50 $ par puce. Le rapport des
coûts fixes aux coûts variables unitaires, et donc l’échelle économique annuelle de
production se situe donc entre 10 et 20 millions, ce qui nous l’avons vu peut être
considéré comme l’ordre de grandeur de la production annuelle requise pour que le coût
moyen devienne pratiquement insensible au volume vendu.

Chronologie des coûts et des prix

Pour une génération de microprocesseurs, la chronologie des décisions est la


suivante. La firme productrice engage un effort de développement qui fixe les
caractéristiques fonctionnelles et physiques du produit ainsi que ses performances, puis
elle construit les moyens de production nécessaires. Ces phases préliminaires durent
deux à quatre années, au cours desquelles la firme accumule des dépenses qui
constituent des frais fixes irrécupérables. Lorsque l’appareil de production est
opérationnel, le produit est lancé sur le marché et l’offreur lui attache un prix de vente.
Le marché et la concurrence déterminent alors les quantités vendues, et donc les coûts
moyens et l’équilibre général du programme. En réponse au marché, l’offreur peut agir
sur les prix de vente, et dans une mesure limitée sur la part variable des coûts de
production. Mais le produit lui-même ainsi que les coûts fixes, la capacité de production
et le niveau des coûts variables unitaires sont devenus intangibles.

Autrement dit, dès qu’un microprocesseur a été introduit sur le marché, la seule
variable sur laquelle l’offreur peut agir à court terme pour lutter contre la concurrence
est le prix. Agir sur les caractéristiques du produit, ou modifier significativement ses
coûts, nécessite un nouvel effort de développement qui ne portera ses fruits éventuels
qu’au bout de plusieurs années et au prix de nouvelles dépenses irrécupérables.

L’analyse économique montre que, contrairement à une idée courante, les prix de
vente des biens ne sont pas directement déterminés par leur prix de revient, mais par le
marché. Certes, les mécanismes du marché eux-mêmes tendent à rapprocher ce prix du
coût marginal, mais du point de vue de chacun des offreurs, le prix de marché est
déterminé par le jeu de la concurrence, et il lui appartient d’ajuster ses coûts afin qu’ils
restent inférieurs aux prix de vente et permettent de dégager un profit.

Dans un secteur comme les composants, où les coûts sont essentiellement formés
de coûts fixes irrécupérables, l’indépendance des prix par rapport aux coûts est encore
plus marquée que dans tout autre. Supposons en effet que s’engage une guerre des prix
se traduisant par une baisse continuelle. Chacun des offreurs a intérêt à continuer à
produire tant que le prix de vente reste supérieur au coût marginal de production , qui 39

forme ainsi un le plancher en dessous duquel les prix ne sauraient descendre. Une telle
conduite semble suicidaire, car les offreurs ne pourraient plus financer les
investissements nécessaires à la génération suivante. Elle pourrait néanmoins apparaître
si certains acteurs estimaient avoir accumulé des profits suffisants pour financer leurs
nouveaux développements et voulaient accroître leur part de marché, ou encore si
certains acteurs renonçaient à investir et espéraient maximiser leur revenu résiduel en

39 En toute rigueur, jusqu’à ce que son revenu, qui est égal au produit du prix unitaire par la quantité
vendue, couvre le total des coûts variables et des coûts fixes récupérables.

cxxxiv
augmentant leur part de marché. En tout état de cause, la valeur de cette limite basse des
prix est très faible : quelques dizaines de dollars pour les puces électroniques.

Bien que ceci soit connu des économistes et d’un grand nombre de chefs
d’entreprise (mais pas tous...), il faut insister sur le fait le niveau des coûts fixes
n’intervient pas dans ce raisonnement, dans la mesure où ils sont irrécupérables. Au
moment où l’entreprise doit prendre ses décisions quant au prix des produits, rien ne
peut plus empêcher que ces coûts aient été encourus ni en modifier le niveau.
L’entreprise souhaite certes ardemment que ces coûts soient couverts par le revenu, mais
si la concurrence établit le prix à un niveau insuffisant, elle a quand même intérêt à
vendre à ces prix tant qu’ils restent supérieurs au coût marginal de production.
Autrement dit, les coûts fixes irrécupérables n’apparaissent dans la fixation des prix que
comme l’expression d’un souhait, et peuvent donc être éliminés du raisonnement
opérationnel.

Répartition du marché et prix de survie

Une particularité du marché des microprocesseurs est que sa taille globale,


autrement dit le nombre d’unités vendues, est peu sensible aux prix pratiqués. En effet,
le microprocesseur ne représente qu’environ 10% du prix de vente d’un micro-
ordinateur et les puces mémoire un pourcentage comparable. Si même le prix des
microprocesseurs était nul, ceci ne permettrait qu’une réduction de 10% du système
complet, et les volumes vendus n’en seraient que peu affectés. A l’inverse, le prix des
processeurs pourrait doubler ou même tripler sans que les ventes d’ordinateurs, et donc
le nombre de processeurs vendus, ne soient réduites dans les mêmes proportions.

Il en résulte que malgré le caractère hautement concentré du secteur et l’existence


d’un fournisseur dominant, la formation des prix des microprocesseurs n’obéit pas,
même de loin, à la logique classique du monopole. Celle-ci stipule en effet que les
offreurs fixent les prix au niveau qui maximise leur revenu total, c’est à dire le produit
du prix unitaire par le volume. Or, s’ils pouvaient s’entendre sur une telle stratégie, les
fournisseurs de composants auraient intérêt à fixer les prix à un niveau au moins cinq ou
six fois plus élevé que les niveaux actuellement pratiqués, car leur volume de ventes
total n’en serait certainement pas réduit dans les mêmes proportions, et donc leur revenu
serait supérieur.

La formation des prix dans ce secteur résulte donc entièrement de la concurrence


entre fournisseurs pour les parts d’un marché dont la taille totale est pratiquement
indépendante de leurs actions. Dans une telle lutte, tout ce qui est gagné par l’un est
obligatoirement perdu par un autre, ce qui augmente la probabilité de réaction de
l’offreur dominant à une attaque de ses challengers. Au total, personne n’a intérêt à
engager ou à poursuivre trop longtemps une guerre des prix qui aboutirait
vraisemblablement à une baisse des profits pour tous les acteurs, voire à la disparition
de certains d’entre eux. On peut faire l’hypothèse que tous les acteurs en sont
conscients, et qu’ils éviteront de s’engager dans cette voie suicidaire sans qu’il soit
besoin pour cela de collusion ou d’entente illicite.

cxxxv
Une configuration où quelques firmes se partageraient le marché en parts voisines
ne peut pas être stable. Dans un tel cas, chacun des offreurs opère à une échelle trop
faible pour réaliser toutes les économies d’échelle possibles, et il s’en trouvera au moins
un pour tenter d’augmenter ses volumes en agissant sur le prix, ce qui entraîne une
concurrence vive. Or, s’agissant par hypothèse d’un secteur où les coûts variables sont
faibles par rapport aux prix de vente, un faible avantage de volume procure des
ressources supplémentaires importantes. Leur bénéficiaire peut ou bien en sacrifier une
partie pour baisser les prix et accroître encore l’avantage de volume, soit les consacrer à
rechercher d’autres avantages à travers des améliorations du produit ou des services
associés, ou des actions de promotion. Tout avantage de taille est ainsi un avantage
concurrentiel qui peut être exploité pour accroître encore la taille. Une répartition
équilibrée des parts de marché dans un secteur concentré est donc instable.

Au contraire, si les parts de marché sont très différentes, ceux qui jouissent de
grandes parts seront moins enclins à les augmenter encore en baissant les prix. Tous les
auteurs s’accordent d’ailleurs à penser que le leader d’un secteur n’a généralement pas
intérêt à en détenir 100% en éliminant totalement la concurrence. Quant aux concurrents
qui n’ont que de faibles parts de marché, et sont de ce fait tout juste viables, il est
probable qu’ils hésiteront à prendre le risque de baisser encore leurs prix. La
concurrence tendra donc à se modérer, les prix à se stabiliser, et la configuration
deviendra stable.

La théorie classique des oligopoles montre que, pour conserver leur part de
marché et leur profit, le ou les offreurs dominants ont intérêt à fixer les prix au niveau
du coût de production des offreurs secondaires (le « prix limite »), ce qui décourage les
offreurs secondaires de chercher à augmenter leur part. On suppose que le coût de
production des offreurs dominants est inférieur à celui des offreurs secondaires, et que
donc les offreurs dominants réalisent un profit en vendant au prix-limite.

Ce raisonnement ne tient pas explicitement compte des coûts fixes, qui sont
intégrés dans le coût des offreurs secondaires et donc dans le prix-limite. Pour un
secteur où les produits sont renouvelés tous les deux ans au prix d’investissements
considérables, on comprend mieux le phénomène en disant que pour qu’une firme
survive, le revenu qu’elle tire des produits courants doit payer les coûts variables, les
frais commerciaux et de structure, et les investissements de R&D et de production
nécessaires à la prochaine génération. Sur la base de ses volumes de vente actuels pour
la génération courante et de ses estimations pour la suivante, chaque firme détermine
plus ou moins consciemment le « prix de survie » qui lui permet de rester dans la
course.

Or les dépenses de recherche nécessaires pour développer une nouvelle puce, ainsi
que le coût d’une ligne de production, sont en gros les mêmes pour toutes les firmes, et
leur contribution au prix de survie est donc inversement proportionnelle à la part de
marché de chaque firme. Le prix de survie des leaders est ainsi très inférieur à celui des
firmes marginales. En cas de guerre des prix, les leaders auront donc la capacité de
résister beaucoup plus longtemps et si nécessaire de réduire leurs prix à un niveau où ils
survivront alors que les firmes marginales auront disparu.

cxxxvi
Quand la répartition des parts de marché correspond à une situation acceptable
pour tous les acteurs, sans qu’elle soit nécessairement optimale pour chacun d’entre eux,
le comportement décrit ci-dessus tend à perpétuer cette structure au moins le temps
d’une génération technologique.

Qui peut raisonnablement tenter de remettre en cause cet équilibre, en ayant une
chance significative d’y parvenir, et comment peut-il s’y prendre ?

Un éventuel candidat à l’entrée trouve par définition un marché déjà occupé et des
prix déjà établis pour les produits existants. Pour avoir une chance de réussir, il doit ou
bien offrir un produit nettement meilleur pour un prix voisin, ou un produit comparable
pour un prix nettement inférieur, et même si possible conjuguer un avantage de prix
avec une supériorité du produit. En même temps, il doit rendre facile la migration des
utilisateurs actuels vers son produit.

Or les produits en place sont le résultat d’investissements qui se chiffrent en


centaines de millions de dollars. Quel que soit le génie du nouveau candidat, il est
utopique de penser qu’il pourra offrir un produit supérieur pour un investissement très
inférieur. Quant aux prix de marché, ils sont établis autour de quelques centaines de
dollars par unité, ce qui est proche du coût de production moyen du moins bien placé
des offreurs existants. Le candidat à l’entrée devrait donc vendre environ un million
d’exemplaires de sa nouvelle puce pour en couvrir simplement les coûts de
développement. Or pour prendre une place, il faudra soit dépenser plus soit vendre
moins cher, et de toute façon supporter les coûts variables, des frais commerciaux et de
gestion, des dépenses de publicité, … si bien que le point mort de l’entreprise atteint et
dépasse rapidement le million d’exemplaires vendus.

Devant cette équation, est-il raisonnable d’investir un milliard de dollars ou plus


pour être capable de produire dans deux ou trois ans, si tout va bien, un produit dont on
espère qu’il sera capable de concurrencer ceux que Intel, IBM/Motorola, Sun, Digital
Equipment et Silicon Graphics auront mis entre temps sur le marché ? L’homme
d’affaires avisé répondra que non et investira ses disponibilités dans d’autres
entreprises. Cette situation, que Porter désigne comme un cas de « prix dissuasif à
l’entrée » laisse prévoir qu’il n’y aura probablement plus de nouveaux entrants dans le
secteur des microprocesseurs.

Parmi les offreurs en place, le leader n’a pas intérêt à lancer une guerre des prix
qui le rapprocherait encore d’une situation de vrai monopole et pourrait l’exposer aux
foudres des pouvoirs publics et de la justice, et nous avons vu que les firmes marginales
ne peuvent survivre qu’en profitant de prix suffisamment élevés. Pour pouvoir
raisonnablement tenter de déstabiliser le leader, il faut posséder à la fois des volumes
déjà assez élevés pour supporter une baisse de prix, et les ressources intellectuelles et
financières propres à faire espérer le développement d’un produit supérieur. Il faut de
plus que le challenger possède des avantages technologiques dans la production qui lui
laissent penser que, pour les parts de marché qu’il peut raisonnablement espérer, son
prix de survie sera voisin de celui du leader, voire inférieur. Cette combinaison de
conditions ne peut se rencontrer que chez le numéro deux du secteur, à condition qu’il
ait l’ambition affirmée de devenir le numéro un. On peut penser que tel est le cas du
consortium PowerOpen formé entre IBM et Motorola.

cxxxvii
Les prix des composants

La formation des prix des composants traduit la concurrence d’un petit nombre
d’acteurs pour les parts de marché, et ne peut être dissociée de la stratégie et de la
tactique de ces acteurs. De plus, chaque acteur réagit aux actions des autres, et on peut
donc s’attendre à ce que les prix évoluent dans le temps.

Les décisions relatives aux prix viseront donc à optimiser l’économie du


programme de production non seulement sur l’ensemble de sa durée, mais peut-être plus
encore en deçà d’un horizon limité par l’incertitude quant aux réactions des concurrents
et du marché, ainsi que par la possibilité pour la firme d’agir de nouveau sur ses prix.
Enfin, si l’économiste peut se permettre de s’intéresser à l’équilibre global de
programmes pluriannuels, le chef d’entreprise doit se soucier des comptes de chaque
exercice et donc tenir compte d’effets comptables même si leur sens économique est
contestable.

Les coûts d’investissements consentis avant même le lancement du produit


apparaissent dans le compte d’exploitation à travers des amortissements annuels qui
sont soit constants, soit dégressifs. Or, au début de la vie commerciale d’un composant,
les capacités de production comme la demande sont généralement limitées et le
rendement des lignes de fabrication est encore faible, donc les quantités produites sont
faibles. La conjugaison de ces deux effets conduit à un prix de revient moyen apparent
très élevé au début et décroissant avec le temps, mais il ne s’agit que d’un effet
comptable dû aux conventions d’amortissement adoptées et dépourvu de sens
économique.

Néanmoins, le prix de vente devra être élevé si l’entreprise veut présenter des
comptes équilibrés. Heureusement, les performances du nouveau composant peuvent
probablement justifier un prix supérieur à celui de ses concurrents existants, et cela
d’autant plus que les coûts de transfert, c’est à dire les coûts de remplacement de
l’ancien composant par le nouveau, sont faibles.

Le prix le plus élevé envisageable est celui qui maximiserait le revenu total, c’est
à dire tel qu’une augmentation de ce prix aurait pour effet de diminuer la quantité
vendue d’un pourcentage supérieur au pourcentage de hausse de prix. Nous avons vu
que le manque d’élasticité de la demande place ce prix maximal à un niveau nettement
plus élevé que les prix actuellement pratiqués. Au total, l’intervalle dans lequel peuvent
a priori se situer les prix unitaires des composants est très large, de quelques dizaines à
quelques milliers de dollars. Dans la réalité, les prix observés s’échelonnent entre 100 et
1200 dollars, la majorité des microprocesseurs se plaçant entre 200 et 500 dollars.

Un composant plus performant mais totalement compatible pourra être introduit à


un prix élevé, alors que le prix d’un composant d’architecture nouvelle devra être
suffisamment faible pour compenser les coûts de transfert. En tout état de cause,
l’offreur aura tendance à fixer son prix initial au niveau le plus élevé auquel il pourra
écouler toute la production courante, et à ne baisser son prix que dans la mesure
nécessaire pour écouler une production supposée croissante. Le leader du marché
adoptera naturellement une stratégie prudente de compatibilité et de prix élevés, tandis

cxxxviii
que le ou les challengers choisiront probablement une stratégie de conquête, donc des
prix plus agressifs tout en se réservant une marge de réduction importante.

Un exemple typique est le Pentium d’Intel, qui a été introduit sur le marché à près
de 1500$ alors que son prédécesseur le plus proche, avec lequel il est totalement
compatible tout en étant deux fois plus rapide, était vendu moins de 500$. Un an plus
tard, le prix du Pentium est descendu aux alentours de 800$. Son véritable challenger
stratégique le PowerPC d’IBM/Motorola, a été introduit à moins de 500$ pour une
puissance analogue, mais il doit se conquérir un marché et ne peut se substituer
simplement aux processeurs existants. Quoi qu’en disent les fabricants, ces prix et leur
évolution n'ont que peu de chose à voir avec l'évolution du prix de revient, mais
résultent d'une adaptation des prix à la demande du marché et aux actions de la
concurrence.

A partir de son niveau initialement élevé, le prix baissera aussi longtemps qu’un
concurrent pensera qu’il a intérêt à fixer ses prix en dessous du prix courant, ce qui
implique qu’il en attende un supplément de volume tel que son revenu total augmente.
Nous avons vu que c’est justement ce processus qui conduit à une configuration stable
du secteur, à un prix supérieur au coût marginal de production. De plus, ne peuvent
survivre que les firmes qui tirent de leurs produits courants un profit marginal suffisant
pour couvrir les investissements nécessaires à la génération suivante, le profit marginal
étant défini comme la différence entre le revenu et les coûts variables de production. En
pratique, les entreprises considéreront que leurs prix planchers sont largement
supérieurs au coût marginal de production, s’écartant ainsi de la théorie économique. De
toute façon, chaque génération deviendra obsolète et cessera d’être commercialisée
avant que le prix atteigne son plancher, théorique ou pratique.

Sous l’effet de la concurrence, les prix suivent une trajectoire qui les ferait tendre
toujours vers une même valeur de l’ordre de 100 $, quelles que soient la richesse
fonctionnelle, les performances et la technologie de la puce, si le progrès technologique
ne permettait l’introduction d’une nouvelle génération qui fait repartir le cycle d’un
niveau plus élevé avant que les prix n’atteignent le prix-limite. Dans la réalité, les prix
des puces de la dernière génération s’échelonnent actuellement entre 1500 et 400 $,
plage qui se restreindra probablement à un intervalle de 600 à 300 $ par suite de l’action
du consortium PowerOpen. Les puces des générations précédentes, qui restent
utilisables pour des systèmes d’entrée de gamme ou des applications particulières,
valent entre 100 et 300 $.

Concepteurs et fondeurs

Dans ce qui précède, nous avons raisonné comme si tous les offreurs intégraient
toutes les étapes depuis la R&D jusqu’à la fabrication. En réalité, certains ne font que
concevoir et commercialiser des microprocesseurs dont ils confient la fabrication à des
tiers. Ces derniers, généralement producteurs de puces mémoire, consentent les
investissements de recherche technologique et de production, et leur échelle
économique de production est de plusieurs dizaines de millions de puces, tous modèles
réunis. Les concepteurs non-fabricants limitent leurs investissements à la conception du
processeur, et font apparaître la totalité des coûts de fabrication comme des coûts

cxxxix
variables. Certains concepteurs restreignent encore leur effort de recherche et
développement en offrant des copies plus ou moins conformes (des « clones ») de puces
existantes.

En supposant que l’investissement nécessaire à la conception d’un processeur,


hors développement de la technologie proprement dite, soit de 200 millions de $ et que
le coût variable unitaire en sortie de fonderie, c’est à dire le prix de vente du fondeur,
soit de l’ordre de 200$, le rapport des deux est égal à 1 million et l’échelle économique
de production est de quelques millions. Même rapproché du seul marché des
microprocesseurs et non de l’ensemble des composants, ce chiffre est suffisamment
inférieur à celui du fondeur pour donner place sur le marché à un nombre d’offreurs de
processeurs plus élevé que le nombre des fondeurs. Néanmoins, il faut remarquer
qu’aucun autre fournisseur qu’Intel n’a encore atteint ce seuil de 1 million de
processeurs vendus.

Les coûts de conception d’une puce peuvent rester relativement modestes dans un
certain nombre de cas particuliers. Le plus évident est celui où une puce existante est
simplement réalisée dans une technologie nouvelle ; nous avons vu que l’intérêt d’une
telle opération reste limité, puisque d’autres contraintes comme celles de la dimension
minimale empêcheront la nouvelle puce de tirer pleinement parti du potentiel de la
nouvelle technologie, qui ne peut être exploité que par des puces de conception
nouvelle. Néanmoins, cette approche permet de prolonger la vie commerciale des
architectures existantes et de concurrencer les nouvelles architectures par des clones
performants et bon marché d’architectures plus anciennes.

Cette démarche peut également s’appliquer à des puces auxiliaires dont le contenu
fonctionnel est figé et n’aurait rien à gagner d’une conception nouvelle. Enfin, un cas
particulièrement intéressant est celui des processeurs spécialisés dans des traitements
parallèles par nature, par exemple le traitement d’images. De telles puces sont formées
de cellules identiques fonctionnant en parallèle, et s’apparentent donc sur ce plan aux
puces mémoire ; chaque saut technologique n’impose pas de redessiner la cellule
élémentaire de traitement, mais permet d’en loger un plus grand nombre sur la puce et
ainsi de traduire de façon simple le progrès technologique en gain de coût et de
performances.

Pour les clones proprement dits, le prix de survie du cloneur est relativement élevé
même si ses coûts de développement sont réduits, car son coût variable est élevé du fait
qu’il sous-traite la production, et ses volumes faibles. Comme la puce copiée ne peut
être que celle du leader ou à la rigueur du challenger, le prix de survie du cloneur risque
d’être supérieur à celui de l’original, ou en tous cas voisin.

Même si les prix de survie sont comparables, la vie utile du clone est
nécessairement plus courte puisque leur mise sur le marché ne peut qu’être postérieure à
celle de l’original, le délai constaté étant de l’ordre d’une année. Quand le leader a mis
sur le marché le successeur du processeur cloné, il peut baisser les prix de ce dernier
jusqu’au coût marginal si nécessaire, en tous cas jusqu’au prix de survie du cloneur,
voire en dessous si le clone menaçait de prendre des parts de marché au nouveau
processeur. Au total, ni la séparation des rôles de concepteur et de fondeur, ni le
phénomène des clones ne modifient en profondeur la dynamique décrite ci-dessus. Il

cxl
s’agit de phénomènes dont la simple existence est significative car elle contribue à
conserver au secteur un semblant de « contestabilité » au sens de Baumol, mais qui ne
peuvent être que marginaux en volume.

Conclusions

Dans un secteur concentré comme les composants électroniques, les


configurations stables sont inégalitaires. Tout avantage de part de marché tend à
s’amplifier, si bien qu’un peu plus de chance ou de savoir-faire au départ, ou tout
simplement être le premier, aboutit à une situation de domination, sauf si le leader
commet de grosses erreurs ou si un de ses challengers consent les efforts nécessaires
pour le détrôner. En tout état de cause, les configurations équilibrées sont instables par
nature.

C’est le challenger qui détient la clef de la stabilité. S’il décide de mener une
stratégie agressive, ce qui suppose qu’il ait des raisons de penser que son prix de survie
est particulièrement bas, il déclenchera une guerre de prix dont le premier effet sera
d’accélérer l’élimination des offreurs marginaux.

En termes de profitabilité, nous avons vu que les plus gros offreurs sont aussi les
plus profitables. Comme de plus les parts de marché sont très inégales, la profitabilité
moyenne du secteur est très élevée, ce qui ne veut pas dire que toutes les firmes opèrent
à ce niveau de profit. Bien au contraire, les plus petites firmes survivent à la merci des
leaders, et sont condamnées à disparaître à terme si ces derniers décident de se livrer à
une concurrence par les prix.

Répétons ici que cette inégalité n’est ni fortuite, ni le résultat de manœuvres


déloyales de domination, mais constitue une caractéristique intrinsèque des structures
concentrées. La concurrence dans le secteur des composants, comme dans tous les
secteurs très concentrés, s’apparente à une compétition dont les prix sont connus
d’avance : le premier prix est une part de marché supérieure à 70%, le deuxième prix 10
à 15%, et le troisième 5%. La seule incertitude porte sur l’ordre d’arrivée, qui résulte de
l’action de la concurrence entre firmes. Qu’une firme occupe 80% du marché des
composants est une conséquence inéluctable de la dynamique concurrentielle. Il se
trouve que c’est Intel qui a gagné le gros lot. L’histoire aurait pu faire que ce soit IBM
ou Motorola ou un autre ; mais elle n’aurait pas pu faire que cinq, dix ou cinquante
fournisseurs se partagent le marché à parts égales.

Le potentiel de progrès technologique donne en permanence à chacun des


concurrents, voire à de nouveaux entrants, une possibilité de prendre l’avantage avec
une nouvelle génération de puces plus puissantes et moins coûteuses. Autrement dit,
même si le jeu de la concurrence conduit à désigner un vainqueur qui détiendra plus de
70% du marché, le titre est remis en jeu tous les deux ou trois ans. La mise est certes
importante (et nous verrons qu’elle ne cesse d’augmenter à chaque manche), et le leader
en place a plus de chances d’avoir pu la réunir ou de pouvoir l’emprunter. Mais tant
qu’il reste un potentiel technologique inexploité et un challenger crédible, le leader est
contraint à la modération dans ses prix et ne peut conserver sa place qu'en investissant
sans cesse pour exploiter le potentiel de progrès technologique. Dans un secteur

cxli
concentré où existe un potentiel de progrès technologique, la concrétisation de ce
potentiel est garantie par l'importance des enjeux pour le leader et ses challengers. La
concurrence prend la forme de paris successifs où les challengers misent des milliards
pour détrôner le leader, et ce dernier en fait autant pour conserver sa place.

Il ne faut donc pas s’étonner de la situation de quasi-monopole ni de la


profitabilité élevée dont jouit Intel, qui sont parfaitement conformes à la théorie
économique. Il ne faut pas non plus croire que de telles parts de marché, que ce soit
aujourd’hui Intel ou hier IBM, témoignent d’une volonté mégalomaniaque. En dehors
des romans, aucune entreprise n’a pour objectif de dominer le monde. Mais la
compétition étant ce qu’elle est, une d’entre elles gagnera nécessairement le gros lot et
fera ensuite tout pour le conserver.

Perspectives

Perspectives technologiques

Le progrès technologique se traduit principalement par l'augmentation de la


densité des circuits, la dimension des puces restant à peu près constante car déterminée
par les contraintes du processus de fabrication d'une part, du raccordement au monde
extérieur d'autre part. On attend vers la fin du siècle des puces mémoires de 256
millions de bits et des microprocesseurs de 30 millions de transistors, et le début du XXIe
siècle verra des mémoires de 1 milliard de bits et des processeurs de plus de 100
millions de transistors.

Pour que ce progrès soit effectif, encore faut-il que ce potentiel de transistors
puisse être utilisé de façon économiquement efficace, soit pour augmenter la vitesse de
traitement par un parallélisme accru, soit pour placer sur la puce des fonctions
nouvelles.

Dans le cas des mémoires, le progrès se traduit simplement par des capacités par
puce croissantes à chaque génération, entraînant une décroissance des coûts de stockage
par unité d’information. Pour les processeurs, l’exploitation du progrès technologique
impose une nouvelle conception des puces à chaque génération.

Une unité de calcul peut largement être réalisée avec quelques centaines de
milliers de transistors. Les super-ordinateurs des années 60 en contenaient au total
150000, répartis entre de nombreuses armoires, et le processeur Intel 386SX, encore très
répandu, en contient 275000. Jusqu’ici, l’évolution a consisté à intégrer sur un même
composant des fonctions jusque-là implantées sur des puces distinctes, voire des cartes
ou des meubles distincts. C’est ainsi qu’une puce de 1990 contenait dans 2 cm sur 2
toutes les fonctions qui emplissaient une salle des années 1960.

Dans les processeurs les plus récents, le potentiel de transistors est utilisé de
plusieurs façons. Tout d’abord pour augmenter le parallélisme et donc la performance,
en traitant 64 bits en parallèle au lieu de 32, ou en traitant simultanément plusieurs
instructions à des stades différents (architecture dite « pipeline »). Ces deux approches
font passer le nombre de transistors par unité de calcul aux alentours de 1 million. Au-

cxlii
delà, on peut implanter sur la même puce deux ou trois unités de calcul et la logique
nécessaire pour les gérer, comme dans le Pentium ou le PowerPC (architecture dite
« superscalaire »), et utiliser ainsi 3 millions de transistors. Enfin, on peut intégrer à la
puce des fonctions confiées jusque là à des composants séparés, comme le calcul en
virgule flottante, ou entièrement nouvelles comme la gestion de l’énergie consommée.

Il est clair que ce mouvement ne peut que continuer, et que des fonctions
actuellement réalisées sur des composants séparés vont trouver leur place à l’intérieur
du microprocesseur, en même temps que des fonctions nouvelles viendront s’y ajouter.
Mais alors que la simple augmentation du parallélisme n’implique pas nécessairement
de modifications dans les conventions de communication entre la puce et l’extérieur,
c’est à dire son jeu d’instructions, son enrichissement fonctionnel exige un
enrichissement parallèle de ce répertoire.

Cette évolution inéluctable ramène à ses justes proportions le débat actuel entre
les tenants des architectures dites Risc (« reduced instruction set ») contre Cisc
(« complex instruction set »). Rappelons que vers le milieu des années 70, un courant de
recherche s’est attaché à évaluer une nouvelle conception des ordinateurs où le
répertoire d’instructions exécutables par le matériel serait réduit à sa plus simple
expression, soit une dizaine d’instructions, toutes les opérations plus complexes étant
réalisées par programmation. L’idée était de simplifier le matériel afin de le rendre aussi
rapide et bon marché que possible, en espérant compenser ainsi le ralentissement qui
résulterait de l’exécution d’une couche supplémentaire de logiciel.

Ces idées ont été reprises dans les années 80 pour concevoir des microprocesseurs
destinés à supporter le système d’exploitation Unix. Depuis lors la querelle entre Unix
et les autres systèmes s’est doublée d’une querelle entre les tenants des machines Risc et
les constructeurs d’autres machines, baptisées pour la circonstance Cisc. Au début des
années 90, les puces Risc ont effectivement pris une génération d'avance dans
l’exploitation des technologies, dont on a pu croire qu'elle consacrait une supériorité
intrinsèque de l'approche Risc.

Or il apparaît maintenant que cette avance était simplement circonstancielle.


L'absence de contraintes liées à la compatibilité avec des processeurs existants ou à la
nécessité de prévoir la production en volume ont permis de tirer pleinement parti de la
simplicité architecturale inhérente au concept Risc pour concevoir de nouvelles puces et
les mettre sur le marché selon un cycle très court. C'est donc dans des processeurs
nouveaux de type Risc que se sont incarnées en premier les technologies
submicroniques, mais il fallait s'attendre à ce que ces technologies s'étendent à toute la
gamme.

Le processeur Pentium d'Intel, mis sur le marché en 1993, comble cet écart en se
situant au même niveau technologique et au même niveau de puissance, et en utilisant la
philosophie de conception Risc dans la réalisation d'un processeur doté d'un jeu
d'instructions riche et compatible avec ses processeurs existants. De leur coté, IBM,
Apple et Bull associés avec Motorola dans Power Open ont décidé d'utiliser les mêmes
composants Power dans des matériels de type PC et dans des matériels Unix. Le secteur
des processeurs pour PC et celui des processeurs Unix sont en train de fusionner.

cxliii
Jusqu’alors, le secteur des composants Risc pouvait être considéré comme un
secteur concurrentiel particulier d'où les processeurs de type Intel 80X86 étaient
absents, et où la dynamique de concentration ne jouait qu'à l'intérieur d'un marché de
taille encore faible. C'est maintenant dans un segment de marché unique allant des PC
aux systèmes Unix, en attendant de s'étendre aux grands systèmes, que va jouer la
dynamique concurrentielle de concentration caractéristique des secteurs fortement
monopolistes. Le round suivant se jouera non plus sur l'opposition factice entre Risc et
Cisc, mais sur la capacité des promoteurs des actuels Pentium, Power, Alpha, Sparc,
PARisc et Mips à continuer d'investir les quelques milliards de $ nécessaires pour
mettre sur le marché leurs successeurs. Il est clair que certains le feront, et offriront les
processeurs du futur à des niveaux de prix qui resteront ceux des composants micros,
c'est à dire de 200 à 400 $ indépendamment de leur contenu fonctionnel et de leurs
performances. Seuls subsisteront les offreurs qui sauront atteindre une part de marché
cohérente avec une échelle optimale de production qui se chiffre en dizaines de millions
d'unités.

Le débat Risc contre Cisc est donc en voie d’être rapidement dépassé. On voit
d’ailleurs mal comment une puce de plusieurs dizaines de millions de transistors, plus
riche en fonctions que tout un super-ordinateur des années 80, pourrait se contenter d’un
jeu d’instructions « réduit ». Des deux efforts d’origine, réduire le nombre d’instructions
différentes et simplifier la structure de chaque instruction, seul le second restera visible
au niveau de la puce. En revanche, il est probable que chacun des blocs fonctionnels qui
composent le processeur sera conçu selon la philosophie Risc avec un jeu d’instructions
réduit. Autrement dit, le concept Risc restera comme un ensemble de principes
architecturaux concernant la structure interne des processeurs, et non pas comme une
caractéristique distinctive de certains. Les quelques microprocesseurs qui survivront
seront en quelque sorte Risc à l’intérieur et Cisc à l’extérieur.

Perspectives industrielles

La dynamique concurrentielle garantit que l’exploitation du potentiel de progrès


technologique, qui est encore considérable, va continuer pendant au moins les 10
prochaines années, au rythme d’un doublement des densités tous les deux ou trois ans.
Cette évolution s’accompagne d’une complexité croissante des microprocesseurs et de
contraintes de production de plus en plus draconiennes, ce qui entraîne une croissance
des dépenses de R&D et des investissements de production, qui sont en gros doublés à
chaque génération. Par contre, le coût marginal de production de chaque puce reste à
peu près le même de génération en génération, et peut même tendre à baisser si
l’amélioration des densités est en partie utilisée pour réduire les dimensions des puces et
améliorer le rendement du processus de fabrication. La disproportion entre coût fixe et
coût marginal de production s'aggrave donc avec le temps, ce qui fait croître l'échelle
optimale de production et rend le secteur de plus en plus monopoliste.

Notons au passage que l’émergence possible de technologies autres que celles du


silicium, telles que l’arséniure de gallium, les supraconducteurs ou les technologies
optiques, ne modifieraient pas substantiellement ces conclusions. La source des coûts
fixes, est en effet la taille des traits et le nombre de couches, qui ont toutes chances de
rester les mêmes quelles que soient les technologies. Des technologies alternatives

cxliv
peuvent éliminer les problèmes de rayonnement thermique ou autoriser de vitesses de
commutation plus élevées, mais n’ont que peu de chances de réduire les coûts de
fabrication, et exigeraient probablement des coûts de développement accrus.

Face à l’accroissement inexorable du coût fixe des lignes de production, qui est
d’ores et déjà voisin du milliard de $ et passera à coup sûr le cap des 2 milliards vers
1998, plusieurs acteurs explorent le potentiel de nouvelles technologies de production
qui ramèneraient le coût unitaire des lignes de production en dessous des 500 millions
de $, avec une capacité réduite dans des proportions voisines. Ces « minifabs » auraient
en outre l’avantage de permettre des cycles de production beaucoup plus courts, et donc
au total une plus grande souplesse et des échelles de production plus faibles. Dans la
mesure où ces nouvelles technologies se révèlent viables, on peut néanmoins penser que
leurs avantages porteront surtout sur les séries relativement courtes, et que les usines
traditionnelles conserveront leur avantage économique pour les processeurs produits en
très grande série. En tout état de cause, l’apparition des « minifabs » ne ferait
probablement qu’introduire un palier de quelques années dans le processus, et leur coût
lui-même reprendrait une croissance parallèle à celle des usines intégrées actuelles.

Revenons sur la question de la configuration efficiente du secteur, où les parts de


marché des acteurs successifs sont dans un rapport constant et où la part de marché du
plus petit est suffisante pour le rendre économiquement viable, c’est à dire voisine de
l’échelle optimale de production. Cette combinaison de conditions détermine le nombre
de firmes du secteur. Supposons pour fixer les idées que le rapport des parts de marché
entre deux concurrents successifs soit égal à 2 comme dans l’hypothèse de Henderson.
Les parts de marché sont alors, par ordre croissant, dans les rapports 1, 2, 4, 8, 16, …
Puisque la part du plus petit est cohérente avec l’échelle économique de production, on
en conclut que deux firmes suffiront à couvrir le marché si celui-ci est égal à 3 fois
l’EEP, trois firmes couvriront un marché égal à 7 fois l’EEP, quatre firmes 15 fois
l’EEP, etc.

Quelque approximatif que soit ce raisonnement, les conclusions auxquelles il


conduit ne sont pas si éloignées de la réalité puisqu’une étude du groupe Dataquest
estimait qu’en 1991 le nombre de lignes de fabrication nécessaires était de 48, ce qui
selon le raisonnement précédent place le nombre efficient de firmes entre 5 et 6, ce qui
est du même ordre de grandeur que le nombre réel de producteurs. Or la même étude
estimait à 18 le nombre de lignes en 2001, ce qui correspond à 4 ou 5 firmes, et en
extrapolant la tendance on trouve 7 lignes et donc 3 firmes en 2011. On est tenté de
prédire que les années à venir verront le nombre de « fondeurs » diminuer de un pour
chaque cycle de quelques années, et de raffiner notre modèle d’évolution des prix en
disant que les prix finaux pour chaque génération s’établiront à un niveau qui permette
la survie de tous les acteurs sauf un, le moins bien placé.

Déjà Hewlett-Packard a jeté l’éponge en 1994 en s’alliant à Intel. Que ce soit le


premier à abandonner, bien qu’il n’ait peut-être pas été le moins bien placé dans la
course, s’explique par deux raisons : de tous les acteurs secondaires, c’est probablement
celui dont la culture est la plus éloignée des exigences du métier des composants, et
d’autre part c’est aussi celui à qui cet abandon pose le moins de problèmes stratégiques,
contrairement à d’autres entreprises qui font reposer leur stratégie de matériel sur des
composants spécifiques.

cxlv
Cette tendance à la réduction du nombre des acteurs ne peut être contrecarrée que
par un élargissement du marché, ce qui explique les efforts des fabricants de
composants pour leur trouver de nouvelles applications, que ce soit dans l’automobile,
l’électronique domestique ou le multimédia.

En plus des fournisseurs traditionnels que sont les USA et le Japon, des pays
comme la Corée ou Taiwan investissent aujourd’hui massivement dans la construction
d’usines de semi-conducteurs, le raisonnement économique des industriels étant faussé
par d’importantes subventions publiques. Les seules usines en cours de construction à
Taiwan en 1994 auront une capacité presque suffisante pour satisfaire la demande
mondiale actuelle de puces mémoire. On peut donc s’attendre à ce que l’industrie
connaisse une situation de surcapacité dans les années 1995-1996, entraînant d’une part
une guerre des prix et d’autre part la recherche d’autres débouchés. Cette situation sera
favorable aux concepteurs « fabless » et à une diffusion des composants, mémoire et
processeurs, dans un nombre croissant d’applications autres que l’informatique au sens
habituel.

A l’inverse, la vive concurrence entre fabricants accélérera la disparition des


moins performants, c’est à dire des plus petits. Certains de ceux qui conçoivent et
fabriquent des microprocesseurs en abandonneront la fabrication pour la sous-traiter,
comme l’a déjà fait Hewlett-Packard. D’autres mettront en commun leur capacité de
fabrication à travers la formation d’alliances ou de filiales communes. Tant que cette
situation de surcapacité durera, elle sera favorable au maintien d’un assez grand nombre
de fournisseurs de microprocesseurs, pour la plupart « fabless ». Mais la génération
suivante (1997 ?) verra sans doute par réaction une sévère sélection parmi les fabricants,
pouvant même conduire vers 1998/2000 à une sous-capacité et par contrecoup à une
importante mortalité des petits fournisseurs de processeurs.

Que se passera-t-il lorsque le nombre de fournisseurs de microprocesseurs sera


réduit à trois, voire deux, et que les microprocesseurs compteront cent ou deux cent
millions de transistors, ce qui se produira très vraisemblablement entre 2010 et 2020 ?
Subsistera-t-il une motivation concurrentielle pour investir les milliards de dollars
nécessaires pour augmenter encore la densité ? Restera-t-il encore des fonctions
candidates pour utiliser cent millions de transistors supplémentaires ? Au moment où
ces lignes sont écrites, on est tenté de répondre par la négative et d’admettre que le
progrès des composants s’arrêtera dans les vingt premières années du XXIe siècle. Mais
rien n’est moins sûr. Peut-être la diffusion des composants électroniques dans un
nombre croissant d’objets élargira-t-elle le marché au point de compenser, et au-delà, la
croissance de l’échelle économique de production. C’est évidemment ce que souhaitent
les acteurs de cette industrie, et l’un des enjeux fondamentaux des efforts actuels dans le
domaine du multimédia.

cxlvi
Chapitre 8
Les matériels, un secteur dispersé

Emergence d’un secteur autonome. Composants, cartes et boîtiers. Les limites de


l’automatisation. Un secteur dispersé. Inventaire des stratégies possibles. Segmentation
du marché, niches et profitabilité. La supériorité du modèle PC. Innovation et
foisonnement des matériels. Un secteur en pleine santé.

Les matériels, toutes tailles et toutes fonctions confondues, comptent pour environ
60% dans le chiffre d’affaires total de l’industrie informatique. Tout utilisateur
d’informatique est nécessairement client d’un ou plusieurs fournisseurs de matériel,
alors qu’il pourrait se passer assez largement des firmes de logiciel et surtout de
services. De plus, à travers les phénomènes de compatibilité et de standards, les autres
offres s’ordonnent autour des matériels, qui apparaissent d’une certaine façon comme le
secteur central qui commande tout le reste.

Dans le même temps, ce secteur des matériels est souvent considéré comme un
secteur en difficulté, ou à tout le moins comme le plus touché par la crise qui secoue
l’industrie informatique. On a même pu lire que les constructeurs de matériel sont
condamnés à des marges nulles, et donc à disparaître à terme. Quelque hâtif et absurde
que puisse être ce pronostic (peut-on imaginer une informatique sans un support
matériel pour exécuter les programmes ?), il témoigne des interrogations que soulève
l’évolution du secteur des matériels, auxquelles nous allons essayer de répondre dans le
présent chapitre.

Historique

Les matériels ont longtemps été le centre de toute l’offre informatique. Les
premiers acteurs étaient tous des constructeurs de matériel, et le matériel a été jusque
vers 1970 la seule prestation facturable. Tout le reste, logiciels, services de maintenance,
d’entretien, de formation, … était fourni gratuitement pour accompagner le matériel, et
le coût en était couvert par la facturation de ce dernier. De plus, chacun des
constructeurs offrait la panoplie complète des matériels et en assurait l’intégration chez
le client. L’ensemble de l’industrie informatique se résumait donc à un secteur
produisant des systèmes intégrés, dont le chiffre d’affaires était exclusivement assis sur
le matériel, même si les fournisseurs exerçaient de nombreuses activités
complémentaires nécessaires à la production de tels systèmes, dont celles de services et
de développement de logiciels.

Cette offre intégrée a commencé à se fissurer vers la fin des années 60 avec
l’apparition des compatibles IBM. Certaines firmes ont alors entrepris d’offrir isolément
certaines unités destinées à se substituer aux unités équivalentes d’IBM. L’offre de ces
firmes pouvait se limiter strictement au matériel dans la mesure où elles pouvaient

cxlvii
compter sur IBM pour fournir les autres éléments sans lesquels leur offre n’aurait pas
été viable, les logiciels et les services par exemple. C’est d’ailleurs souvent le refus (réel
ou allégué) d’IBM de fournir ses services en relation avec d’autres matériels qui a
provoqué les premiers procès intentés contre IBM dans cette période.

Vers la même époque, et en relation avec la montée des compatibles, est


intervenue la décision d’IBM de facturer séparément les progiciels et les divers services,
suivie plus ou moins rapidement par les autres fournisseurs de systèmes. On a ainsi vu
le chiffre d’affaires des constructeurs se scinder entre les rubriques matériels, logiciels
et services, sans d’ailleurs que cela traduise une modification réelle de leurs activités ni
une réorganisation interne qui rende ces activités plus autonomes. Les seules firmes
véritablement spécialisées dans le matériel sont restées les constructeurs de compatibles,
et ce secteur est resté relativement marginal car limité à la sphère IBM et soumis à la
vigoureuse concurrence du constructeur dominant.

L’arrivée du PC en 1981 s’accompagne d’une véritable révolution dans la


répartition des rôles industriels. Dans l’univers de la micro-informatique compatible PC,
l’adoption des systèmes d’exploitation développés par Microsoft et quelques autres
entraîne la séparation entre le secteur des progiciels et le secteur des matériels. De
même, l’utilisation généralisée des processeurs Intel réduit l’activité des constructeurs
de PC à des opérations d’assemblage. D’autre part, la simplicité et la destination des
produits dispensent les constructeurs de fournir des services, tandis que la nature du
marché visé les invite à confier la commercialisation de leurs produits à des firmes de
distribution spécialisées. Ces distributeurs peuvent jouer le rôle de prestataires de
services et en particulier d’assembleurs de systèmes, ce qui autorise certains
constructeurs à se spécialiser encore plus par type d’unité.

On voit donc apparaître avec le PC un nouveau métier d’assembleur de matériel.


Nous avons vu au Chapitre 4 que ce métier possède une structure de dépenses
caractéristique : le coût des produits vendus dépasse typiquement 75% du chiffre
d’affaires, dont 65 à 70% est constitué par des achats de composants ou de sous-
ensembles à d’autres fournisseurs. Les dépenses de recherche et développement ne
représentent que 2 à 4% du CA, tandis que les frais généraux, y compris les dépenses
commerciales, tournent autour de 15%. Pour ces entreprises, le résultat net après impôts
ne dépasse que très rarement 5% du chiffre d’affaires. Ces ratios sont très différents de
ceux des constructeurs traditionnels chez qui la R&D représente 10 à 20% du CA et les
frais généraux peuvent aller jusqu’à 40% pour couvrir en particulier une activité
commerciale très développée. Ces chiffres traduisent bien deux métiers différents :
d’une part la production de matériels standard à partir de composants du commerce,
d’autre part la conception de matériels originaux demandant une production plus
intégrée et des efforts de commercialisation importants.

Nous avons également vu au Chapitre 4 que le modèle des assembleurs est


largement représenté dans le domaine des PC et des périphériques, par de nombreuses
firmes de taille très variable qui fournissent ensemble près de la moitié du CA matériels.
En revanche, ce modèle est resté très marginal dans les autres domaines, où l’activité
d’assemblage reste liée aux autres activités à l’intérieur de chaque firme. Il est donc
important d’examiner d’abord isolément cette activité d’assemblage, telle qu’elle existe
dans ces firmes spécialisées. Nous trouverons en effet dans cette analyse des raisons de

cxlviii
penser que le modèle de l’assembleur pur va se généraliser progressivement à tous les
segments. La structure industrielle qui prévaut dans les micro-ordinateurs de type PC
préfigure ainsi ce que sera demain toute l’industrie du matériel.

Technologie et économie

Examinons rapidement la structure physique d’un micro-ordinateur pour identifier


les principaux niveaux d’assemblage qui conduisent des composants électroniques à un
système complet. Les techniques utilisées sont d’ailleurs les mêmes que pour
l’électronique professionnelle ou l’électronique grand public comme la haute-fidélité ou
la télévision.

Au niveau le plus bas, les composants sont placés sur des cartes de 10cm à 30cm
de coté, qui reçoivent des puces de différentes sortes et supportent également les
conducteurs qui relient les puces entre elles et les connecteurs qui relient la carte elle-
même au reste de l’ordinateur. Ces composants sont le plus souvent soudés sur la carte,
qui constitue un ensemble fonctionnel bien défini. Tout micro-ordinateur contient une
carte-mère sur laquelle sont implantées les fonctions de base : processeur, mémoire
principale, mémoire intermédiaire ou cache, adaptateurs pour les unités connectables,
bus local pour gérer les échanges d’informations entre composants, éventuellement
processeurs spécialisés. Elle peut être complétée par des cartes spécialisées qui réalisent
des fonctions comme le contrôle des communications, les entrées et sorties graphiques,
sonores ou vocales, etc.

La carte mère est installée dans un boîtier qui contient également les unités
internes comme les disques, l’alimentation électrique et le dispositif de refroidissement
éventuel, ainsi que des emplacements pour des cartes d’extension et des unités
additionnelles. Enfin, le système complet est généralement construit en interconnectant
par des câbles des unités distinctes telles qu’une unité centrale, un clavier, un écran, une
imprimante, etc.

La fabrication des cartes ressemble un peu à celle des composants, si ce n’est que
l’échelle est totalement différente : les conducteurs déposés ou gravés sur la carte ont
une largeur de l’ordre du millimètre et les composants qui y sont insérés ont des
dimensions de l’ordre du centimètre. Cette fabrication est largement automatisée, mais
les techniques d’assemblage sont tout à fait courantes dans l’industrie électronique en
général et ne sont pas spécifiques du secteur informatique. Les investissements
correspondants restent raisonnables, conduisant à une échelle économique de
production qui se chiffre en dizaines de milliers.

L’assemblage final des unités à partir des cartes est par contre une opération
essentiellement manuelle, qui peut être réalisée par du personnel d’installation ou
d’entretien, voire par l’utilisateur lui-même, à l’exception de certains systèmes
particuliers très miniaturisés.

En 1974/1975, les tout premiers micro-ordinateurs ont été vendus en kit par des
revues d’amateurs d’électronique. Aujourd’hui encore, on peut trouver dans les
boutiques spécialisées tous les éléments nécessaires au montage d’un micro-ordinateur :

cxlix
processeur, puces mémoire, carte-mère, disques, clavier, écran, … qui sont vendus sous
forme de kits ou individuellement. Même dans des ordinateurs fournis tout assemblés, il
est possible aux utilisateurs d’ajouter ou de remplacer un grand nombre d’éléments
comme la mémoire, des cartes d’extension, les unités de disques voire l’unité centrale,
sans formation spéciale ni outillage spécial. L’assemblage d’un micro-ordinateur est une
opération à la portée d’un amateur raisonnablement adroit, et ne demande que quelques
heures.

Selon le coût de la main d’œuvre utilisée, le coût d’assemblage manuel d’un


micro-ordinateur se situe typiquement entre 100 et 200 francs, alors que le prix de
revient des pièces achetées est de plusieurs milliers de francs selon la configuration. Il y
a peu de moyens et peu de motivation pour réduire ce coût à travers des techniques
d’automatisation, qui n’apporteraient pas d’avantage concurrentiel appréciable. En tout
état de cause, choisir des modes de production n'exigeant que des investissements
modestes et où l'essentiel des coûts est variable rend économiquement viable une
échelle de production infime par rapport à la taille du marché.

Au total, l’assemblage des matériels se décompose en deux opérations successives


dont les logiques économiques sont différentes. Alors que la fabrication des composants
s’apparente à une industrie lourde, celle des cartes obéit à la logique de la petite
industrie et l’assemblage final des matériels relève de l’artisanat. Il est assez naturel que
la structuration du secteur des matériels reflète ces différences d’échelle. On y trouve de
grandes entreprises qui englobent la totalité de la filière, dont le nombre décroît au fur et
à mesure que l’industrie des composants se concentre et devient plus autonome en
amont. Une deuxième catégorie est formée d’entreprises grandes et moyennes, qui
assurent toutes les étapes d’assemblage et conservent ainsi la possibilité d’offrir des
produits originaux soit par certaines unités soit par les techniques d’assemblage elles-
mêmes. Enfin, de nombreuses petites firmes sont spécialisées soit dans la fabrication
des cartes, soit dans l’assemblage final. Pour ce dernier type de constructeurs, les coûts
variables l’emportent de très loin sur les coûts fixes, et l’échelle de production peut être
très réduite.

L’assemblage de matériel se caractérise donc par une échelle économique de


production faible, associée à de faibles barrières à l'entrée et à une banalisation ou une
standardisation des produits qui facilite le changement de fournisseur en éliminant les
coûts de transfert. Ces caractéristiques sont par excellence celles d’un secteur dispersé,
dans lequel existent un grand nombre de firmes concurrentes qui n’atteignent que de
faibles parts de marché. Dans ce secteur comme dans les autres industries dispersées, la
firme la plus importante obtient rarement plus de 15% du marché et les 10 premières
n’en totalisent le plus souvent pas 50%. De plus, la profitabilité potentielle et la
profitabilité moyenne y sont également faibles, même pour les firmes les plus
performantes qui atteignent tout juste 5%.

De fait, alors que les fabricants de microprocesseurs ne sont pas plus d’une
douzaine (et nous avons vu que ce nombre ne peut que se réduire), il existe des milliers
de fournisseurs de micro-ordinateurs dans le monde. Certains ont une envergure
mondiale, d’autres n’opèrent que dans une seule ville. Certains ont mis en place leur
propre réseau de distribution, d’autres s’en remettent entièrement à des distributeurs
spécialisés. L’existence d’une industrie des composants et de fournisseurs de progiciels

cl
indépendants a permis l’existence d’un grand nombre d’assembleurs qui mettent en
œuvre des stratégies très diversifiées.

Il est également important de noter que la faiblesse des obstacles à l’entrée dans le
métier d’assemblage de matériels rend crédible toutes les menaces d’intégration. En
amont, les fabricants de composants peuvent vouloir offrir des systèmes complets,
comme le font d’ailleurs de façon limitée Intel pour les systèmes hautement parallèles et
Motorola pour les systèmes de communication. Des sociétés de service ou de progiciels
peuvent vouloir exploiter sous forme de matériel une compétence acquise dans leurs
activités de base, en offrant par exemple des terminaux spécialisés par application. Les
clients industriels importants peuvent également vouloir assembler les systèmes qu’ils
utilisent, et éventuellement mettre ces produits sur le marché. Toutes ces menaces
contribuent également à limiter la profitabilité du secteur.

Segmentation et options stratégiques

Stratégies concurrentielles

Revenons sur l’analyse des comportements concurrentiels présentée par Porter,


dont nous avons introduit les grandes lignes au Chapitre 6.

Quel que soit le secteur où elle opère, la firme doit y rechercher un avantage
distinctif sur ses concurrentes, et pour cela doter ses produits de caractéristiques
spécifiques qui donnent aux clients potentiels des raisons de les choisir de préférence à
ceux des autres firmes.

Le prix d’un produit par rapport aux produits concurrents est en règle générale le
plus important facteur concurrentiel, et il intervient toujours dans le choix des clients
quelle que soit la stratégie mise en œuvre par le fournisseur. L’entreprise peut donc
choisir l'arme des prix comme avantage concurrentiel majeur. Au contraire, elle peut
renoncer à pratiquer les prix les plus bas, mais doter ses produits de caractéristiques
exceptionnelles qui justifient leur achat par une partie au moins de la clientèle. On parle
alors d’une stratégie de différenciation.

Deuxièmement, l’entreprise peut rechercher un avantage concurrentiel qui soit


applicable à la totalité du marché, ou au contraire qui soit propre à un segment limité.
Dans le premier cas, elle met en œuvre ce que Porter appelle une stratégie de
domination, dans le second cas une stratégie de concentration.

De la combinaison de ces deux choix naissent quatre stratégies de base :


domination globale par les coûts, domination globale par les produits, concentration sur
la base des coûts, concentration sur la base des produits. Dans sa mise en œuvre, chaque
stratégie requiert des moyens, des compétences, une organisation et des systèmes de
management particuliers. Chaque firme doit donc opter pour l’une ou l’autre des quatre
stratégies de base, et toute tentative de poursuivre une stratégie mixte, que ce soit par
absence de décision ou de propos délibéré, conduit nécessairement la firme à une
situation de faiblesse. Nous développerons aux Chapitres 9 et 14 ces problèmes de
compatibilité de stratégies et de produits différents au sein d’une même firme.

cli
Stratégies de base
Nature de l'avantage
Domaine produi t coûts
de l'avantage
domination
tout le secteur différenciation par les coûts

un segment concentra tion concent ration


fondée sur les pr oduits fondée sur les coûts

Voie médiane = enlisement

Dans les secteurs dispersés, où opèrent par définition un grand nombre de firmes,
la plupart adopteront une stratégie de concentration sur un segment particulier du
marché. Si d’aventure certaines choisissent une stratégie de domination globale, elles
auront du mal à réussir, car elles se heurteront dans chaque segment à des firmes
spécialisées mieux adaptées aux besoins particuliers. La domination globale par les
produits est vouée à l’échec dans un marché vaste et varié, tandis que les tentatives de
domination globale par les coûts ne réussiront au mieux que dans certains segments
sensibles aux coûts. Il peut néanmoins arriver que le caractère dispersé d’un secteur soit
purement circonstanciel et ne s’appuie sur aucune caractéristique structurelle, auquel
cas une stratégie de domination peut réussir. Mais dans tous les cas où le secteur est
dispersé pour des raisons structurelles telles qu’une échelle économique de production
faible ou une demande très diversifiée, on peut considérer que les stratégies de
domination ne sont pas viables. Tous les acteurs adopteront des stratégies de
concentration, qui ne diffèrent que par le choix des critères de segmentation et pourront
de ce fait viser des segments de tailles très différentes.

Les stratégies possibles

La décomposition du marché en segments peut se faire selon plusieurs


dimensions. Un premier ensemble de critères se rattache au produit lui-même : nature
fonctionnelle du produit (systèmes complets ou unités isolées comme les cartes
d’extension, les imprimantes ou les écrans), standards adoptés, catalogue de fonctions,
niveau de performances, plage de prix, modularité ou intégration, portabilité,
dimensions, aspect, etc. Un deuxième type de critères a trait au type de client visé :
particulier ou entreprise, secteur d'activité, type d'utilisation, processus d'achat, etc.
Enfin, la segmentation peut intégrer d’autres considérations comme le circuit de
distribution utilisé ou la localisation géographique de la clientèle.

Dans les segments retenus, l’offreur pourra opter entre les deux stratégies
fondamentales de concurrence : par les prix ou par les qualités du produit. Le caractère
essentiellement manuel des opérations d’assemblage donne peu de possibilités de
réduire les coûts en investissant dans les équipements de production. Les firmes qui
optent pour la concurrence par les prix décideront donc le plus souvent de se limiter à
l’assemblage de produits relativement banalisés à partir de composants standard du
marché, afin d’éviter les frais de recherche et de développement. En revanche, les

clii
firmes qui choisissent la concurrence par les produits devront consentir des dépenses de
recherche et développement plus élevées afin de définir des produits spécifiques, voire
concevoir et produire elles-mêmes certains composants ou sous-ensembles en partie
originaux.

Pour ces raisons, les obstacles à l’entrée ainsi que l’échelle économique de
production sont en règle générale plus élevés pour les stratégies de spécialisation que
pour la concurrence par les prix. Ceci pose de façon aiguë le problème de la
distribution : alors que les firmes offrant des produits banalisés à bas prix peuvent s’en
remettre à des circuits généralistes, les constructeurs spécialisés doivent être sûrs que les
circuits qu’ils utilisent sont bien capables d’atteindre et de convaincre le segment de
marché particulier qu’ils visent.

Avant l’arrivée des micro-ordinateurs, la distribution informatique spécialisée


n’était représentée que par quelques précurseurs comme les sociétés de crédit-bail ou les
revendeurs d’occasion. Par contre, des distributeurs de matériel électronique comme
Tandy ont été au point de départ de la vague micro à la fin des années 70.

Aujourd’hui, les canaux de distribution utilisés par la micro-informatique se sont


considérablement diversifiés. Certains constructeurs pratiquent la vente directe par
correspondance ou dans des boutiques à leur marque. Selon leurs cibles de marché et
leur stratégie, les autres constructeurs utilisent soit des distributeurs spécialisés dans le
matériel informatique, soit les canaux de la grande distribution généraliste, soit des
sociétés de services informatiques qui intègrent leurs produits dans des systèmes
complets. La diversité des modes de distribution complète naturellement la diversité des
stratégies des constructeurs et la diversité du marché.

Pour les offreurs qui ont choisi une stratégie de spécialisation, les sources
potentielles d'avantage concurrentiel peuvent être très diverses et variables d'une firme à
l'autre : fonctions, performances, qualité, délai de livraison, mais aussi apparence,
esthétique ou dimensions. L’objectif de chaque offreur est de réussir à isoler
suffisamment les segments de marché où il opère et de les protéger par des obstacles à
l’entrée suffisants. Ces segments peuvent alors devenir des pseudo-secteurs où joue une
dynamique interne de concentration, et où il sera possible de retrouver de meilleurs
niveaux de profitabilité. L’action conjuguée des acteurs spécialistes tend ainsi à
fragmenter le marché en segments dont la taille est un petit multiple de l’échelle
économique de production, et à faire du secteur dispersé la juxtaposition d’un grand
nombre de sous-secteurs concentrés.

Mais les obstacles à la mobilité entre segments, qui jouent dans ce cas le rôle des
obstacles à l’entrée, sont le plus souvent relativement faibles et peu défendables. De
plus, le grand nombre de dimensions possibles de segmentation fait de chaque client
potentiel la cible de plusieurs stratégies, et l’oblige à arbitrer entre des offres qui vont
des systèmes banalisés bon marché à des systèmes personnalisés plus onéreux. En
particulier, les stratégies de concurrence par des critères généraux comme les prix sont
présentes, et souvent efficaces, dans presque tous les segments. La pression sur les prix
est générale, et les profits ne sauraient beaucoup s’écarter de la moyenne, même pour
les firmes qui réussissent le mieux une stratégie de spécialisation. Il en résulte

cliii
également qu’une stratégie de prix bas bien exécutée conduit à des volumes élevés alors
même que le volume ne constitue pas en soi un avantage.

En effet, la clé du succès n'est pas nécessairement la part de marché. La règle du


jeu concurrentiel n'est plus de chercher à offrir la meilleure de toutes les solutions
possibles afin de conquérir l'ensemble du marché informatique, mais de définir pour un
segment identifié du marché une offre telle que la firme puisse tirer d'une ou plusieurs
de ses caractéristiques propres un avantage concurrentiel vis à vis de ce segment. La
seule condition liée à la part de marché est que la taille du segment visé doit être en
proportion avec l'investissement nécessaire pour obtenir l'avantage concurrentiel.

Pour un offreur donné, le choix d’un ou plusieurs segments et d’une stratégie doit
reposer sur des avantages propres à la firme. Un faible coût de main d’œuvre orientera
naturellement la firme vers une stratégie de concurrence par les prix. De même, la
maîtrise d’une technologie orientera vers une concentration sur des produits et des
segments où cette technologie peut être exploitée pour créer un avantage, et une
familiarité exceptionnelle avec une classe d’utilisateurs poussera la firme à se
spécialiser dans les besoins de ce segment de marché. Encore faut-il que les
caractéristiques distinctives sur lesquelles repose l’avantage concurrentiel ne puissent
pas être reproduites à l’identique par les concurrents, et correspondent donc à un savoir-
faire particulier de la firme.

L’éventail des stratégies viables dépend du segment et de l’offreur. Il n’y a pas de


bons et de mauvais segments indépendamment de l’offreur, et il n’y a pas de stratégie
qui soit bonne ou mauvaise indépendamment du segment et de l’offreur. Autrement dit,
la question « quelle est la bonne stratégie pour un constructeur de matériel ? », comme
la question « quelle est la bonne formule de distribution ? » n’admet pas de réponse
générale. Des stratégies diverses et opposées coexistent et continueront de coexister.

Les caractéristiques du secteur

Au total, les règles du jeu qui gouvernent le métier d’assembleur de matériel sont
caractéristiques d’un secteur dispersé.

En toute rigueur, la production de matériel comprend plusieurs secteurs différents


suivant la nature du matériel. Nous avons centré la discussion précédente sur
l’assemblage des unités centrales, qui englobent souvent les unités de stockage sur
disques. Les mêmes considérations s’appliqueraient mutatis mutandis aux différents
périphériques, eux-mêmes produits en assemblant des composants de nature diverse
dont certains se rattachent à l’industrie électronique tandis que d’autres relèvent de la
mécanique de précision ou de la micromécanique.

Certains secteurs comme celui des PC impliquent une activité de pur assemblage
et donc une échelle de production faible. Ces secteurs sont peuplés de nombreuses
firmes dont les plus importantes occupent moins de 15% du marché. La profitabilité de
ces firmes se situe dans une fourchette étroite, dont le niveau moyen est cohérent avec
celui des autres industries d’assemblage, c’est à dire quelques points de pourcentage,
typiquement entre 4% et 6% pour les firmes qui réussissent le mieux. La concurrence

cliv
est vive et se traduit à la fois par l’apparition fréquente de produits nouveaux selon un
cycle de l’ordre de l’année, et par une guerre des prix continuelle. Cette concurrence
remet constamment en question les positions acquises, sans que la part de marché
confère un avantage concurrentiel définitif. Les positions relatives des firmes changent
donc d’année en année, la mortalité est importante comme d’ailleurs la natalité. Cette
dynamique sectorielle se situe ainsi à l’exact opposé de celle qui régit le secteur des
composants.

Certains constructeurs consentent une activité de développement plus importante,


soit que le secteur où ils opèrent le demande, comme c’est le cas pour les cartes
électroniques ou certains types de périphériques, soit qu’ils adoptent une stratégie de
différenciation par les produits dans des secteurs dispersés. Dans le premier cas, on voit
apparaître des structures sectorielles plus concentrées et des profitabilités plus
dispersées, voire dans des cas extrêmes de haute technologie, comme les blocs
d’impression laser ou les écrans plats, une situation d’oligopole asymétrique qui rejoint
celle des microprocesseurs. Le second cas peut apporter à l’entreprise des marges
supérieures à la moyenne du secteur dans la mesure où ses investissements de
différenciation lui donnent un avantage décisif sur un marché isolé et porteur, comme
les micro-ordinateurs de haut de gamme.

D’une façon générale, les progrès de la standardisation abaissent les obstacles à


l’entrée et favorisent la multiplication des purs assembleurs, en même temps qu’ils
réduisent le nombre des secteurs où un effort de recherche et développement est
nécessaire. On peut donc s’attendre à ce que l’industrie du matériel prenne un caractère
de plus en plus dispersé, ce qui implique en particulier que les positions y soient en
permanence instables et que les profits supérieurs à la normale y soient de plus en plus
rares.

La miniaturisation et ses limites

Nous avons vu qu’au niveau le plus élémentaire le progrès technologique se


traduit par une augmentation de la capacité de chaque puce, qu’il s’agisse de mémoire
ou de fonctions de traitement. Il en résulte que la réalisation d’un niveau donné de
fonctions et de performances requiert de moins en moins de composants. Dans les
ordinateurs les plus récents, le microprocesseur incorpore des fonctions jusque là
réalisées par des puces spécialisées distinctes implantées sur la carte mère, par exemple
le calcul en virgule flottante, la gestion de l’alimentation électrique ou les mémoires
cache. Parallèlement, en même temps que des fonctions migrent de la carte vers le
microprocesseur, d’autres, comme le traitement du son et de l’image, migrent vers la
carte mère à partir des cartes additionnelles en attendant de finir un jour incorporées au
microprocesseur. Au total, pour un niveau donné de fonction et de puissance, le nombre
de pièces distinctes se réduit et l’assemblage devient de plus en plus simple.

Ce mouvement continuel d’intégration n’est d’ailleurs pas nouveau. Il n’y a pas si


longtemps, la richesse fonctionnelle et la performance qui tiennent aujourd’hui dans un
boîtier de 40 cm de coté demandaient plusieurs armoires installées dans une grande
pièce climatisée.

clv
Cette évolution d’ensemble peut être exploitée de deux façons : ou bien réduire le
nombre de niveaux d’assemblage, ou réduire la complexité et les dimensions de chaque
niveau. En suivant la première voie, l’unité centrale des micro-ordinateurs comparables
aux machines courantes actuelles se réduira bientôt à deux puces sur une carte, plus une
ou deux unités de disque et quelques connecteurs externes, mais la modularité et la
capacité d’évolution du système seront alors limitées. Adopter la seconde voie permet
de conserver la modularité et la possibilité d’extension et de remplacement de fonctions.
Dans cet esprit, les constructeurs peuvent délibérément choisir d’implanter des
fonctions optionnelles sur des cartes séparées ou des composants amovibles sur la carte
mère.

Si la miniaturisation des circuits est l’essence même du progrès des composants,


elle se heurte aux autres niveaux à des limites externes. Nous avons vu qu’il n’est guère
utile de fabriquer des puces de dimension inférieure à 1 cm ; De la même façon, une
carte amovible doit pouvoir être facilement manipulée et assez grande pour ne pas se
perdre. Quant à la miniaturisation des systèmes, elle est limitée par les contraintes de la
communication homme-machine, qui imposent aux claviers une taille compatible avec
celle des doigts, aux écrans des dimensions cohérentes avec les contraintes de la vision
humaine, et aux imprimantes la taille de la page imprimée. Les dimensions des
matériels ne sauraient donc descendre en dessous de certaines limites définies par des
considérations totalement étrangères à l’informatique, donc indifférentes aux
développements technologiques dans ce domaine. C’est ainsi que les standard
dimensionnels des matériels informatiques se rapprochent de standards déjà reconnus
dans d’autres domaines voisins : le format carte de crédit pour les cartes amovibles
(format PCMCIA), et le format A4 pour les ordinateurs portables.

Par ailleurs, réduire les dimensions ne constitue pas toujours un avantage concret.
Un ordinateur de bureau doit être doté d’un écran et un clavier de bonne taille, et les
autres unités peuvent être placées à un endroit où elles ne gênent pas. Pour un même
ensemble de fonctions, différentes formes de réalisation sont possibles, et donc
plusieurs systèmes différents répondant au même besoin fonctionnel peuvent être
proposés. Dans un secteur dispersé à faible échelle économique de production, on peut
prévoir que toutes les offres correspondantes coexisteront et que le client aura le choix.

Evolution des structures industrielles

Alors que, depuis les années 60, l’industrie informatique traditionnelle réunissait
chez les mêmes acteurs tous les rôles allant de celui de fabricant de composants à celui
d’assembleur de systèmes, le monde du PC s’est construit d‘emblée sur une séparation
nette de ces rôles, qui y sont joués par des secteurs distincts.

Cette répartition des rôles, qui permet à chaque acteur d’aller jusqu’au bout de sa
logique économique propre, explique tout à la fois la vitalité du secteur des matériels, le
nombre des fournisseurs, la guerre des prix et l’amélioration continuelle du rapport
prix/performances, la variété des offres, le gouffre qui sépare le ratio prix/performances
des micro-ordinateurs de celui des systèmes conventionnels, mais aussi la rentabilité
modeste et le taux de mortalité des entreprises du secteur.

clvi
Rappelons une fois encore que les différences entre le monde des micro-
ordinateurs et celui de l’informatique traditionnelle ne sauraient s’expliquer par des
raisons techniques. En réalité, ce sont les mêmes technologies qui sont exploitées dans
les deux cas, et les causes des différences doivent être recherchées dans les structures
industrielles respectives.

Peut-on alors penser que le monde des moyens et grands systèmes, qui a jusqu’ici
conservé pour l’essentiel sa structure intégrée, et celui des stations de travail qui s’est
construit sur le même modèle, vont se convertir à cette séparation des rôles qui fait le
dynamisme du monde micro-informatique ?

Dans le même temps où l’assemblage des micro-ordinateurs se simplifie, les


techniques d’assemblage actuelles permettront d’assembler des systèmes de haut de
gamme au même coût que les petits systèmes d’aujourd’hui. On pourra en particulier
placer plusieurs microprocesseurs sur la même carte et plusieurs de ces cartes dans un
même boîtier, afin de constituer des systèmes multiprocesseurs dont la puissance sera un
multiple de celle des processeurs élémentaires et dépassera celle des plus gros
ordinateurs actuels pour le prix d’un PC actuel. On pourra par exemple, sans modifier le
boîtier ni les techniques d’assemblage, loger deux processeurs sur chacune des quatre
cartes qui composent souvent un PC, et passer ainsi d’un processeur de 20 Mips à 8 40

processeurs de 200 ou 300 Mips, pour une augmentation relativement faible du coût
total.

Les paramètres physiques qui déterminent les coûts d’assemblage, c’est à dire les
dimensions des cartes, des puces et des conducteurs, restent stables dans le temps car les
conséquences du progrès technologique sont purement internes à la puce. Contrairement
au cas des composants, les mêmes techniques d’assemblage peuvent être utilisées pour
des générations différentes, et l’échelle économique de production des cartes ou des
systèmes complets reste à peu près constante. Dans un marché en expansion, il y a donc
place pour un nombre croissant de concurrents, et la dispersion et la variété du secteur
auront tendance à augmenter.

Les matériels produits selon le modèle des PC, et même les constructeurs actuels
de PC, entreront donc de plus en plus en concurrence directe avec des ordinateurs
traditionnels en jouissant d’avantages considérables dans le domaine des prix et de la
variété de l’offre. Cette concurrence se situe aujourd’hui à la limite basse des mini-
ordinateurs, où les micros de haut de gamme ne cessent de progresser. Dans le domaine
des stations graphiques, les particularités des processeurs Risc maintiennent encore une
frontière avec les micro-ordinateurs, mais la fusion imminente des processeurs en un
seul secteur va permettre aux PC de devenir directement concurrentiels. En se
structurant comme le monde du PC, ce nouveau segment combiné des micro-
ordinateurs et des stations acquerra encore plus de vigueur pour concurrencer les
matériels traditionnels, y compris par des multiprocesseurs à base de moteurs bon
marché du commerce. Il existe d’ailleurs déjà dans le haut de gamme des segments
isolés comme celui des grands ordinateurs massivement parallèles ou des serveurs de
fichiers construits à partir de puces standard, qui constituent autant de foyers à partir

40 millions d’instructions par seconde

clvii
desquels le modèle PC se propagera dans toute la gamme des fonctions et des
puissances.

A terme, aucun segment du marché ne sera épargné par cette dynamique. La


fragmentation extrême du secteur des PC s'étendra ainsi à l’ensemble de l’informatique,
Simultanément, la concurrence très vive entraînera une baisse des prix et des marges qui
généralisera à toute l'informatique les pratiques du monde PC, en particulier le rapport
prix/performances caractéristique du monde micro. Anticipant sur cette évolution
prévisible, IBM a d’ailleurs déjà annoncé que toute sa gamme reposerait à terme sur le
PowerPC.

En résumé, les offreurs qui choisissent d’utiliser les composants du marché et de


se limiter à l’assemblage des matériels peuvent concentrer leurs efforts sur la réduction
des prix d’une part, la satisfaction des besoins de segments particuliers d’autre part. Ce
faisant, ils ne cessent d’accroître l’avantage concurrentiel des produits conçus selon ce
modèle et d’en étendre le succès à tout le marché, supplantant ainsi les offreurs
conformes au modèle traditionnel.

La concentration du secteur amont des composants et la standardisation des


microprocesseurs a ainsi pour contrepartie l’extrême dispersion et la diversité du secteur
aval des matériels. Dans ce dernier, chaque attribut du produit ou du système de
distribution devient un facteur possible de différenciation et de concurrence, et de ce fait
un domaine potentiel d'innovation. Les acteurs y sont poussés à innover en permanence,
en identifiant des segments de marché qui présentent des besoins spécifiques et en
développant des produits diversifiés en étroite adéquation avec ces besoins. Tout le
secteur des matériels devient une machine à dénicher et à satisfaire les besoins
particuliers au prix le plus bas possible, ce qui conduit à la fois à une réduction
continuelle des prix, une amélioration des fonctions et des performances, et une
diversification des offres.

Cette dynamique déborde le secteur de l’informatique au sens strict. La baisse


continue du coût des composants conduit à intégrer l'informatique à un nombre
croissant de produits industriels. C'est depuis longtemps le cas pour des objets coûteux
comme les avions, les engins militaires ou certaines machines-outils, plus récemment
pour des appareils plus courants comme les appareils photo, la haute fidélité ou les
automobiles. A l'exemple des calculatrices ou des jeux électroniques, on voit apparaître
des objets nouveaux de nature informatique comme des agendas électroniques ou des
répertoires de poche. Ce phénomène se répandra progressivement dans tous les secteurs,
et tendra à estomper les frontières entre l’informatique et les autres industries.

Un secteur en pleine santé

Cette vision d'un secteur des matériels extrêmement vivant et créatif est à l'opposé
des idées à la mode qui voient dans la crise actuelle les prémices d'un effacement
progressif des constructeurs de matériel derrière les offreurs de logiciel et de services,
voire de leur disparition à terme.

clviii
Ce pronostic défavorable est doublement superficiel. Le secteur des matériels
représente en 1992 plus de 200 Milliards de $ soit 64% du CA total, en croissance de
5.7% par rapport à 91. Même si le secteur des progiciels (12% du total avec 37
Milliards de $) et celui des services (16% avec près de 50 Milliards) croissent plus vite,
le matériel reste de loin le secteur le plus important. En tout état de cause, il est bien
difficile d'imaginer une informatique sans matériels pour l'exécuter, ou des matériels
sans constructeurs pour les produire. Le secteur des matériels n'est aucunement menacé
de disparition.

L’origine de l’erreur réside dans une analyse superficielle des phénomènes de


transition entre la structure ancienne et la nouvelle structure, dont nous parlerons en
détail au Chapitre 15. Trois aspects inhérents à une structure de secteur dispersé sont en
cause. Premièrement, les parts de marché et les profits y sont normalement moins élevés
que dans le secteur concentré qu’était l’informatique traditionnelle, donnant
l’impression d’une régression. Deuxièmement, les positions y sont par nature plus
volatiles et le taux de mortalité des entreprises y est élevé, mais il est compensé par un
taux de natalité également élevé. Enfin, les media exposent largement les difficultés des
grands offreurs traditionnels, qui doivent tout à la fois s’adapter à des parts de marché et
des rentabilités en baisse et souvent abandonner certaines de leurs activités où ils ont
cessé d’être concurrentiels. Mais tout cela n’empêche pas la prospérité de firmes qui
savent agir conformément aux règles de la nouvelle structure sectorielle, sans
nécessairement atteindre des parts de marché qui les rendraient visibles.

En tout état de cause, la santé d’une industrie ou d’un secteur industriel doit
s’apprécier non pas à la seule aisance matérielle des acteurs qui la constituent, mais
principalement selon leur capacité collective à satisfaire la demande du marché. En
outre, les difficultés financières voire la disparition de telle ou telle entreprise ne sont
pas nécessairement des signes de mauvaise santé de l’ensemble de l’industrie. Pas plus
que dans l’étude des espèces vivantes, il ne faut confondre la santé de l’espèce des
constructeurs de matériel informatique avec celle de chaque individu pris isolément.
Mesurée comme il se doit à l’aune de l’introduction de produits nouveaux et à
l’évolution des prix et des performances, l’industrie des matériels informatiques est
éclatante de santé, même si sa nouvelle logique ne lui permet plus les marges
confortables dont jouissaient naguère certains généralistes.

clix
Chapitre 9
La différenciation des entreprises

Des caractéristiques différentes selon l’activité. Les sept S de McKinsey. L’approche


relativiste de Lawrence et Lorsch. Segmentation, différenciation et intégration.
L’incertitude et les limites de la rationalité. Cycles, horizon et culture. Les options de
segmentation et la structure d’ensemble. Segmentation et personnalité. Les
personnalités par secteur. Les conséquences de l’inadéquation.

Dans les deux chapitres précédents, nous avons vu que des productions différentes
par leur structure de coûts donnent naissance à des structures sectorielles différentes :
secteur concentré quand le ratio des coûts fixes aux coûts variables unitaires est élevé,
secteur dispersé dans le cas inverse. Le secteur des matériels apparaît alors comme un
secteur hétérogène, à l’intérieur duquel la fabrication des composants d’une part,
l’assemblage des matériels d’autre part obéissent à des logiques de production et à des
dynamiques concurrentielles radicalement différentes. La structure des coûts de
production, et singulièrement le rapport des coûts fixes aux coûts variables, jouent un
rôle fondamental en déterminant le degré de concentration, le potentiel de profitabilité
et la diversité du secteur, ainsi que la viabilité des choix stratégiques ouverts à chacun
des acteurs. Nous verrons plus tard comment ces mêmes considérations s’appliquent
aux activités de logiciel et de services prises isolément.

Auparavant, nous allons compléter cette distinction entre secteurs concentrés et


secteurs dispersés en recherchant dans quelle mesure des différences entre formes de
production peuvent entraîner des différences dans les caractéristiques internes des
entreprises. Il est par exemple probable que les méthodes de gestion et les qualités
requises pour réussir dans un secteur concentré sont différentes de celles qui permettent
de réussir dans un secteur dispersé. Si tel est bien le cas, une même firme pourra
difficilement opérer avec succès dans les deux environnements à la fois, et il existera
donc des incompatibilités entre prestations de natures différentes.

Le survol de l’ensemble de l’industrie informatique, que nous avons effectué dans


les cinq premiers chapitres, nous laisse supposer que les paniers de prestations des
différentes firmes ne s’organisent pas au hasard. Certaines combinaisons sont très
fréquentes, d’autres très rares, et l’industrie dans son ensemble s’organise autour d’un
petit nombre de modèles d’entreprise. Des offreurs traditionnels généralistes, c’est à
dire diversifiés et intégrés, coexistent aujourd’hui avec un nouveau monde du PC
essentiellement formé de firmes spécialisées. Le modèle généraliste est le plus ancien,
mais aussi le moins nombreux et celui qui comporte le plus d’entreprises en difficulté.
On constate également que les quelques firmes réellement mixtes, c’est à dire dont
l’offre est formée à parts voisines de prestations de nature différente, sont toujours
moins performantes que les firmes spécialisées dans chacune des composantes de leur
offre. D’une façon générale, l’ensemble de l’industrie informatique évolue vers une
spécialisation plus poussée des entreprises, et non vers la diversification de leur offre et

clx
l’intégration verticale des étapes de fabrication, contrairement aux conceptions
habituelles des économistes.

Ces questions de diversification et d’intégration sont en général abordées de façon


purement quantitative à partir d’une comparaison des avantages et des coûts respectifs,
et en supposant implicitement que rien ne s’oppose a priori à ce que des productions
variées coexistent de façon efficace au sein de la même organisation. Nous pensons au
contraire que pour réussir dans des productions de nature différente, les entreprises
doivent posséder des qualités suffisamment différentes pour rendre incompatibles
certains types de produits au sein d’une même organisation, au point que les entreprises
qui tentent malgré tout ces combinaisons de produits échouent nécessairement à être
concurrentielles dans l’un ou l’autre, voire dans la totalité des marchés concernés.

En cherchant systématiquement, pour chaque type élémentaire de production, à


identifier quelles caractéristiques des entreprises sont liées au succès concurrentiel dans
les secteurs correspondants, nous pourrons aborder les problèmes liés à la coexistence
de productions différentes dans une même entreprise. Nous éclairerons ainsi les aspects
de la structure industrielle qui concernent la diversification ou la spécialisation des
entreprises, l’intégration ou la « dés-intégration » des productions. Les offreurs intégrés
traditionnels vont-ils continuer leur mouvement de dés-intégration ? L’industrie
informatique va-t-elle conserver les spécialisations actuelles, évoluer vers de nouvelles
combinaisons comprenant par exemple une forte composante de services comme les
commentateurs l’annoncent souvent, ou au contraire se spécialiser encore plus ?

La personnalité des entreprises

Porter avait déjà noté que des stratégies différentes demandent des qualités
différentes et incompatibles. Une stratégie reposant sur le contrôle des coûts exige une
supervision constante à des niveaux très détaillés, des objectifs quantitatifs stricts et une
psychologie qui valorise le sens de l’économie. Au contraire, une stratégie reposant sur
les qualités du produit exige d’encourager la créativité et l’autonomie individuelle par
un système de mesure plutôt qualitatif, et par un style général propre à attirer des
professionnels de haut niveau. A ces stratégies correspondent des personnalités
d’entreprise incompatibles, au point qu’une entreprise qui négligerait de choisir
clairement entre les deux serait vouée à l’échec, ce que Porter appelle « enlisement dans
la voie médiane ».

clxi
Facteurs Stratégiques

stratégie "produits" stratégie "coûts"

Investissements recherche production


Compétences recherche production
vente distribution
Culture créativité économie
risque discipline
vision sens du détail

Organisation souple hiérarchique

Mode Gestion délégation contrôle central


Motivations long terme court terme
Objectifs qualitatifs quantitatifs

Si de telles différences se rencontrent dans un même secteur d’activité entre


firmes qui choisissent des stratégies différentes, on peut s’attendre a fortiori à ce que les
qualités qui font le succès des entreprises soient radicalement différentes selon qu’elles
opèrent dans un secteur concentré ou dans un secteur dispersé.

Par exemple, dans la production de composants, il s’écoule une durée importante


entre les décisions de conception d’une nouvelle puce et d’investissement dans de
nouvelles lignes de production d’une part, la mise sur le marché et la production de
revenu pas ces mêmes puces d’autre part. Les décisions courantes engagent dans
l’immédiat des investissements lourds, et entraînent des conséquences lointaines qui
seront devenues irréversibles quand on pourra les constater. Il est donc vital de faire
apparaître tous les problèmes potentiels le plus tôt possible, de leur trouver des solutions
par avance. Pour cela, il faut expliciter des plans à long terme, les soumettre à la
critique, encourager les conflits tant que les décisions ne sont pas irréversibles, et
disposer d’un système de gestion des conflits assez efficace pour produire des résultats
positifs.

Un tel système de gestion est nécessairement coûteux en ressources, car


l’entreprise passe un temps appréciable à résoudre par avance des problèmes qui ne se
poseront peut-être jamais dans la réalité. Ces réflexions demandent des délais qui ne se
conçoivent que dans des activités à cycle long où on a du temps devant soi, mais
peuvent également introduire par elles-mêmes des retards dans l’aboutissement des
projets. Ce mode de fonctionnement implique une culture d’entreprise où l’expression
des désaccords est encouragée tant que le débat reste ouvert, mais où tout le monde doit
se ranger derrière les décisions de l’entreprise quand elles sont arrêtées. C’est par
exemple l’image du système de gestion traditionnel d’IBM jusque dans les années 80.

Au contraire, dans l’activité d’assemblage de matériels, le cycle de


développement et de production est court, et une décision qui se révélerait
insatisfaisante à l’épreuve du marché peut être corrigée rapidement. Les décisions
courantes engagent donc relativement peu l’avenir. De plus, arriver le premier sur un

clxii
nouveau marché, offrir le premier un nouveau produit et opérer au moindre coût sont
autant d’avantages concurrentiels qui peuvent être déterminants. Une stratégie possible
est donc de consacrer aux études préliminaires aussi peu de temps et d’efforts que
possible, et de laisser le marché porter un jugement sur les produits. Dans la mesure
précisément où les investissements spécifiques ont été faibles et où un produit nouveau
peut être rapidement mis sur le marché en cas d’échec du précédent, cette stratégie peut
être gagnante sur un marché très mobile.

Le système de gestion correspondant doit laisser la bride sur le cou à l’innovation


tout en limitant sévèrement les investissements préliminaires, mais mesurer en temps
réel la réponse du marché et la rentabilité de chaque produit. La culture d’entreprise doit
valoriser le profit à court terme, l’audace dans l’innovation mais aussi la soumission aux
caprices du marché et la capacité de réagir immédiatement aux signaux externes, y
compris pour abandonner sans états d’âme les produits qui ne rencontrent pas le succès
espéré. On devine qu’une entreprise bien adaptée à l’une de ces deux activités sera ipso
facto mal adaptée à l’autre.

Les Sept S de McKinsey

Pour analyser les caractéristiques internes des entreprises, qui gouvernent leur
comportement et forment en quelque sorte leur personnalité, nous utiliserons le modèle
des « sept S’s » proposé par McKinsey . Dans cette représentation, les constituants de la
41

personnalité de l’entreprise sont :


–la stratégie (Strategy), ensemble de plans et de règles d’action préparés pour
atteindre les objectifs de la firme,
–la Structure, qui définit l’affectation et l’articulation des responsabilités à
l’intérieur de la firme,
–les systèmes de gestion et les procédures (Systems), c’est à dire les mécanismes
formels d’information et de prise de décision,
–le Style, c’est à dire les habitudes et les modes de comportement qui prévalent à
l’intérieur et à l’extérieur de l’entreprise,
–les personnels (Staff)
–les compétences et le savoir-faire (Skills)
–les valeurs partagées, les modèles de comportement, les références communes
(Shared Values).

Un thème central du livre de Peters et Waterman est que les facteurs les plus
informels (« soft ») et les moins directement contrôlables, c’est à dire ceux qui
constituent les valeurs partagées, la culture et le style de management, sont aussi ceux
qui ont la plus grande influence sur le comportement des personnes et donc le succès de
la firme. Un rôle essentiel du management consiste donc à modeler indirectement la
culture d’entreprise et le style de management à travers son propre comportement et par

41 Peters TJ, Waterman RH : In Search of Excellence (Harper & Row, 1982)

clxiii
des actions de nature symbolique, plus que d’intervenir directement dans les décisions.
Cette vue s’oppose à celle de l’école rationaliste incarnée par Taylor.

Notre propos n’est pas de résumer cet ouvrage, qui a eu en son temps un assez
grand retentissement et a soulevé de nombreuses critiques. Pour certains chefs
d’entreprise, il ne fait qu’expliciter leur expérience quotidienne. Pour d’autres au
contraire, ses thèses relèvent de la rêverie et sont dangereuses pour l’entreprise. Nous
pensons que la diversité des réactions s’explique en partie par le fait que le poids relatif
de chacun des Sept S dans le succès de l’entreprise varie selon le type d’activité, ce que
nous cherchons précisément à montrer, et que Peters et Waterman n’ont pas abordé dans
leur ouvrage. Autrement dit, certaines formes d’activité demandent une forte
implication de chaque collaborateur et peuvent largement se passer de systèmes
formalisés, alors que d’autres exigent des systèmes de contrôle très rigoureux qui font
passer au second plan les motivations individuelles. Nous reviendrons plus loin sur cette
idée.

Organisation, culture et personnalité

Les facteurs « Staff » et « Skills », c’est à dire l’inventaire du personnel et de ses


compétences, décrivent en quelque sorte la matière brute de l’entreprise, alors que les
autres facteurs sont le ciment qui unit les personnes autour d’objectifs communs et en
fait une entreprise plutôt qu’une foule amorphe. Il est clair que l’activité de l’entreprise
dicte la nature des compétences qui doivent y être présentes, et qu’ainsi les compétences
caractérisent d’une certaine façon un métier. Mais ce qui nous intéresse, c’est de voir
comment des organisations ou des cultures différentes peuvent être associées à des
formes de production différentes, et à la limite différencier deux firmes dotées à la base
de personnels de compétences identiques en deux entreprises de métiers différents. Par
exemple, une entreprise de progiciel et une société d’assistance à la programmation sont
toutes deux formées de programmeurs, mais diffèrent par leur organisation et leur
culture. En ce sens, le métier de l'entreprise est distinct du métier des individus qui la
composent.

Par ailleurs, toute entreprise regroupe des personnels de différentes compétences,


comme des ingénieurs, des commerçants et des comptables. On pourrait donc penser
qu’il doit être toujours possible de faire coexister les personnels et les compétences
nécessaires à n’importe quelle combinaison de prestations. S’il doit y avoir
incompatibilité ou conflit, il faut en rechercher l’origine dans le style ou les valeurs
propres à chacune des populations concernées.

Comme la structure et les systèmes de gestion, la stratégie est par excellence le


domaine de la Direction. Néanmoins, nous ne la considérerons pas comme une
caractéristique intrinsèque de l’entreprise, mais plutôt comme un outil de gestion
permettant de rassembler un ensemble de décisions en un tout cohérent éclairé par une
perspective à long terme. Pour jouer un rôle utile, la stratégie doit nécessairement
s’incarner par des décisions opérationnelles ou des actions relevant des autres domaines,
par exemple une politique de recrutement qui affectera les facteurs « staff » et « skills ».
Elle peut aussi se concrétiser dans le choix d’une structure et de systèmes de
management.

clxiv
Dans la plupart des entreprises, la structure et les systèmes font l’objet de
descriptions formelles établies sous le contrôle de la Direction et publiées sous forme
d’organigrammes et de manuels de procédure. La conformité à ces descriptions est
contrôlée en permanence, quelquefois par des services spécialisés d’audit, et tous les
changements font l’objet d’études approfondies et d’actions de mise en œuvre
spécifiques. Structure et systèmes forment donc des composantes très formalisées de la
personnalité de l’entreprise, placées sous le contrôle direct et explicite de la Direction.

Nous appellerons organisation d’une entreprise la combinaison de sa structure et


de ses systèmes d'information et de management, qui déterminent les modalités de prise
de décision et d'exécution des décisions. Systèmes et structure sont fortement
interdépendants. La structure est l’anatomie de l’entreprise ; elle dit comment
l’entreprise est construite et comment sont affectées les tâches et les responsabilités. Les
systèmes en sont la physiologie ; ils disent comment l’entreprise fonctionne et quels
sont ses processus de décision et d'information. En elle-même, la structure définit par
défaut un système hiérarchique qui peut être suffisant dans une petite entreprise simple.
Dans une organisation plus complexe, des systèmes sont nécessaires pour définir en
plus les relations horizontales entre pairs, les relations transversales entre unités
lointaines et les processus globaux (« business processes »).

Les sept S revisités

Secteur Strategy

Staff Structure Systems Organisation

Shared
Skills
Values
Style Culture

Contrairement à l’organisation, les valeurs partagées et les styles de


comportement se forment essentiellement par l'effet involontaire et inconscient de
l'histoire de l'entreprise. A aucun moment la culture ne peut faire l’objet d’une décision
globale. Tout au plus la sélection des personnes à l’embauche peut-elle privilégier un
certain mode de pensée et de comportement, et le système de récompenses et de
sanctions peut-il jouer un rôle de conditionnement interne à l’entreprise. Mais c’est
l’histoire accumulée de la firme qui crée les légendes, les héros et les méchants,
autrement dit la mythologie par laquelle s’exprime le système de valeurs et sur laquelle
se modèlent les comportements des individus.

clxv
Nous appellerons culture de l’entreprise la combinaison de son style et de ses
valeurs, c'est à dire l’ensemble de références, de valeurs partagées et de normes de
comportement qui gouvernent, consciemment ou inconsciemment, les actions de chaque
individu y compris les dirigeants et tous les autres responsables, et sur lesquels la
Direction n’a qu’une influence indirecte et limitée. L'organisation et la culture forment
ensemble la personnalité de l'entreprise.

L’approche relativiste de l’organisation

Considérons d’abord le niveau de l’organisation, qui a donné lieu à de très


nombreux travaux et à de multiples théories souvent contradictoires. Dans leur immense
majorité, ces travaux se préoccupent de définir des lois ou des règles empiriques
applicables à toutes les entreprises dans toutes les situations, quelle que soit en
particulier la nature de leurs productions. Cette orientation revient à postuler que les
règles d’organisation sont indifférentes à la nature de l’activité de l’entreprise.

Plusieurs auteurs ont contesté ce postulat à partir des années 60, mais il a fallu
attendre 1967 pour que soient exprimées et développées dans l’ouvrage maintenant
classique de Lawrence et Lorsch les idées fondatrices de l’école « relativiste » ou « de
42

la contingence », pour laquelle il n’existe pas d’organisation ni de système de


management qui soit meilleur que les autres quelles que soient les circonstances. Pour
Lawrence et Lorsch, « le type d’organisation requis varie suivant la nature des biens ou
services fournis, les moyens mis en œuvre et l’environnement économique à un moment
donné », et la question à laquelle leurs travaux cherchent à répondre est « quelle sorte
d’organisation doit-on choisir en fonction des variables économiques et des conditions
du marché ? ».

C’est sur ces travaux que nous nous appuierons dans la suite, pour deux raisons
essentielles. Premièrement, en tout état de cause, la théorie relativiste nous semble seule
conforme à la réalité de l’expérience des dirigeants qui ont eu l’occasion de connaître
des environnements suffisamment différents. En second lieu, la présentation et les
éléments d’explication proposés par Lawrence et Lorsch forment une bonne base pour
notre propos, qui est de caractériser les formes organisationnelles les mieux adaptées
aux différents secteurs d’activité.

La segmentation et la différenciation

L’organisation a pour objet de distribuer le travail de l’entreprise de façon efficace


entre les employés de l’entreprise ou de l’unité concernée. On peut la représenter en
première analyse comme une répartition des activités, des ressources et des
responsabilités de chaque unité entre des sous-unités de niveau inférieur, ce processus
de fractionnement se déroulant de façon récursive à partir du niveau global de
l’entreprise, jusqu’à ce que les unités élémentaires deviennent indivisibles en se
réduisant à un individu ou un équipement élémentaire.

42 Lawrence PR, Lorsch JW : Organization and environment (Richard Irwin, 1967)

clxvi
Ce fractionnement, que la plupart des auteurs appellent segmentation, conduit à
créer une hiérarchie d’unités, dotées chacune de ressources et de responsabilités, et où
les responsabilités de chaque unité sont la réunion des responsabilités des sous-unités
qui la composent.

La segmentation, en introduisant des différences d’activités et d’objectifs entre les


unités, induit également des différences d’attitudes et de comportement. Outre les
objectifs eux-mêmes, ces différences concernent principalement :
–l’« orientation temporelle », c’est à dire la façon dont les cadres projettent leurs
actions dans le temps, en particulier le poids relatif du court terme et du long terme,
–l’« orientation interpersonnelle », c’est à dire l’importance relative accordée par les
cadres à l’exécution des tâches d’une part, aux relations avec leurs collègues d’autre
part.

Cet ensemble de différences induit à son tour des différences dans l’organisation
interne de chaque unité, telle qu’elle résulte du niveau suivant de segmentation.

Différenciation et incertitude

incertitude faible incertitude élevée

Pouvoir dirigeants réparti

Structure stricte souple

Nb de niveaux élevé faible

Procédures formelles indicatives

Objectifs court terme long terme

Relations centrées sur les centrées sur les


tâches personnes
Type d'
Organisation mécaniste organique

De leurs études expérimentales, Lawrence et Lorsch dégagent la conclusion que


les différences d’objectifs, d’orientation temporelle et interpersonnelle, ainsi que
d’organisation interne, constatées entre unités, s’expliquent par trois critères : la clarté
de l'information disponible pour les décisions, la probabilité des relations causales qui
relient les décisions à leurs conséquences, et le temps de réponse de l'environnement
aux actions de l’unité. Ces trois facteurs caractérisent le degré d'incertitude de
l’environnement dans lesquels évolue l’unité. Dans un environnement relativement
certain, les objectifs à court terme dominent, les collaborateurs sont plus motivés par
l’exécution correcte de leurs tâches que par les relations personnelles, et l’organisation
tend à être très formelle ; au contraire, dans un environnement incertain, les objectifs
sont à long terme, la qualité des relations personnelles devient une motivation
importante, et l’organisation est plus informelle.

clxvii
L’intégration

Pour que l’organisation fonctionne correctement, les activités de ses différentes


unités doivent être intégrées grâce à des mécanismes de coordination. D’une façon
générale, le besoin d'intégration croît avec le niveau de différenciation des unités
concernées, mais les dispositifs d’intégration ne sont pas nécessairement formels. Ils
peuvent emprunter exclusivement la voie hiérarchique ou reposer sur des contacts
directs entre unités. Leur mise en œuvre peut n’impliquer que les représentants des
unités concernées, ou être confiée à des unités d’intégration spécialisées. Les méthodes
de résolution des conflits peuvent être diverses : confrontation, éludation, arbitrage,
décisions imposées par la hiérarchie, etc. Par exemple, des unités qui auraient en
commun, malgré la différenciation de leurs objectifs, une culture favorisant le dialogue
et une forte adhésion aux objectifs généraux de l’entreprise, auraient probablement une
tendance naturelle à résoudre leurs conflits par contact direct sans avoir besoin de
procédures formalisées.

Les mécanismes d’intégration sont efficaces lorsque chacune des décisions de


résolution des conflits est prise au point de l’organisation où sont réunis le pouvoir de
faire appliquer la décision, l’information nécessaire et la compétence nécessaire à la
prise de décision. Le niveau de décision optimal varie donc selon les situations,
l’origine et la volatilité de l’information, la complexité et le degré de spécialisation des
activités concernées, etc. Pour Lawrence et Lorsch, « dans les environnements les moins
incertains, les conflits doivent être liquidés et l’intégration atteinte aux niveaux les plus
élevés par la voie hiérarchique ; dans les plus incertains, ce doit être aux plus bas
niveaux de commandement ». Cette différence explique les différences entre les
personnalités les mieux adaptées à l’environnement.

Au total, une organisation est adaptée à sa mission et à son environnement si


d’une part son niveau de différenciation est suffisant pour lui permettre d’exécuter
correctement sa stratégie compte tenu des incertitudes de l'environnement, et si d’autre
part son niveau d'intégration est à la mesure de son niveau de différenciation.
L’entreprise pourra alors non seulement fonctionner de façon efficace dans son
environnement, mais aussi trouver les réponses correctes pour s’adapter aux évolutions
de l'environnement.

Les conclusions de Lawrence et Lorsch réconcilient les thèses traditionnelles et


celles de l’école des relations humaines en constatant que l’organisation hiérarchique
autocratique recommandée par l’école classique est adaptée aux environnements stables
et certains, tandis que l’organisation souple et participative prônée par les seconds est
adaptée à des environnements changeants et incertains.

Incertitude, organisation et culture

Rapprochons les concepts de segmentation, différenciation et intégration du


modèle des Sept S que nous avons présenté ci-dessus.

La démarche qui conduit à l’organisation d’une entreprise peut se schématiser


comme suit. A chaque niveau successif, en descendant à partir du sommet de

clxviii
l’entreprise, la Direction prend des décisions de segmentation, qui créent des unités de
rang immédiatement inférieur, dotées chacune d’objectifs spécifiques et d’un
environnement local. La spécificité des objectifs et des environnements entraîne une
différenciation culturelle entre les unités, dont la Direction doit tenir compte dans la
mise en place des dispositifs formels d’intégration qui constituent le système de
management. Dans la mesure où les unités ainsi constituées doivent se segmenter à leur
tour, leur culture propre et leur environnement local interviendront dans leurs décisions
d’organisation, éventuellement de façon conflictuelle avec la culture des échelons
supérieurs.

La segmentation résulte de décisions de direction conscientes et contrôlées. Elle


définit la structure au sens des 7S. Par contre, la différenciation se forme spontanément
dans chaque unité en fonction de sa définition formelle par la segmentation d’une part,
de son environnement d’autre part. La différenciation est donc de nature culturelle.

Le mécanisme de segmentation, en affectant à chaque unité des missions


spécifiques, lui confie le soin d’une partie spécifique de l’environnement externe, tandis
que pour chacune des unités, les autres unités forment un environnement interne à
l’entreprise. L’environnement caractéristique d’une unité se compose ainsi de tout ou
partie de l’environnement externe à l’entreprise, des autres sous-unités et de l’échelon
supérieur commun aux sous-unités de même niveau. L’environnement interne comporte
généralement une part conventionnelle plus ou moins formalisée constituée par des
normes, des standards, des procédures, … définies par l’échelon supérieur ou les autres
sous-unités. Par exemple, le catalogue de produits est un élément de décision pour
l’entreprise, alors qu’il fait partie de l’environnement de son service commercial.

Les mécanismes de coordination peuvent être plus ou moins formels. Leur part
formalisée constitue les systèmes au sens des 7S, tandis que leur part informelle relève
de la culture. Autrement dit, les systèmes de management peuvent être définis comme la
partie formelle des mécanismes de coordination, tandis que la culture regroupe en
particulier l’orientation temporelle, qui dépend du cycle de l’activité, l’orientation
interpersonnelle et la part informelle des mécanismes de coordination.

Bien qu’ils aient noté que « le type d’organisation requis varie suivant la nature
des biens ou services fournis... », Lawrence et Lorsch ont surtout pris en compte
l’influence de l’environnement externe et de la fonction dans l’entreprise (recherche,
vente, production...), et se sont peu occupés de rattacher l’organisation aux biens et
services produits. Nous nous proposons de montrer maintenant comment l’organisation
et la culture d’une entreprise sont influencées par les caractéristiques de sa production,
en particulier :
–la relation temporelle entre les dépenses et les recettes, c’est à dire la durée des
cycles fondamentaux de production,
–l’échelle de production, dont nous avons montré qu’elle dépend du rapport des frais
fixes aux frais variables.

Autant qu’à l’environnement, les facteurs de différenciation se rattachent à la


nature de l’activité de l’unité ou de la firme. Deux firmes évoluant dans le même
environnement mais dont les cycles de production sont différents peuvent avoir des

clxix
orientations temporelles différentes. En effet, « l’orientation temporelle est liée au temps
de réponse des résultats définitifs » , c’est à dire au délai nécessaire pour connaître le
43

résultat réel des décisions qu’on a prises. Nous verrons plus loin que ce délai, qui
constitue en quelque sorte la portée temporelle des décisions ou l’horizon de
l’organisation, est une bonne expression de l’incertitude, et contribue fortement à
modeler l’organisation et la culture des entreprises.

Les limites du modèle rationnel

La plupart des théories, qu’il s’agisse d’organisation, de gestion ou d’économie,


reposent explicitement ou implicitement sur une image de l’« Homme Rationnel ». Au
moment de prendre une décision, celui-ci est supposé connaître l’ensemble complet des
possibilités d’action parmi lesquelles il choisira son acte. Deuxièmement, les
conséquences des différentes actions possibles sont connues avec certitude au moment
de la décision, ou à tout le moins peuvent être affectées de coefficients de probabilité.
Lorsque l’incertitude est prise en compte, c’est en affectant les valeurs futures de
coefficients d’ajustement qui les rendent équivalentes à des valeurs actuelles certaines.
Troisièmement, celui qui choisit peut, dés le moment de la décision, classer toutes les
séries de conséquences possibles des plus souhaitables aux moins souhaitables.
L’« Homme rationnel » est alors censé prendre chacune de ses décisions en comparant
entre elles les conséquences des diverses actions possibles. Les théories de la décision
peuvent se concentrer sur les techniques de comparaison entre les décisions
concurrentes.

Or l’expérience de la vie des entreprises n’est pas conforme à ce modèle rationnel.


D’une part, un très grand nombre de décisions sont prises sans analyse détaillée, de
façon en quelque sorte réflexe. Dans chaque organisation existent des schémas d’action
préétablis liés à certaines situations ou problèmes plus ou moins récurrents, et ces
schémas sont exécutés lorsque les symptômes perçus ressemblent suffisamment aux
symptômes répertoriés. Lorsque ces schémas sont explicites, ils font le plus souvent
partie du système de management de l’entreprise. Ils peuvent aussi être implicites voire
inconscients et faire alors partie de la culture.

D’autre part, dans la vie réelle, ni les coûts ni les bénéfices d’une décision ne
peuvent être connus avec certitude au moment où cette décision doit être prise. Leurs
valeurs et les probabilités attachées aux conséquences des actions ne représentent que
des estimations fortement subjectives. Enfin, il est généralement admis que « la plupart
des prises de décision humaines se rapportent à la découverte et à la sélection de choix
satisfaisants et non de choix optimaux » . 44

Ces phénomènes expliquent la place relativement modeste de la pure rationalité


économique dans la réalité de la vie industrielle, et limitent considérablement l’intérêt
pratique des modèles mathématiques élaborés, ainsi que leur pertinence dans
l’explication des phénomènes micro-économiques. Ils donnent en revanche une place

43 Lawrence et Lorsch, op cit


44 March JG, Simon HA : Les Organisations (Dunod, 1969) - traduction de « Organizations » (John
Wiley and Sons, 1958)

clxx
primordiale aux facteurs culturels qui forment la personnalité de l’entreprise dans son
fonctionnement quotidien. En effet, les décisions réflexes sont déterminées par des
règles empiriques, des consignes et des échelles de valeurs qui appartiennent pour
l’essentiel à la culture du décideur. Lorsqu’elles sont le résultat d’un travail conscient de
la Direction, ces règles et ces valeurs peuvent exprimer une rationalité conforme aux
intérêts de l’entreprise. Mais elles peuvent aussi bien en être indépendantes, et restent de
toute façon de nature générale et essentiellement qualitative.

Pour les décisions les plus importantes, qui font l’objet d’une étude spécifique, les
facteurs culturels interviennent encore pour éliminer d’emblée les lignes d’action qui ne
seraient pas conformes à la personnalité de l’entreprise telle qu’elle est perçue par les
décideurs. Enfin, même pour les actions dont les conséquences peuvent être exprimées
sous forme de flux financiers, la décision ne peut reposer sur la connaissance exacte de
flux certains, mais seulement sur des prévisions de dépenses et de recettes, affectées
toutes deux d’un coefficient d’incertitude. Toute décision comporte un risque qui ne
peut être apprécié que de manière subjective.

Certes, le décideur prudent chargera des experts de lui préparer les prévisions
aussi élaborées et aussi argumentées que possible. Ceux-ci peuvent même avoir la
sagesse de les présenter sous forme de plages de variation ou de scénarios alternatifs
assortis de coefficients de probabilité (qui leur sont largement dictés par leur propre
subjectivité). Il n’en reste pas moins qu’à l’instant de la décision, le responsable se
détermine à partir de sa propre intuition de ce qui est pour lui le plus probable. Sa
décision doit au moins autant à ses préjugés, à son expérience, à ses souhaits ou à son
affectivité qu’au raisonnement économique. Confrontés à des choix identiques, les
responsables ne prendront pas les mêmes décisions dans une organisation dont la culture
valorise la prise de risque et dans une organisation qui pousse à la prudence, ou dans
une organisation qui exalte la responsabilité individuelle et une autre qui prône la
responsabilité partagée.

Si les conséquences d’une décision pouvaient être connues avec certitude, la


décision deviendrait automatique à partir du moment où l’information serait disponible.
A condition que les objectifs de l’entreprise soient clairs pour tous, la décision serait la
même quel que soit le point où elle serait prise. Outre son aspect hiérarchique,
l’organisation se réduirait à un problème de circulation de l’information, et les
différences culturelles éventuelles seraient sans importance.

Dans la réalité au contraire, l’organisation doit se préoccuper à la fois de préciser


qui doit intervenir dans chacune des décisions, et donc y faire intervenir sa culture
personnelle, et de faire en sorte que la culture de chacun soit cohérente avec la
rationalité de la firme dans le domaine où il aura à intervenir. La qualité de
l’organisation et la validité de la culture conditionnent donc la pertinence et l’efficacité
des décisions et des actions de l’entreprise. En particulier, en cas de changement dans la
stratégie ou l’environnement, la personnalité acquise par une entreprise continue à lui
dicter une part importante de sa conduite, même si une analyse rationnelle conduirait à
adopter une conduite significativement différente.

clxxi
Recettes, dépenses et incertitude

Puisqu’il faut admettre que presque toutes les décisions de l’entreprise reposent
sur des données incertaines et comportent un risque réel d’erreur, il faut attacher une
importance primordiale aux possibilités de corriger une décision lorsqu’il apparaît que
ses conséquences réelles ne sont pas conformes aux prévisions ou aux attentes qui
l’avaient motivée. Ceci soulève deux questions : comment se crée l’information qui
permet de mesurer les conséquences réelles d’une décision ? et dans l’hypothèse où une
décision se révèle incorrecte, que peut-on faire à ce moment là pour la corriger ? Ces
deux questions renvoient à la relation temporelle entre la formation des dépenses et la
formation des revenus, dont nous avons évoqué au Chapitre 5 l’importance dans les
possibilités de réaction de l’entreprise à la conjoncture.

Outre que, pour une décision ou un produit donné, la réalité des coûts (le flux de
dépenses) comme celle des bénéfices (le flux de recettes), sont toutes deux inconnues au
moment de la décision, il se trouve que pour la plupart des décisions, les dépenses
doivent être engagées en partie avant que les recettes correspondantes ne soient
acquises. Autrement dit, les dépenses précèdent chronologiquement les recettes. En ce
sens, presque toutes les décisions importantes de l’entreprise impliquent donc des
investissements, même si le vocabulaire comptable réserve cette dénomination aux
dépenses dont les bénéfices attendus se situent dans des exercices comptables ultérieurs.

Au niveau d’un produit et par rapport au cycle de production habituel qui mène de
la recherche au développement, à la production et à la commercialisation, les flux de
dépenses se situent à tous les stades, les flux de recettes seulement à celui de la
commercialisation. De plus, les dépenses résultent d’une décision unilatérale de
l'entreprise, même si leur montant exact peut dépendre de facteurs extérieurs. Les
recettes, par contre, dépendent non seulement de la qualité et du prix du produit, dont
l’entreprise a le contrôle, mais aussi de facteurs extérieurs tels que la conjoncture, les
actions des concurrents, les décisions des clients, etc. Les coûts sont immédiats et quasi
certains alors que les bénéfices sont au moins en partie futurs et incertains. Autrement
dit, les décisions ont en général un premier effet direct sur les dépenses, tandis que leur
effet sur les recettes est indirect, aléatoire et tardif. On contrôle les dépenses, on espère
les recettes.

Pour les décisions relevant de cycles courts, leurs conséquences apparaissent


rapidement, et il existe des moyens d’agir rapidement sur les dépenses sans entraîner de
conséquences à long terme. Pour les cycles longs au, contraire, les conséquences
apparaissent longtemps après la décision, alors que beaucoup de dépenses ont déjà été
encourues, sur lesquelles il est trop tard pour agir. Quelles que soient les modalités des
nouvelles décisions prises pour corriger l’effet des décisions antérieures, elles ne
pourront en aucun cas annuler ces dépenses. Au contraire elles entraîneront le plus
souvent dans un premier temps de nouvelles dépenses tout aussi irrécupérables, dont les
fruits éventuels ne seront à leur tour connus qu’au bout d’un délai qui peut se chiffrer en
mois ou en années.

L’horizon d’une décision peut être défini comme le temps nécessaire pour en
constater les conséquences, ou plus précisément pour comparer ses conséquences réelles

clxxii
aux prévisions qui l’ont motivée. Une décision peut en effet s’appuyer sur des
prévisions pluriannuelles, et bien que certaines de ses conséquences apparaissent
rapidement, ce n’est alors qu’après quelques années qu’il est possible de juger si les
prévisions qui la motivaient sont validées.

Cycles, organisation et culture

Un type de production ou une activité peut être caractérisée par la durée du plus
long des cycles qui la gouvernent. Par exemple, dans les activités fonctionnelles, la
vente est une activité à cycle court et la R&D une activité à cycle long. Le cycle propre
de l’activité de production est très variable selon les types de production. Il peut être
aussi court que le cycle de vente pour les services de conseil ou d’assistance ou encore
l’assemblage de matériels. Il peut être très long pour la fabrication de composants, le
développement de logiciels ou les services de télécommunications ou de traitement.

Plus le cycle d’une activité est long, ou plus son horizon est lointain, et plus
l’environnement est évolutif, plus incertaines sont les décisions. En effet, chaque
décision s’appuie largement sur les conséquences observées des décisions passées
similaires. Si le cycle est court et l’environnement stable, les conséquences des
décisions récentes seront connues et constitueront une bonne base de prévision pour les
nouvelles décisions. Si au contraire le cycle est long, ou si l’environnement est
changeant, les conséquences des décisions passées seront ou bien encore inconnues, ou
bien trop anciennes pour servir de référence dans le nouvel environnement, et les
décisions courantes devront être prises dans une situation de grande incertitude. La
durée du cycle d’une activité est donc un facteur déterminant de l’incertitude au sens de
Lawrence et Lorsch, et donc de la différenciation entre unités.

Horizon et culture
cycles courts cycles longs
résultats proches des décisions résultats éloignés des décisions
responsabilités claires responsabilités diffuses

réalisme vision
réactivité planification
contrôle confiance
ajustement persévérance

organisation mécaniste organisation organique


type L type T

ventes R&D

assemblage de matériel composants, progiciels


conseil, assistance services de télécommunications

Dans une unité à cycles courts, les résultats sont proches des décisions, et de ce
fait les responsabilités sont claires. Les erreurs éventuelles peuvent être corrigées sans
délai, et pour autant que les responsables soient attentifs aux réactions du marché et
agissent rapidement en cas de problème, le marché lui-même peut servir de moyen de

clxxiii
contrôle opérationnel. La clé de la bonne gestion est d’ajuster en permanence les coûts
aux revenus réels.

Au contraire, dans une unité à cycles longs, les résultats sont éloignés des
décisions et les responsabilités diffuses. Les erreurs peuvent difficilement être corrigées,
et de toute façon lentement. Il est donc vital d’en commettre le moins possible, et pour
cela de procéder à des études internes assez poussées pour analyser correctement les
besoins, les opportunités, les risques et les différentes lignes de conduite envisageables.
La sanction du marché intervient trop tard dans le cycle pour que le marché puisse
servir de base au contrôle opérationnel. La clé de la réussite est de commettre moins
d’erreurs stratégiques que les concurrents. Ce souci risque d’être coûteux en contrôles,
vérifications et assurances diverses, et entraîner des réactions plus lentes aux aléas de
l’environnement.

Personnalités et structure

Examinons maintenant l’influence de l’activité de l’entreprise sur les décisions de


segmentation qui définissent sa structure d’ensemble en répartissant les activités, les
ressources et les responsabilités de chaque unité entre des sous-unités de niveau
inférieur.

Dans l’ensemble de l’entreprise, l’organisation résulte de l’application récursive


du processus de segmentation depuis le sommet jusqu’aux individus. A chaque niveau,
la segmentation peut être « homogène » si chacune des sous-unités a des activités
homologues à celles de l’unité globale mais un domaine d’action réduit (la
généralisation de la segmentation spatiale ou d’une organisation en divisions) ; la
segmentation sera « hétérogène » si chacune des sous-unités a pour objectifs une partie
des objectifs de l’unité globale, mais le même domaine d’action (la généralisation de la
segmentation fonctionnelle). Dans la structure globale, des segmentations de type
homogène et des segmentations de type hétérogène peuvent alterner aux différents
niveaux de la hiérarchie. Par exemple, une direction commerciale, qui résulte d’une
segmentation fonctionnelle hétérogène, peut être organisée par régions, c’est à dire
segmentée sur le mode géographique homogène. Chaque région peut à son tour être
organisée sur le mode fonctionnel en unités de vente, de promotion, d’administration, de
logistique, de support clients, etc. Ces segmentations successives devront respecter
l’échelle économique d’exercice des différentes activités.

A chaque niveau de la structure, la nature de la segmentation, fonctionnelle ou


spatiale, induit des différences notables dans les relations entre les niveaux
hiérarchiques successifs et entre les unités de même rang, et donc dans le contexte des
segmentations ultérieures. Pour l’ensemble de l’entreprise, la prédominance de l’une ou
l’autre forme de segmentation, en particulier aux niveaux les plus élevés, induit des
différences dans les systèmes de management et la culture de l’entreprise.

La segmentation est nécessaire pour distribuer le travail de façon efficace, mais


elle peut avoir également pour objectif de fractionner une unité à cycles longs de façon
à ce que certaines des sous-unités fonctionnent selon des cycles plus courts. En effet, le
dirigeant d’une organisation souhaite généralement la structurer de façon à clarifier les

clxxiv
responsabilités de ses subordonnés et à faciliter le contrôle et les ajustements. Un
moyen d’y parvenir est d’isoler les activités à cycle long au niveau de l’état-major de
l’unité globale ou dans une ou plusieurs unités spécialisées si nécessaire, afin que les
autres unités fonctionnent selon des cycles plus courts. Les options de segmentation
dépendent ainsi de l’activité à travers son échelle économique, qui détermine la viabilité
économique des fragmentations éventuelles, et à travers son cycle, qui peut orienter la
définition des sous-unités.

L’organisation homogène

Dans une segmentation « homogène », les différentes unités ont des activités, des
objectifs et des environnements de même nature, et des cycles de fonctionnement
voisins. Il en résultera très probablement des cultures voisines, et semblables elles-
mêmes à la culture des dirigeants de l’entreprise. Une segmentation homogène favorise
ainsi la diffusion dans toute l’entreprise des valeurs et des modèles de comportement
propres aux dirigeants, sans que cette diffusion demande d’actions particulières. En
contrepartie, la culture homogène qui se crée ainsi a de fortes chances d’être peu
tolérante envers les autres cultures qui pourraient néanmoins être favorables à certaines
activités.

Opérant dans des champs d’action différents, les unités n’ont que peu d’occasions
et de motivations pour collaborer entre elles. Elles sont juxtaposées plutôt
qu’interdépendantes. Au contraire, comme les résultats de chaque unité s’expriment de
la même façon et sont facilement comparables tout en étant indépendants les uns des
autres, des relations de concurrence et de rivalité pourront facilement se développer. La
direction commune peut d’ailleurs les favoriser et les exploiter pour augmenter la
performance globale.

Les résultats de l'unité globale sont purement et simplement la somme des


résultats des sous-unités, et son succès ne dépend que du succès des sous-unités. Il
n’existe pas d'activités propres au niveau global, et donc pas de besoin d’un état-major
de taille notable. Les seuls besoins de coordination consistent à éviter que la
conjonction d'actions des sous-unités ne soit préjudiciable à l'ensemble, par exemple
sous la forme de propositions ou de produits concurrents, et éventuellement à imposer
un minimum de coopération entre les sous-unités en cas de besoin.

La différenciation entre sous-unités étant faible, le besoin d’intégration est limité.


En revanche, puisque la culture naturelle ne pousse pas au dialogue entre unités, les
mécanismes de coordination devront être formalisés. Au total, le système de
management d’une organisation homogène sera un système simple mais relativement
formel. Pour cet ensemble de raisons, la direction d’une unité organisée sur le mode
homogène peut s’accommoder d’un grand nombre de sous-unités, ce qui favorise les
structures « plates ».

L’organisation hétérogène

Les unités qui résultent d’une segmentation hétérogène ont par définition des
activités et des objectifs différents dont la réunion forme les objectifs globaux de l’unité

clxxv
de rang supérieur. Elles ne sont concernées que par une partie limitée de
l’environnement de l’entreprise, et évoluent dans un environnement propre qui
comprend un grand nombre d’éléments déterminés de façon plus ou moins
conventionnelle par les autres unités de l’entreprise. Elles peuvent fonctionner selon des
cycles très différents, certaines selon des cycles notablement plus courts que celui de
l’entreprise. Ces unités développeront donc très probablement des cultures locales
différenciées, dont les valeurs et les modèles de comportement pourront être assez
différentes de ceux des dirigeants de l’entreprise. Maintenir une identité culturelle
d’entreprise et un niveau suffisant de motivations communes pour résoudre les conflits
nécessitera des actions spécifiques de la part des dirigeants, faute desquelles l’entreprise
risque des dysfonctionnements. En revanche, si cette culture globale est suffisamment
vivace, l’organisation sera tolérante vis à vis de différences culturelles locales entre
sous-unités. Il est plus facile à une unité résultant d’une segmentation hétérogène de se
décomposer de façon homogène que l’inverse.

Les unités sont interdépendantes, ce qui implique nécessairement des conflits, et


doivent développer entre elles des relations de coopération. Selon que la direction aura
ou non réussi à insuffler à l’ensemble une culture de dialogue et une conscience claire
de l’intérêt général – ce qui répétons-le ne se réalise pas de soi-même sans actions
spécifiques – la résolution des conflits se fera plus ou moins spontanément par
confrontation et contact direct, ou exigera au contraire des procédures formelles et une
implication constante de la direction.

Le succès de l'unité globale dépend non seulement du succès des sous-unités, mais
aussi de la qualité de l’intégration et donc des actions qui sont propres au niveau global.
Cette intégration peut demander des équipes d’état-major étoffées, voire des
départements spéciaux d’intégration. Chaque échelon de la structure ne peut contrôler
efficacement qu’un nombre limité de sous-unités, ce qui tend à favoriser une structure
d’autant plus « pointue » que la direction de l’unité globale est plus fréquemment
impliquée dans les actions d’intégration et de résolution des conflits. Un nombre élevé
de niveaux hiérarchiques étant un facteur d’inefficacité, on retrouve par ce biais l’intérêt
d’une culture permettant de résoudre les conflits à des niveaux inférieurs.

La structure d'ensemble de l'entreprise

Au niveau global de l’entreprise, on peut imaginer de répartir les activités entre


grandes unités selon trois dimensions :
–par produits si la gamme des productions de l’entreprise est vaste et diversifiée,
–par grandes fonctions (Recherche, Développement, Production, Ventes, Personnel,
Finance, Administration, ...)
–par marché ou zone géographique d’activité.

Puisque notre propos est de rattacher des personnalités d’entreprise à des formes
de production, nous nous intéresserons pour le moment au seul cas des entreprises
offrant un type de produit unique ou à tout le moins une gamme suffisamment
homogène, en laissant de coté le cas des entreprises diversifiées. C’est précisément la
connaissance des implications organisationnelles des différentes formes de production

clxxvi
qui nous permettra d’évaluer dans quelle mesure elles peuvent coexister au sein d’une
organisation unifiée, ou si au contraire il existe des incompatibilités suffisamment fortes
pour ne laisser d’autre choix que la segmentation par produits, qui équivaut en fait à un
conglomérat d’entreprises indépendantes sur le plan opérationnel.

Avec cette réserve, le choix majeur se situe entre une segmentation fonctionnelle
et une segmentation par marché, en quelque sorte spatiale. Dans la segmentation
fonctionnelle, chaque sous-unité est chargée d’une partie des activités de l’entreprise et
les exerce pour la totalité du champ d’action, marché et lieux, où l’entreprise est
présente ; les cycles des sous-unités peuvent être différents du cycle global, et différents
entre eux. Dans la segmentation spatiale, chaque sous-unité exerce la totalité des
fonctions principales de l’entreprise dans une partie seulement du champ d’action de
celle-ci, par exemple dans certaines limites géographiques ; le cycle de chaque sous-
unité est le même que celui de l’ensemble.

L’activité de l’entreprise intervient de façon déterminante dans ce choix à travers


l’échelle économique de production propre à l’activité. Si en effet la segmentation
devait conduire une des sous-unités à exercer son activité à une échelle inférieure à
l’échelle économique de production, cette unité et donc l’entreprise perdrait un avantage
concurrentiel déterminant. Si donc le champ d’action d’une unité est juste suffisant pour
lui permettre d’atteindre l’échelle économique de production, sa segmentation doit
laisser entier l’appareil de production, et ne peut donc être que fonctionnelle. Ceci reste
d’ailleurs vrai si on considère d’autres fonctions que la production, dès que le champ
d’action d’une unité est juste suffisant pour que l’une de ses fonctions importantes
atteigne son échelle économique de fonctionnement.

C’est pourquoi, pour une entreprise dont la production est homogène, la


segmentation la plus naturelle est fonctionnelle. En effet, au moins la définition des
produits ne peut être faite qu’à l’échelle de l’entreprise tout entière. La segmentation
spatiale n’est une alternative viable au plus haut niveau que si deux conditions sont
satisfaites : d’une part la définition des productions ne requiert que très peu de
ressources qui peuvent être gérées comme une activité d’état-major, et d’autre part la
production peut être réalisée de façon économique à une échelle inférieure à celle de
l’entreprise. Cette dernière condition revient à dire que l’entreprise opère dans un
secteur dispersé et y occupe une part de marché importante. Cette combinaison de
conditions se rencontre rarement dans les activités de production industrielles, mais est
fréquente dans de nombreuses activités de service.

Parallèlement, une entreprise dont le cycle de production est long sera plus
encline à adopter une segmentation fonctionnelle qui raccourcira le cycle de certaines de
ses unités constitutives, alors qu’une entreprise à cycle court s’orientera plus volontiers
vers une segmentation spatiale.

Divisions et filiales

Ayant dans ce qui précède examiné la personnalité des entreprises offrant des
produits homogènes, nous pouvons revenir sur les firmes diversifiées et l’organisation
en divisions de produits. Ce type d’organisation repose sur une segmentation de nature

clxxvii
homogène, puisque chacune des divisions est responsable de l’ensemble des activités
concernant son ou ses produits. La différenciation entre divisions repose principalement
sur l’échelle et les cycles de production associés aux produits de chacune, et
éventuellement sur les marchés dans la mesure où les produits des divisions s’adressent
à des marchés différents.

Il résulte des considérations ci-dessus que pour ne pas être pénalisée par rapport à
ses concurrents plus spécialisés, une même division doit comporter des produits de
cycle voisin, faute de quoi l’organisation et la culture de la division seront
nécessairement mal adaptées à une partie de ses activités. Par exception, une division
principalement responsable de produits à cycle long peut aussi se charger de produits
annexes à cycle court. Sa compétitivité sera alors réduite pour ces produits et devra être
compensée par des avantages d’intégration significatifs ou par des subventions internes,
qui grèvent d’autant la compétitivité des produits principaux.

Dans quelle mesure cette spécialisation des divisions doit-elle se concrétiser par
une séparation en entités juridiques distinctes ? Autrement dit, des divisions de
personnalités différentes peuvent-elles efficacement coexister à l’intérieur d’une même
entreprise au sens juridique du mot ? La réponse est théoriquement oui, à condition que
les dirigeants de l’entreprise soient conscients des différences de culture et non
seulement acceptent mais respectent les différences d’organisation et de système de
management. Remplir ces conditions demande des qualités tout à fait exceptionnelles.
Un dirigeant élevé dans un environnement à cycles longs répugnera à se montrer aussi
tatillon voire mesquin que l’exige la bonne gestion d’une activité à cycles courts ; à
l’inverse, un dirigeant habitué aux cycles courts interviendra plus qu’il ne convient dans
des activités à cycle long et s’aliénera rapidement les personnes clé.

Il est difficile d’attendre du même dirigeant, réputé responsable ultime, qu’il


adapte son comportement à des activités aussi différentes. Il peut à la rigueur forcer son
talent pour contrôler le détail d’une activité si c’est nécessaire, mais se retenir
d’intervenir serait un comportement proprement surhumain pour un dirigeant
autocratique. Bien que ce ne soit en rien une garantie, introduire la protection d’une
personnalité juridique distincte, et surtout la distance d’un conseil d’administration entre
des dirigeants et des activités mutuellement incompatibles semble en tous cas une sage
précaution.

Personnalités par secteur

Nous pouvons maintenant résumer les choix d’organisation et les traits de


personnalité qui caractérisent les principaux types de prestations et de métiers, tels que
nous les avons identifiés au Chapitre 6, et les rattacher au type de secteur associé. Pour
les métiers des composants et des matériels, que nous avons déjà analysés, nous
pourrons ainsi décrire les modèles d’entreprise que l’on rencontre dans le secteur des
matériels et évaluer leur viabilité passée et présente. Nous verrons au passage dans
quelle mesure une personnalité inadéquate risque de se traduire par un handicap
concurrentiel, selon la situation de l’environnement.

clxxviii
Pour les autres métiers, en particulier ceux du logiciel et des services, nous
reparlerons des questions de personnalités d’entreprise dans les chapitres qui leur sont
consacrés.

Remarquons tout d’abord qu’il existe une correspondance étroite entre l’échelle
de production et la durée du cycle. Un cycle long implique en effet généralement qu’une
part importante des dépenses entraînées par une décision, par exemple la mise en place
d’une production, est engagée de façon irréversible longtemps avant que se
matérialisent les revenus correspondants, et en particulier avant que ne soient fixés les
volumes de production. Les activités à cycle long connaissent également des
investissements et des coûts fixes importants, et donc une échelle de production
relativement élevée. Il est d’ailleurs difficile d’identifier dans la réalité, voire
d’imaginer des activités qui présenteraient à la fois un cycle de production long et une
échelle économique faible, alors que le cas inverse semble possible. En tout état de
cause, ni l’un ni l’autre ne se présentent dans l’industrie informatique.

Les secteurs concentrés

Dans les secteurs concentrés, dont l’industrie des composants est un exemple
extrême, on compte un petit nombre d’entreprises relativement importantes, mais de
tailles très différentes. Les cycles de production sont longs et l’échelle économique est
élevée, ce qui conduit à une domination de la segmentation hétérogène de type
fonctionnel. L’entreprise est un assemblage complexe d’unités différenciées, liées entre
elles par un système de gestion élaboré, et pilotées par rapport à un plan d’ensemble qui
s’inscrit lui-même dans un système de planification à long terme cohérent avec la durée
du cycle de base. Les objectifs, la culture et les motivations sont différents suivant les
fonctions, et la cohésion d'entreprise doit être assurée par une forte culture d'entreprise
transcendant les cultures fonctionnelles.

La culture d’une entreprise à cycles longs doit valoriser la planification, la vision


à long terme, la confiance et la persévérance. Le héros type en est le visionnaire
infaillible. Lorsque les dirigeants de l’entreprise n’appartiennent pas eux-mêmes à cette
catégorie, ce qui est le cas dans un grand nombre de grandes entreprises, il peut y avoir
hiatus voire conflit entre leur culture propre et la culture dominante dans l’entreprise.
D’une façon plus générale, une organisation à cycles longs doit pour fonctionner
efficacement être capable d’intégrer des unités de culture différentes, et elle tolérera
généralement bien la présence de sous-unités adaptées à des cycles courts.

Les qualités d’une entreprise adaptée aux cycles longs sont cohérentes avec celles
que Porter estime nécessaires à une stratégie reposant sur les qualités du produit :
encouragement à la créativité et l’autonomie individuelle, organisation souple,
délégation, motivation à long terme, système de mesure plutôt qualitatif. A une
concurrence accrue, une telle entreprise réagira donc spontanément en cherchant à
améliorer les qualités de ses produits. En revanche, mener une stratégie de concurrence
par les coûts se heurte à des obstacles culturels profonds. Si l’entreprise décide de
s’engager dans cette stratégie, par exemple pour répliquer à la concurrence dominante,
ceci exigera une action vigoureuse de la direction sur l’organisation et la culture. Pour

clxxix
réussir dans des délais acceptables, cette action gagnera à être isolée dans une partie
spécialisée de l’organisation.

Cette personnalité d’entreprise est typique des activités de production industrielle


à grande échelle, mais nous verrons qu’elle est aussi celle qui convient au
développement de progiciels, et même à certaines activités de services comme les
télécommunications ou le traitement, dont la logique est celle de secteurs concentrés.

Les secteurs dispersés

Dans les secteurs dispersés comme l’assemblage de matériels à partir de


composants standards, on rencontre un grand nombre d’entreprises occupant des parts
de marché relativement faibles, mais néanmoins suffisamment différentes pour que les
entreprises soient très différentes en taille.

Parmi ces entreprises, les petites ont une taille voisine de l’échelle économique de
production, quelque faible que soit celle-ci. Leur segmentation se fait donc sur le mode
fonctionnel hétérogène, mais leur taille réduite limite les effets de différenciation et
leurs conséquences en termes de système de gestion. Le chef d’entreprise ou le petit
groupe de dirigeants peut prendre toutes les décisions importantes et traiter ainsi les
cycles les plus longs, et créer la culture d’entreprise par son exemple et son action
directe.

Dans un tel secteur dispersé, la taille des grandes entreprises est par définition
supérieure à l’échelle économique de production. La tendance la plus naturelle sera de
privilégier une segmentation homogène par marchés, en unités réunissant commerce et
production et assez petites pour permettre le rapprochement des fonctions et le contrôle
au plus près du terrain, sur la base d’un compte d'exploitation semblable à celui de
l'entreprise elle-même. Si la direction recherche néanmoins des économies d’échelle,
production et commerce pourront être séparés, mais un système de management adéquat
devra alors permettre des ajustements rapides de l’un à l’autre.

Pour que l’entreprise fonctionne correctement, sa culture doit valoriser la rigueur


des contrôles et la capacité d’ajustement rapide à la réalité. Le modèle de
comportement – le héros dans cette culture — est le gestionnaire réaliste et sans état
d’âme. La capacité de vision à long terme et la persévérance dans la fidélité à une idée
sont plutôt mal vues car inutiles et à la limite susceptibles de retarder les ajustements à
la situation réelle. Cette culture est homogène dans toute l’organisation et facilite
grandement les relations entre les responsables, quel que soit leur niveau hiérarchique.
A l’inverse, cette culture est d’autant plus intolérante envers des cultures différentes
qu’elle est homogène dans toute l’entreprise. Une organisation adaptée aux cycles
courts aura donc le plus grand mal à tolérer en son sein une organisation qui serait
adaptée à des activités à cycles longs.

Les qualités de l’entreprise adaptée aux cycles courts sont cohérentes avec celles
que Porter considère comme adaptées à une stratégie reposant sur le contrôle des coûts :
psychologie qui valorise la discipline et le sens de l’économie, supervision constante à
des niveaux très détaillés, centralisation, objectifs quantitatifs à court terme. Face à une
intensification de la concurrence, une telle entreprise aura naturellement tendance à

clxxx
réagir par une stratégie de concurrence par les coûts, quelle que soit la nature de
l’attaque concurrentielle. Si l’entreprise décide de s’engager dans une concurrence par
les qualités du produit, non seulement il lui faut modifier en profondeur son
organisation et sa culture, mais sa personnalité peut décourager les professionnels de
haut niveau qui seraient alors nécessaires.

Cette personnalité d’entreprise se rencontre dans de très nombreuses activités de


services à caractère professionnel comme le conseil et l’assistance. Le caractère
homogène et contraignant de la culture d’entreprise, surtout dans des firmes de petite
taille, rend difficile d’y tolérer des unités obéissant à une autre logique qui serait par
exemple adaptée au développement de produits selon un cycle long. C’est pourquoi,
alors que des firmes de produits offrent souvent des services avec succès, il est
extrêmement rare que des firmes de services réussissent dans des activités de production
industrielle, y compris dans le progiciel.

Les problèmes d’adaptation

La nature de l’activité et la stratégie choisie pour l’entreprise conduisent la


Direction à des choix d’organisation (structure et systèmes) qui d’une part forment la
part contrôlable de la personnalité de l’entreprise, et d’autre part contribuent à forger sa
culture. Il est clair que l’entreprise ne peut par définition avoir qu’une seule
organisation, ou alors elle se sépare en deux organisations différentes qui forment un
conglomérat et non une entreprise. Une première façon de poser le problème de la
compatibilité entre productions est donc la suivante : dans la mesure où les choix
d’organisation auraient été différents pour une autre activité ou une autre stratégie, dans
quelle mesure l’entreprise peut-elle se contenter d’une organisation hybride ou doit-elle
opter entre deux solutions incompatibles ? Autrement dit, dans quelle mesure des
activités ou des stratégies s’excluent-elles mutuellement en demandant des
organisations différentes ?

Un problème analogue se pose à un deuxième niveau si l’entreprise veut changer


d’activité, ou entreprendre une nouvelle activité. L’organisation qui existe à ce moment
est supposée convenir aux productions courantes, mais ne convient pas nécessairement
aux autres productions envisagées. Si un changement d’organisation (structure ou
systèmes de management) est nécessaire pour les nouvelles productions, l’organisation
peut être ajustée instantanément, mais la nouvelle organisation ne fonctionnera que si
elle est compatible avec la culture existante.

Or la culture est l'élément le plus stable de l'entreprise, parce qu'elle y est diffuse
et implicite. La culture d'une entreprise n'existe par définition que dans la tête de chacun
de ses collaborateurs, et peut être extrêmement différente d'un groupe à l'autre. Agir sur
la culture d'entreprise consiste à agir sur les représentations et les systèmes de valeurs
implicitement présents dans la mentalité de chaque collaborateur. La Direction n'a que
peu de moyens d'agir directement sur elle, et doit se contenter de l'influencer à travers
l'exemple de son propre comportement et la sélection des comportements qu'elle
souhaite encourager. En tout état de cause, la culture est une donnée de fait pour la
plupart des décisions.

clxxxi
Quelles que soient les actions entreprises, la culture de l’entreprise ne se modifie
que très lentement. Si un changement d’activité ou de stratégie se heurte à des
incompatibilités culturelles, que ce soit directement ou à travers les changements
d’organisation qu’il induit, ces incompatibilités subsisteront longtemps. Il est probable
que pendant ce temps l’entreprise ne sera pas compétitive pour ses nouvelles activités,
et risque même de voir sa compétitivité se dégrader dans ses activités existantes. Le
temps d’adaptation sera d’autant plus long que l’entreprise est importante et que son
ancienne personnalité l’a rendue plus florissante. Si la concurrence est assez vive pour
éliminer du marché les entreprises mal adaptées, les stratégies ou les orientations
contraires à la culture existante sont ainsi vouées à l’échec, et les incompatibilités
culturelles doivent en pratique être considérées comme rédhibitoires.

Force est de constater qu’en pratique, un grand nombre de chefs d’entreprise ne


sont pas sensibles à ces problèmes, et croient que les formes d’organisation, les
méthodes de gestion et les styles de management qui conduisent au succès sont les
mêmes dans toutes les activités, ou plutôt que ce qui leur a permis de réussir jusque là
continuera de fonctionner quoi qu’ils entreprennent. On peut donc s’attendre à ce que
toutes les combinaisons de prestations soient expérimentées, y compris les plus
aberrantes. Là encore, c’est la concurrence sur chacun des marchés concernés, en
particulier avec les entreprises spécialisées, qui déterminera la réussite ou l’échec des
entreprises mixtes, éliminera celles qui offrent des combinaisons incompatibles, quelles
que soient les raisons de cette incompatibilité, et sélectionnera ainsi les combinaisons
viables.

Que se passe-t-il quand une organisation adaptée à un certain type de cycle


entreprend des activités relevant d’un cycle très différent ?

Une organisation adaptée à des cycles longs a nécessairement un coût de


fonctionnement plus élevé et une inertie plus grande. Appliquée à des activités de cycle
court, elle aura tendance à offrir des produits tardifs et moins bien adaptés à l’actualité
de la demande qu’une organisation adaptée à des cycles courts, tout en ayant à couvrir
des frais de fonctionnement plus élevés. Une telle organisation sera donc désavantagée
au point d’être condamnée à l’échec si les produits à cycle court constituent l’essentiel
de ses revenus et si la situation est fortement concurrentielle. Si par contre les
productions à cycle court sont à la fois secondaires et fortement liées à des productions
principales à cycle long, elle peut néanmoins fonctionner de façon relativement
satisfaisante quitte à subventionner les productions annexes. De plus, il est toujours
possible de mettre en place à l’intérieur de l’organisation « longue » une organisation
« courte » pour ces prestations secondaires.

A l’inverse, une organisation adaptée à des cycles courts sera impatiente de mettre
des produits sur le marché sans avoir pris tout le temps nécessaire pour les études
préalables et en limitant les investissements au minimum. Elle comportera de toute
façon peu de collaborateurs capables d’analyses et de prévisions à long terme. Il risque
d’en résulter des produits mal conçus et de qualité insuffisante, et un appareil de
production adapté préférentiellement aux séries courtes donc plus coûteux pour la
production en grande série. Si les produits relèvent réellement de cycles longs,
l’entreprise ne pourra pas corriger rapidement ces désavantages concurrentiels au
moment où elle les constatera, et sera totalement désarmée pour résister à ses

clxxxii
concurrents. Au total, entreprendre des activités à cycle long dans une organisation
adaptée aux cycles courts est voué presque sûrement à l’échec, d’autant plus qu’une
telle organisation ne pourrait s’accommoder de sous-unités possédant l’organisation et
la culture requises par les cycles longs.

En résumé, le jeu de la concurrence et le phénomène de sélection naturelle qui en


résulte ont pour effet d’associer étroitement certaines formes de production et certaines
personnalités d’entreprise. Une entreprise adaptée aux cycles longs ne pourra réussir
dans de nouvelles productions que si leur cycle est de même nature ou s’il s’agit de
productions secondaires dont elle ne cherche pas à tirer un profit important. Une
entreprise adaptée aux cycles courts n’a pratiquement aucune chance de réussir dans des
activités à cycle long. Nous verrons que c’est probablement la raison pour laquelle
aucune société de services n’a jamais réussi dans le progiciel.

Les manifestations de l’inadaptation

Dans notre souci d’analyser la structuration de l’industrie, nous avons cherché à


mettre en lumière la relation entre les formes de production et les personnalités
d’entreprise. Mais dans le façonnage de cette personnalité, la nature de la production
n’est pas le seul facteur. Pour être efficaces, l’organisation et la culture doivent
également être adaptées à l’environnement, et au premier chef à la situation du marché
et aux conditions locales, ainsi qu’à la position de la firme dans son cycle d’évolution
(démarrage, croissance, maturité, déclin), et à l’intensité et à la forme de la concurrence.

En situation faiblement concurrentielle, la plus ou moins grande adaptation, des


firmes peut n’avoir que peu de conséquences. Si la concurrence n’est pas assez intense
pour éliminer ou contraindre au changement les firmes les moins bien adaptées, des
firmes de personnalités radicalement différentes pourront continuer à coexister dans un
même secteur. A la limite, dans une situation de faible concurrence, un secteur pourra
même être dominé par des firmes mal adaptées si toutes les firmes concurrentes sont
construites sur le même modèle. Ce dernier cas est par exemple celui des prestations
annexes, tant qu’elles sont annexes pour toutes les entreprises concurrentes et qu’aucune
entreprise spécialisée n’aborde ce marché avec une personnalité adaptée.

Les inadéquations entre la production et la personnalité peuvent ainsi ne pas avoir


d’effets immédiats, et ne se manifester au détriment de l’entreprise que lorsque se
produisent des événements extérieurs comme une intensification de la concurrence ou
l’apparition de concurrents spécialisés mieux adaptés. A l’inverse, l’événement
révélateur peut être d’origine interne, comme le lancement d’une nouvelle production
ou le désir de rendre plus rentable une activité existante, ou encore la mise en œuvre de
nouvelles techniques de production qui en modifient l’échelle ou l’horizon. Enfin, une
personnalité inadéquate peut être imposée de façon intempestive par un nouveau
dirigeant en provenance d’un autre type de secteur, par la société-mère à la suite d’une
acquisition ou simplement faute d’avoir suffisamment tenu compte des facteurs
culturels à l’occasion de changements de structure.

clxxxiii
Les généralistes traditionnels

Cet ensemble de considérations nous aide à interpréter l’évolution passée de


l’industrie informatique. Jusque vers la fin des années 60, celle-ci est entièrement
dominée par des généralistes offrant chacun une palette de prestations diversifiées mais
dominées par le matériel. Le logiciel, la maintenance et les autres services sont
considérés comme des prestations annexes nécessaires à la commercialisation du
matériel et fortement liées à celui-ci.

La concurrence porte sur un panier de prestations similaire pour tous les offreurs,
qui constitue en fait un produit intégré unique. L’informatique constitue donc alors un
secteur unique dont les caractéristiques sont celles de la production dominante le
matériel : investissements forts, échelle élevée et cycle long en font un secteur concentré
où s’affrontent un nombre d’acteurs relativement faibles et où les parts de marché sont
très inégales conformément à la dynamique caractéristique de ce type de secteur (voir
chapitre 7). Les personnalités des entreprises concurrentes sont adaptées au cycle long
de leur production principale, qui est d’ailleurs la seule facturée jusqu’à la fin des
années 60.

L’introduction de la facturation séparée en 1969 ne modifie pas radicalement cette


situation. Une concurrence indépendante sur les prestations annexes n’apparaît que très
lentement, et ces prestations restent plus ou moins largement subventionnées par le
revenu du matériel. L’inadéquation aux cycles courts des généralistes traditionnels ne se
traduit pas pour eux par un véritable handicap faute de concurrents spécialisés sur le
marché des services.

Par contre, lorsque apparaissent des firmes spécialisées dans les matériels
compatibles vers 1975, puis des spécialistes de micro-informatique à partir de 1981, ces
firmes représentent une menace d’autant plus grande qu’ils choisissent des modes de
production fondamentalement différents correspondant à des personnalités radicalement
différentes, c’est à dire à cycle court et/ou à échelle économique faible. Une stratégie
gagnante pour ces nouveaux entrants est de se spécialiser dans l’assemblage pur d’un
type unique de matériel et de se garder d’entreprendre des productions à cycle long
comme les composants ou le développement de matériels originaux. En adaptant leurs
ressources, mais aussi leur organisation et leur culture à ce type d’activité, ils peuvent
alors tirer un avantage substantiel de leurs plus faibles coûts et de leur capacité
d’ajustement et de réactions rapides.

Quand les généralistes veulent répliquer, leur personnalité se révèle un handicap


sérieux qui explique en grande partie leurs difficultés et leur place plus effacée dans la
micro-informatique. Il leur faut d’abord accepter l’idée que les principes d’organisation
et les techniques de management qui ont fait leur fortune dans les passé sont en train de
les conduire à l’échec dans le nouvel environnement. Ils doivent ensuite trier leurs
activités selon leurs échelles et leurs cycles respectifs, et provoquer les mutations
d’organisation et de culture correspondantes. Pour cela, il est nécessaire de segmenter
l’organisation selon ces échelles et ces cycles, et d’accepter que le système de
management et la culture d’entreprise jusque là homogènes se résolvent en sous-
systèmes et en sous-cultures différenciés. Au passage, certaines des unités ainsi

clxxxiv
constituées peuvent se révéler non compétitives sur leurs marchés, ce qui oblige à
abandonner les activités correspondantes, à commencer par les plus concentrées comme
les composants.

Au total, l’apparition de spécialistes contraint les généralistes à une véritable


révolution organisationnelle et culturelle qui vient s’ajouter à la réduction de leurs parts
de marché et de leurs marges due aux progrès des spécialistes. Cette révolution exige
des délais d’autant plus longs que la taille de l’entreprise est grande et sa culture
traditionnelle homogène et bien ancrée, ce qui tend à expliquer pourquoi IBM et Digital
Equipment sont restées plus longtemps en difficulté que Unisys ou ICL. Enfin, cette
remise en cause des grands généralistes les conduit à abandonner certaines de leurs
activités, ajoutant ainsi au phénomène de spécialisation qui est à l’origine de leurs
difficultés.

Le cas de Hewlett-Packard conforte a contrario cette thèse : cette entreprise


fonctionne en effet sur un modèle où des divisions spécialisées par produit visent
l’accomplissement d’objectifs individuels plus que la cohérence de l’ensemble de la
gamme offerte par l’entreprise. L’entreprise fonctionne ainsi comme la juxtaposition
d’entreprises spécialisées et sa personnalité est donc plus proche de proche de celle qui
convient aux cycles courts et aux petites échelles. Jadis relatif désavantage, ce trait de
personnalité est devenu un avantage qui explique en partie que Hewlett-Packard n’ait
connu ni les chutes de performance ni les révisions déchirantes des autres grands
constructeurs.

clxxxv
Troisième partie
L’immatériel
Le moment est venu, dit le Morse, de parler de beaucoup de choses :
de souliers, de bateaux et de cire à cacheter, ... de choux et de rois.
Lewis Carroll

Nous avons sacrifié à la mode en intitulant « l’immatériel » cette partie consacrée


au logiciel et aux services. Beaucoup de commentateurs aiment en effet à regrouper
dans une même catégorie toutes les activités productives qui n’aboutissent pas à un bien
matériel tangible, et à prêter à cet ensemble des propriétés qui d’une part seraient
communes à tous ses constituants, et d’autre part les sépareraient radicalement des
produits matériels.

Notre démarche sera plus circonspecte. Croyant avec Descartes qu’il convient de
« diviser chacune des difficultés... en autant de parcelles... qu’il serait requis pour les
mieux résoudre », nous inclinons à penser que les discours globalisants sont une variété
d’obscurantisme. Les chapitres précédents nous ont montré que les activités de
production de matériels informatiques se décomposent en secteurs possédant des
caractéristiques opposées : un secteur des composants de nature concentrée et un secteur
de l’assemblage de nature dispersée. Ces secteurs se différencient par le nombre et la
taille des firmes qui y sont présentes, par l’éventail de stratégies qui y sont viables et les
modèles de comportement concurrentiel correspondants, ainsi que par les mécanismes
de formation des prix et de répartition des parts de marché. Nous avons également vu
qu’à des secteurs différents et à des stratégies différentes sont associés des types
d’entreprise différents par leurs formes d’organisation et leurs cultures.

On parle souvent d’un secteur des logiciels et services. Cet ensemble est-il donc
suffisamment homogène pour constituer un secteur au sens de Porter, c’est à dire un
ensemble des firmes offrant des produits substituables, ou bien un « métier » comme
nous l’avons défini au chapitre 6, c’est-à-dire un ensemble de secteurs obéissant à une
même logique de production ? Sinon, est-il possible d’y discerner facilement des
secteurs ou des métiers homogènes ? Autrement dit, puisque la structure des coûts de
production apparaît pour notre étude comme un facteur explicatif puissant, existe-t-il
des éléments de cette structure qui soient caractéristiques du logiciel par opposition au
matériel, ou des services par opposition aux produits ?

Pour répondre à ces questions, nous appliquerons au logiciel et aux services les
outils d’analyse des structures industrielles que nous avons introduits dans la deuxième
partie, c’est à dire les notions de secteur concurrentiel et les concepts de concentration
et de dispersion, ainsi que de différenciation des entreprises. Nous verrons ainsi qu’il
existe à l’intérieur de ce pseudo-secteur « immatériel » des différences internes bien
plus fortes que les ressemblances entre les diverses prestations qui le composent, et que
l’opposition avec le « matériel » est plus factice que réelle.

clxxxvi
Pour y voir clair, il sera d’abord nécessaire d’examiner de façon critique les
distinctions traditionnelles entre « produits » (ou « biens ») et « services ». Cette
analyse nous conduira à conclure que cette distinction est sans grand rapport avec les
caractéristiques économiques du processus de production qui gouvernent la
structuration de l’industrie et la dynamique concurrentielle. Quant au logiciel,
omniprésent dans toute l’informatique, il englobe une gamme d’activités extrêmement
diverses allant des produits logiciels aux services de développement à façon, parmi
lesquelles la production de progiciel est en tout point assimilable, sur le plan
économique, à celle des produits industriels.

Nous serons donc amenés à traiter à part l'industrie du progiciel (Chapitre 11), qui
est elle-même formée d’un complexe de sous-secteurs de type plus ou moins fortement
concentré, individuellement soumis à leur propre dynamique concurrentielle, et en forte
interaction les uns avec les autres. Parmi ces sous-secteurs, celui des systèmes
d’exploitation (Chapitre 12) est particulièrement critique, et se rapproche de celui des
composants électroniques tant par sa place centrale dans l’ensemble de l’informatique
que par sa dynamique fortement monopoliste.

Enfin les véritables services, loin de constituer un secteur homogène même après
que le progiciel en ait été séparé, forment en réalité un ensemble de secteurs où jouent
des logiques économiques variées.

clxxxvii
Chapitre 10
Le labyrinthe du logiciel et des services

A la recherche d’une définition des services. Immatérialité, indissociabilité,


intangibilité, variabilité, périssabilité,… Une typologie des produits et des services.
Une distinction sans grand objet. Qu’est-ce que le logiciel ? La programmation et
l’écriture. Combien coûte un programme ? Variétés de logiciel et diversité des acteurs.
Le progiciel est un produit.

Dans les chapitres précédents, nous avons vu sur l’exemple du matériel que
l’analyse de la dynamique concurrentielle rend correctement compte des phénomènes de
structuration de l’industrie, à condition d’être conduite secteur par secteur, un secteur
étant défini comme l’ensemble des firmes offrant des produits substituables. Il nous a
fallu reconnaître (cf. le chapitre 6) que cette notion de « substituabilité » est toute
relative, et que donc la définition des secteurs ne peut pas être rigoureuse. Il nous est
néanmoins clairement apparu que la prise en compte des structures sectorielles possède
un pouvoir explicatif fort, et que dans la réalité, la spécialisation des entreprises selon
ces logiques de production influence de façon déterminante le fonctionnement général
de l’industrie et l’évolution des produits.

Nous avons également vu, dans le chapitre qui précède, que le comportement des
entreprises, et en particulier celui qui se traduit par la mise sur le marché de leurs
produits, est déterminé par un ensemble de facteurs internes qui font partie de la
« personnalité » de chaque entreprise. Nous avons également vu que le marché, en
sélectionnant les produits les mieux adaptés à la demande, sélectionne aussi les
personnalités d’entreprise les plus aptes à satisfaire cette demande. En situation de forte
concurrence, la sanction du marché associe étroitement personnalité d’entreprise d’une
part, secteur et stratégie d’autre part, au point de forcer les firmes mixtes à la
spécialisation ou à l’éclatement, comme on le constate dans l’histoire de l’informatique
des dix dernières années. Il nous reste à examiner avec la même approche et les mêmes
outils les autres secteurs de l’industrie informatique.

L’analyse des statistiques industrielles, que nous avons abordée au chapitre 4, peut
nous fournir quelques pistes. Une majorité des acteurs, toutes spécialités confondues,
déclare exercer des activités de logiciel, la plupart en tant qu’activité secondaire
représentant moins de 30% de leur CA. Mais il existe également de nombreuses firmes
spécialisées dans le logiciel, pour qui cette activité représente plus de 70% de leur
chiffre d’affaires. On retrouve les mêmes constatations pour les services, aux chiffres
près. Les activités de logiciels et de services sont donc exercées aussi bien en tant
qu’activité secondaire par de nombreux offreurs non spécialisés que comme activité
principale par des offreurs spécialisés dans l’un ou dans l’autre.

clxxxviii
Certaines firmes spécialisées dans le logiciel offrent également des services à titre
d’activité secondaire et vice versa, mais les spécialistes du service et les spécialistes du
logiciel forment deux populations pratiquement disjointes. Dans l’échantillon de 110
entreprises que nous avons analysé aux chapitres 4 et 5, seules cinq offrent du logiciel et
des services de façon à peu près équilibrée (Finsiel, Nynex, Dun & Bradstreet, Ask et
Sterling Software), et aucune de ces cinq entreprises n’est véritablement un acteur
majeur dans l’un ou l’autre des deux secteurs. Aucun des grands du progiciel
(Microsoft, Computer Associates, Novell, Lotus, Oracle, …) n’a d’ailleurs jamais été
une société de services.

Nous avons également constaté que les firmes spécialisées dans le progiciel ont
une structure de dépenses caractéristique, avec des coûts de production très faibles, des
coûts de R&D élevés et des coûts commerciaux et généraux hypertrophiés. Quant aux
firmes spécialisées dans le service, il en existe des types différents au vu de la structure
de dépenses : la plupart se situent exactement à l’opposé des spécialistes du logiciel,
avec une part très élevée des coûts de production et des coûts de R&D et de
commercialisation très faibles, tandis que celles dont la structure de coûts se rapproche
de celle du progiciel exercent typiquement des activités de traitement. L’ensemble de
ces constatations tend à faire penser d’une part qu’il existe de nombreuses formes de
service, et que donc l’activité de service ne représente ni un secteur ni un métier
homogènes, et d’autre part que le développement industriel de logiciel, habituellement
désigné par le terme de progiciel, est une activité radicalement différente d’une activité
de service.

Services et produits

Critique des définitions courantes

Cherchons tout d’abord à préciser ce qui distingue un service d’un produit. Ni le


dictionnaire, ni la littérature économique ne proposent de définition pleinement
satisfaisante des services. En effet, pour chacune des définitions proposées, il est facile
de trouver des exemples d’activité que les classifications des statistiques officielles, tout
comme notre intuition, rangent parmi les services, et qui ne satisfont pourtant pas la
définition considérée.

Matérialité et dissociabilité

Le Larousse nous donne « produit de l’activité de l’homme destiné à la


satisfaction d’un besoin, mais qui ne se présente pas sous l’aspect d’un bien matériel »,
et le Robert « activités qui représentent une valeur économique sans correspondre à la
production d’un bien matériel ». Où ranger alors les services d’une couturière, d’un
entrepreneur de travaux publics ou d’une entreprise de presse, que la nomenclature
officielle range parmi les services bien que leur production soit tout à fait matérielle ?
Ces exemples violent aussi une autre caractéristique dite d’« indissolubilité » souvent
attribuée aux services, qui seraient un produit non dissociable de l’outil de production.
Or dans les exemples ci-dessus, le produit de l’activité de services non seulement
continue d’exister lorsque l’activité de production a cessé, mais peut même faire l’objet

clxxxix
de nouvelles transactions indépendamment du producteur initial : la robe, la villa ou le
livre peuvent être revendus par leur acquéreur à un tiers.

Une solution simple serait de considérer que de telles activités doivent en réalité
être rangées parmi les produits, et que la nomenclature officielle est erronée. Cette
approche aurait l’inconvénient de masquer des différences importantes avec les produits
industriels habituels, par exemple que le bien est désigné comme la propriété de son
acquéreur avant même qu’il existe, que sa définition est négociée entre le producteur et
l’acquéreur, et que l’acte de production ne commence le plus souvent pas avant
l’établissement du contrat entre le vendeur et l’acquéreur. Mais ces caractéristiques
elles-mêmes s’appliquent aussi à certaines formes de production où l’acquéreur peut
choisir parmi un grand nombre d’options, par exemple les automobiles ou les
ordinateurs.

Bref, où que l’on place la frontière entre produits et services, on trouvera toujours
des offres qui se situent à cheval sur cette frontière. On est donc tenté de penser que la
réalité ne peut pas être décrite comme la juxtaposition d’un monde de services et d’un
monde de produits bien distincts, mais comme un continuum où les différents types
d’offres peuvent se ranger quelque part entre des produits « purs » et des services
« purs », et cela suivant une ou plusieurs dimensions. Certaines règles des marchés
administratifs distinguent d’ailleurs entre « fournitures », « travaux » et « services », les
fournitures correspondant aux produits standard alors que les travaux peuvent impliquer
le transfert au client d’un bien défini par lui.

Devant cette impossibilité de définir de façon rigoureuse une frontière entre


produits et services, plusieurs économistes ont cherché à introduire d’autres critères que
la matérialité ou la « dissociabilité » de l’objet de la transaction. Aucune de ces
tentatives ne permet d’établir une dichotomie qui soit conforme au langage courant ou à
la nomenclature officielle, mais leur examen permet de préciser les critères possibles, et
donc les dimensions du continuum produit-services que nous évoquons plus haut.

Les définitions des économistes

Dans son ouvrage de référence sur le marketing , Kotler propose la définition


45

suivante des services : « activité ou satisfaction soumise à l'échange, intangible et qui ne


donne lieu à aucun transfert de propriété (« does not result in the ownership of
anything »). Il développe cette définition en suggérant que les services se distinguent
des produits par quatre caractéristiques principales qui sont :
–l’intangibilité : on ne peut voir un service avant de l’acheter ;
–l’indissolubilité : un service est inséparable de celui qui le propose, il n'existe pas
hors de la présence de sa source ;
–la variabilité : un service n’est pas le même selon la personnalité de son fournisseur
et le moment de sa production ;
–la périssabilité : un service ne se stocke pas.

45 Kotler P : Principles of Marketing [Prentice Hall, 1980]

cxc
Il est évidemment très facile d’illustrer chacun de ces critères par des exemples
appropriés, voire de présenter des exemples qui satisfont l’ensemble des quatre critères.
Mais il est tout aussi facile de trouver pour chaque critère des exemples d’activités de
service qui ne le satisfont pas, et on peut même penser que rares sont les services qui
respectent pleinement l’ensemble des critères.

Notons au passage que, comme les définitions du dictionnaire, la définition de


Kotler est en quelque sorte négative, et définit les services par le fait qu’ils ne possèdent
pas certaines caractéristiques des produits. Les tentatives de définition positive ne sont
guère plus satisfaisantes. Citons à titre d’exemple la définition proposée par Peter Hill
en 1977 : un service est « la transformation de la condition d’un individu, ou d’un bien
appartenant à un agent économique quelconque, résultant de l’activité d’un autre agent
économique, à la demande ou avec l’agrément du premier agent ». Une telle définition
ne peut pas s’appliquer à l’hôtellerie, au service téléphonique, à toutes les formes de
location, aux services d’intérim, … sauf à considérer qu’un service d’hôtellerie consiste
à « transformer une personne dans la rue en une personne hébergée ». Mais même si on
accepte de se laisser aller à ce genre d’acrobaties verbales, force est de constater
qu’elles pourraient aussi bien s’appliquer aux produits les plus incontestables
(« transformer une personne ne possédant pas de voiture en personne possédant une
voiture »). Bref, si cette définition a le mérite de préciser les agents et le type de
relations qui les unissent dans une transaction, elle ne permet toujours pas de distinguer
à coup sûr un service d’un produit.

Transfert de propriété

Traditionnellement, les constructeurs informatiques ont donné à leurs clients, pour


le même équipement, le choix entre location, crédit-bail et achat. Opèrent-ils pour
autant dans des secteurs différents ? Peut-on réellement dire qu’ils offrent un produit
dans le cas de la vente et un service dans le cas de la location, et que dire alors du
crédit-bail ? Dans la réalité, l’essentiel de leurs activités est identique quelle que soit la
formule de financement retenue. Quant au client, son choix porte d’abord sur le
matériel, et le mode de financement est une décision de second ordre. Dans ce cas, la
transaction porte sans ambiguïté sur un produit, et le service éventuel de location est une
modalité de la transaction plutôt qu'un service distinct.

Ni la matérialité de l’objet de la transaction, ni la possibilité de le dissocier de sa


source, ni les modalités du transfert entre le vendeur et l’acheteur ne constituent des
critères permettant de distinguer à coup sûr les produits des services. En revanche, ces
considérations peuvent se synthétiser en un critère que nous appellerons « modalités de
transfert » et qui constitue une des dimensions de classement pertinentes.

A l’une des extrémités du continuum se trouve le cas des produits « purs » qui
font l’objet d’un véritable transfert de propriété du vendeur à l’acheteur. Remarquons au
passage que ce transfert n’est possible que pour des biens matériels dissociables de leur
source. A l’autre extrémité se trouveront les services « purs » qui n’ont pas d’existence
matérielle et ne peuvent donc faire l’objet d’une appropriation ni a fortiori d’un transfert
de propriété.

cxci
Entre ces deux extrêmes se situent les cas très fréquents où la transaction consiste
à accorder au client un droit d’usage sur un bien appartenant au fournisseur. Ce bien
peut être parfaitement matériel et plus ou moins dissociable de sa source, et le droit
d’usage peut être plus ou moins limité, dans le temps ou dans l’étendue des droits
accordés au client. Par exemple, un service de location d’outillage correspond à un
transfert temporaire de droit d’usage sur un bien matériel dissociable ; l’hôtellerie
comprend un transfert temporaire de droit d’usage sur un bien matériel indissociable (la
chambre), un service de personnel intérimaire peut être assimilé à un transfert
temporaire de droit d’usage portant sur des personnes. Un cas propre à l’informatique
est celui du progiciel, dont le contrat de licence accorde à l’utilisateur un droit d’usage
définitif, sans lui en transférer la propriété dans la mesure où il ne peut le revendre à un
tiers. Dans la réalité, mis à part cette interdiction d’ailleurs peu contraignante, les clients
ignorent cette subtilité contractuelle et tout se passe comme s'il y avait transfert de
propriété.

Intangibilité et variabilité

Certains services ont un aspect tangible. Par exemple, il est possible de visiter une
chambre d'hôtel avant de la louer. Certaines chaînes hôtelières se font même une règle
d’offrir exactement les mêmes aménagements dans tous leurs établissements du monde
entier, donnant ainsi à leur offre de services un caractère invariable dans le temps et
dans l’espace qui est habituellement considéré comme caractérisant un produit.
Autrement dit, certains services ont en commun avec les produits d’être définis a priori
par l'offreur et répertoriés dans un catalogue, et de ne pouvoir être offerts que sous cette
forme standard. Par exemple, l’autobus est un service sur catalogue, alors que le taxi est
un service sur mesure.

Une voie couramment utilisée pour améliorer la productivité dans le domaine des
services est d’ailleurs de standardiser ou de systématiser tout ou partie de la prestation,
ce qui peut aussi répondre au souhait du consommateur de disposer d’une description
fiable du service qu’il envisage d’acquérir. Quelles qu’en soient les motivations, une
telle démarche tend à conférer aux services certaines des caractéristiques d’invariabilité
des produits. On utilise d’ailleurs couramment le terme de « produit » pour désigner un
service défini a priori par son fournisseur et susceptible d’être rendu de façon identique
à tous les acquéreurs.

On pourra objecter que, même s’il est défini de façon formalisée par son
prestataire, le service réellement rendu peut s’écarter de cette description et varier selon
le client et les circonstances. En particulier le contrat peut contenir la description du
résultat visé, mais garantir seulement que le prestataire s’efforcera de parvenir à ce
résultat, et non la conformité du produit final à sa description contractuelle. L’existence
d’une telle incertitude ne permet pas pour autant de différencier à coup sûr les services
des produits, car les produits les mieux définis peuvent aussi se révéler non conformes à
leur spécification.

Il existe là encore une possibilité de variation continue entre des biens tangibles
définis de façon précise et dont la conformité à leur spécification est considérée comme
certaine, et des services intangibles dont la définition est purement indicative. Cette

cxcii
définition peut elle-même exister a priori dans le catalogue du fournisseur sans variation
possible, être établie par choix entre des options prédéfinies ou par combinaison
d’éléments prédéfinis et d’éléments spécifiques, ou résulter entièrement d’une
négociation spécifique entre le client et le fournisseur. Comme pour le critère de
matérialité et de séparabilité, il n’y a pas dichotomie entre des produits décrits sur
catalogue ne varietur et des services toujours intangibles et incertains, mais une gamme
continue de formes de définition sans que l’on puisse faire passer à quelque endroit que
ce soit une frontière qui séparerait sans ambiguïté les services des produits.

Remarquons que ce critère du mode de définition est indépendant du critère


précédent qui concerne les modalités de transfert. Il est certes peu probable qu’un bien
défini de façon seulement indicative donne lieu à transfert définitif de propriété ou
même d’usage, mais un bien défini par négociation ou sur catalogue peut s’accommoder
des différentes modalités de transfert.

Relation client-fournisseur

Chacun des deux critères relatifs à la transaction que nous avons retenus ci-dessus
a une incidence sur la durée et la nature de la relation entre le client et le fournisseur, et
peut de ce fait exercer une influence sur l’organisation et la culture de l’entreprise
productrice. Pour un bien défini sur catalogue comme d’ailleurs pour un service défini
de façon purement indicative, aucune relation durable n’est nécessaire à la spécification
de l’objet de la transaction alors qu’une telle relation est obligatoire si la définition est
négociée.

Alors qu’un transfert définitif de propriété ou d’usage n’exige qu’une relation


ponctuelle au moment du transfert, un transfert temporaire implique une relation
permanente entre le fournisseur et l’acquéreur pendant la durée de ce transfert d’usage.
Les échanges ne donnant lieu à aucun transfert correspondent à la définition de Hill et
impliquent une forme de coopération entre le fournisseur et le client pendant le temps
où le service est rendu.

Dans la définition restrictive implicitement admise par la plupart des auteurs et


des commentateurs, un bien défini sur catalogue et faisant l’objet d’un transfert définitif
de propriété peut sans ambiguïté être appelé un produit. La seule caractéristique
distinctive des services serait alors la durée de la relation entre le producteur et le
consommateur, ainsi que le fait que cette relation implique le système de production de
l’offreur. Ce trait peut influencer de façon déterminante l’organisation et la culture de
l’entreprise, par exemple en interdisant de séparer la fonction commerciale de la
fonction production ou en imposant aux organes de production une capacité de
négociation et d’adaptation sans commune mesure avec celle qui caractérise les usines
dans les industries conventionnelles.

Périssabilité

On caractérise souvent les services par le fait qu’ils doivent être produits à chaque
fois qu’ils sont consommés et au moment même de leur consommation. Ce critère peut
être interprété de deux façons : d’une part il va de soi pour les services qui ne peuvent

cxciii
être dissociés de leur source, et vu sous cet angle il est équivalent au critère de non-
dissociabilité que nous avons examiné plus haut. Quand au contraire un service donne
naissance à un bien matériel transférable, ce bien a toutes les caractéristiques d’un
produit et peut de la même façon être périssable ou non. Un service non transférable,
par exemple un cours ou un spectacle, sera par contre périssable au sens ci-dessus.

Mais ce critère de périssabilité a aussi une traduction économique : les coûts de


production sont encourus par le vendeur même si le service n'est pas consommé, et la
valeur de la production non vendue est nulle. Sous cet angle, le critère de périssablité
concerne l’économie de la production, et est donc en relation possible avec les questions
d’échelle de production et de structure sectorielle.

Encore une fois, si ce critère s’applique à la majorité des activités de services, il


peut tout aussi bien être satisfait par de nombreux produits et ne peut donc servir de
discriminant entre produits et services. Tout d’abord, il existe aussi des produits
périssables, ou dont la valeur décroît rapidement avec le temps. D’une façon plus
générale, pour les produits comme pour les services, la part des coûts qui est formée par
les coûts fixes de production est encourue quel que soit le volume produit et vendu.
Pour les produits dont les coûts fixes sont très supérieurs aux coûts variables, c’est donc
comme pour les services la quasi-totalité des coûts qui est encourue même si la
production n’est pas vendue.

A l’inverse, comme pour les produits, le coût des services peut se répartir de
différentes façons en coûts fixes et coûts variables, en coûts récupérables et
irrécupérables. Les investissements matériels peuvent aller de presque rien comme pour
les services de conseil à des volumes considérables pour les télécommunications ou les
transports aériens. De nombreux services comprennent une part de vrais coûts variables
comme les fournitures, les consommables, etc. Enfin, si la part de personnel dans le
coût des services est souvent importante, certains services comme les
télécommunications sont fournis pour l’essentiel par des moyens matériels automatisés.

En tout état de cause, ces critères liés à la forme de l’échange sont sans rapport
avec les facteurs structurants des secteurs. Classer une production parmi les services ou
parmi les produits selon ces critères ne dit rien quant à la structure des coûts de
production ni l’échelle de production, pas plus que sur les obstacles à l’entrée et à la
sortie, toutes considérations qui gouvernent la dynamique sectorielle. L’analyse de
Porter en fonction des forces concurrentielles s’applique aussi bien pour les services que
pour les produits, et il existera des secteurs concentrés et des secteurs dispersés aussi
bien dans les services que dans les produits.

Une typologie des services et des produits

En résumé, si nous posons en principe que la distinction entre produit et service


concerne la transaction entre le producteur et le consommateur, distinguer un service
d’un produit suppose de répondre aux questions suivantes :
–sur quoi la transaction porte-t-elle (un bien matériel, un changement de condition de
l’acquéreur, d’un bien lui appartenant) ?

cxciv
–comment l’objet de la transaction est-il défini ? (unilatéralement par l’offreur, par
négociation plus ou moins ouverte) ?
–quelles garanties offre le producteur (aucune, de moyens, de résultat plus ou moins
conforme) ?
–en quoi consiste la transaction (transfert de propriété, définitif d’usage, temporaire
d’usage, pas de transfert) ?

Ces quatre critères sont largement indépendants les uns des autres, et chacun est
susceptible de recevoir plus de deux réponses. Les combinaisons possibles de réponses
sont donc nombreuses, même si certaines apparaissent comme improbables. Quelques-
unes correspondent sans ambiguïté à la notion intuitive de produit (bien matériel défini
unilatéralement par le producteur, dont la conformité est garantie et la propriété
transférée), et d’autres à des formes de prestations que le sens commun range parmi les
services. C’est par exemple le cas de l’accès à une compétence définie unilatéralement
sans garantie (conseil) ou encore d’un changement de condition sans transfert de
propriété ou d’usage, que la définition en soit unilatérale (transports en commun),
négociée (taxis, maintenance) ou pratiquement inexistante (soins médicaux). Mais
d’autres combinaisons pourtant courantes sont plus ambiguës, par exemple le cas de
transfert d’usage temporaire d’un bien matériel défini unilatéralement et de conformité
garantie (location, hôtellerie, promotion immobilière) ou celui de transfert de propriété
d’un bien matériel défini de façon négociée (entreprises de construction).

La figure suivante représente ce continuum de façon simplifiée en le ramenant à


deux dimensions. Pour cela, nous n’avons retenu que les modalités de définition
(indicative, négociée ou par catalogue), en y rattachant les questions relatives aux
garanties de conformité, et d’autre part les modalités de transfert (de propriété, d’usage
définitif, d’usage temporaire ou pas de transfert), qui dépendent elles-mêmes de l’objet
de la transaction. Sur la carte ainsi obtenue, les purs produits se positionnent en haut à
droite (définition par catalogue, transfert de propriété), les purs services en bas à gauche
(définition indicative, pas de transfert), mais il existe une grande variété de
combinaisons illustrée ici par les services informatiques les plus courants.

Le continuum produits-services
transfert

propriété
matériel
définitif

usage développement
progiciel
définitif intégration système

location
usage
assistance backup temps partagé
temporaire
télécoms

pas de maintenance
FM formation
transfert conseil

définition définition définition


indicative négociée par catalogue

cxcv
On notera en particulier que le progiciel est extrêmement proche d’un produit pur,
dont il ne se distingue que par les modalités contractuelles de transfert, et par contre
aussi éloigné que possible de services tels que l’assistance ou le conseil. Nous verrons
plus loin que de ce point de vue comme de celui de sa logique économique et de la
structure industrielle associée, le progiciel doit être classé résolument parmi les produits
et non parmi les services.

Conclusions

Au total, la prétendue dichotomie entre produits et services est une vue beaucoup
trop simpliste de la réalité.

En ce qui concerne les modalités de la transaction, il existe des formes d’échange


intermédiaires entre celle du pur produit et celle du pur service, qui s’analysent selon
plusieurs dimensions indépendantes et représentent une grande variété de prestations.
En ce qui concerne les logiques économiques, il n’existe pas de dynamique industrielle
propre aux services et qui serait différente de celle (ou de celles) des produits. On
observera en réalité dans les services une variété de dynamiques et de structures
comparable à celle qui prévaut pour les produits, et les mêmes types de structure
s’appliqueront aussi bien à des services qu’à des produits.

Les services ne forment pas un secteur au sens de Porter (« ensemble des firmes
produisant des biens étroitement substituables ») car même réduits aux services
informatiques, les services sont trop divers pour être tous substituables les uns aux
autres. Il y a de nombreux secteurs dans les services. De même, les services ne
constituent pas un métier au sens que nous avons introduit au chapitre 6, c’est à dire un
ensemble de secteurs qui auraient assez de traits communs pour être régis par la même
dynamique industrielle. Concernant les firmes productrices elles-mêmes, certaines
formes de service appellent des structures et des cultures d'entreprise proches de celles
qui sont propres aux produits industriels, tandis que d'autres appellent des structures et
des cultures radicalement différentes. Certaines formes de service sont moins
compatibles entre elles qu'elles ne le sont avec certaines formes de produits.

Il est certes toujours possible de convenir de frontières plus ou moins arbitraires


qui permettraient de ranger chaque activité, chaque entreprise ou chaque métier dans
l’une ou l’autre des deux catégories. Mais outre que la classification qui en résulte ne
satisfait pas toujours le sens commun, la véritable question est de savoir en quoi une
telle dichotomie aiderait à comprendre les mécanismes économiques. Il faudrait pour
cela que l’ensemble des « services » et celui des « produits » ainsi définis possèdent
chacun des caractéristiques communes à tous leurs éléments et distinctes de celle de
l’autre ensemble, autrement dit que chacun des « produits » soit plus voisin de tous les
autres produits que d’un quelconque des « services ». Nous avons vu que ce n’est pas le
cas. Concluons donc qu’introduire une distinction fondamentale entre produits et
services n’apporte rien à l’étude des structures industrielles.

La seule véritable différence que nous ayons pu reconnaître est que, dans ce qu’il
est convenu d’appeler les services, l’acte de production implique toujours plus ou moins
directement le client. De ce fait, l’appareil de production de la firme est directement

cxcvi
exposé au regard et au jugement du marché. Dans une activité de produits, les attributs
des produits mis sur le marché sont dissociés de ceux de l’organisation qui a servi à les
produire, par exemple au travers de la description commerciale ou contractuelle qui les
accompagne. Il est également assez facile d’éviter que des dysfonctionnements
éventuels de la production n’apparaissent sur le marché sous la forme de produits
défectueux. Pour les services au contraire, la qualité même de l’appareil de production
est visible, tous les ratés éventuels sont perçus par le client, et donc des structures ou
une culture non adaptées sont rédhibitoires en situation concurrentielle. Autrement dit,
l’adaptation de la personnalité d’entreprise à la nature de sa production et aux attentes
du marché revêt dans le domaine des services une importance encore plus déterminante
que pour les produits. Nous verrons au chapitre 13 combien ces problèmes contribuent à
structurer le secteur des services et à en expliquer les difficultés d’ajustement à
l’évolution des besoins.

Malgré l’absence d’une définition satisfaisante des activités de services et leur


caractère foncièrement hétérogène, plusieurs auteurs ont proposé des thèses ambitieuses
portant sur la place des services dans l’économie, que l’on retrouve parfois chez divers
commentateurs de l’évolution informatique. Une opinion courante est que les services
sont intrinséquement plus profitables que les produits, se développent plus rapidement
et finiront par les remplacer.

Cette thèse se rattache au courant « postindustriel » illustré principalement par


Daniel Bell et Jean Fourastié. Elle soutient que la part des services dans l’économie
46

augmente inéluctablement, si bien que le développement des services peut être


considéré comme un indicateur de progrès économique. Cette thèse se retrouve souvent
travestie sous la forme : « un secteur est mature quand les services l'emportent sur le
matériel », et invoquée par certains commentateurs informatiques pour prédire la
suprématie définitive des services et l’effacement voire la disparition des constructeurs
de matériel.

A l’opposé se trouve la thèse dite « néo-industrielle », dont l’inspiration remonte à


la conception classique de la valeur et dont les principaux tenants actuels se rattachent
au courant marxiste. Cette thèse postule avec Adam Smith que seule la production de
biens matériels est une activité réellement productive, et que donc les activités de
services sont par définition improductives. Les services parasitent donc en quelque sorte
l’économie, leur croissance n’est en aucune façon un signe de progrès et doit être
contrôlée sinon combattue.

Outre que la thèse « néo-industrielle » repose sur une conception arbitraire et


erronée de la formation de la valeur, comment peut-on énoncer ce genre de conclusions
en l’absence d‘une définition a priori des services ? Dans la pratique, on constate que les
auteurs en question éludent le problème en ne retenant comme exemples de services que
les activités dont les caractéristiques viennent à l’appui des thèses qu’ils souhaitent
démontrer, soulignant ainsi involontairement la grande diversité des services et des
dynamiques qui les régissent.

46 Bell D : The Coming of Post-Industrial Society [Basic Books, 1973] traduction française Vers la
Société Post-Industrielle [Laffont, 1976]

cxcvii
De plus, ces théories répondent le plus souvent à des préoccupations de
sociologues qui cherchent à caractériser les activités des individus, plutôt que
d’économistes qui s’intéressent aux entreprises et à leurs productions. Or une grande
partie voire la majorité des travailleurs du « tertiaire » exercent leur activité dans des
entreprises industrielles. La multiplication des « travailleurs du savoir » ne permet en
aucune façon de conclure à l’avantage des entreprises de services sur les entreprises
industrielles. Enfin, même s’il apparaît que les prestations de services prennent une
place croissante dans l’économie considérée dans sa totalité, il n’en résulte pas que les
services se substituent aux produits à l’intérieur de chacun des secteurs pris en
particulier. Il existe au contraire de nombreux exemples du mouvement inverse, par
exemple le remplacement des employés de maison par les appareils électroménagers.
Pour le cas précis de l’informatique, nous reviendrons aux chapitres 13 et 15 sur la
concurrence entre produits et services et sur la validité potentielle de la thèse
« postindustrielle » souvent présentée comme allant de soi.

Les diverses formes de logiciel

Le logiciel est l’essence même de l’informatique. Il est omniprésent à tous les


niveaux : les puces logiques elles-mêmes contiennent des microprogrammes, ainsi que
la plupart des unités fonctionnelles comme les imprimantes ou les cartes d’extension. A
un niveau plus global, les fonctions d’un système informatique sont définies par des
programmes, qu’il s’agisse des fonctions générales offertes par les systèmes
d’exploitation et les utilitaires, ou des fonctions particulières qui constituent les
applications et confèrent au système son utilité. Le développement de programmes
forme le cœur de l’activité des informaticiens, et de nombreux services consistent en
grande partie en développement de logiciel. Le logiciel est au sens propre l’âme du
matériel, c’est à dire ce qui l’anime. Un ordinateur peut être défini comme « une
machine à exécuter des programmes », et le matériel n’est qu’un corps vide inerte
capable de recevoir une grande variété d’âmes sous forme de programmes.

Dans ce qui suit, nous allons tenter d’analyser les caractéristiques technico-
économiques des activités liées au logiciel, afin d’identifier des types d’acteurs, leur
place dans l’industrie et la dynamique économique à laquelle ils obéissent. Cette
dynamique permet-elle aux activités de logiciel de se rattacher aux autres activités des
acteurs qui les utilisent ? Existe-t-il pour les logiciels une ou plusieurs activités dotées
de caractéristiques économiques propres qui les font obéir à une dynamique industrielle
spécifique ? La dynamique correspondant aux logiciels représente-t-elle un facteur de
structuration de l’industrie informatique ?

Les caractéristiques du logiciel

Indispensable pour définir les fonctions des matériels et des systèmes


informatiques, et de ce fait omniprésent, le logiciel peut revêtir des formes multiples.

Qu’y a-t-il de commun entre quelques lignes de Fortran écrites par un ingénieur
pour ses besoins propres, le microcode du processeur Pentium, le système d’exploitation
Windows distribué à des millions d’exemplaires, les logiciels de contrôle de la navette

cxcviii
spatiale, un programme de jeu électronique et le système de gestion d’une grande
entreprise ? Toutes ces formes de logiciel expriment des consignes par lesquelles
l’homme dicte un comportement à une machine. Autrement dit, le logiciel est une forme
d’expression humaine à destination d’une machine. Les nombreux travaux qui ont
abouti à fixer les règles de protection juridique du logiciel ont d’ailleurs abouti à
assimiler le logiciel à une œuvre de l’esprit au même titre qu’une œuvre littéraire ou
artistique, en lui étendant la législation du copyright et des droits d’auteur.

De la forme d’expression humaine la plus voisine qui est l’écriture, l’activité de


programmation a l’infinie diversité et le caractère immatériel. Comme l’écriture
habituelle, le développement de logiciel est une activité purement intellectuelle qui
n’exige pas d’autres outils que le crayon et le papier. Les programmeurs actuels
travaillent le plus souvent directement à l’écran d’un ordinateur et bénéficient de
nombreuses aides à la rédaction de programmes, mais il n’y a pas si longtemps toute la
phase créative de la programmation ne faisait appel qu’au papier et au crayon,
l’utilisation de l’ordinateur intervenant dans une seconde phase de traduction et de tests.
L’écriture de programmes est donc une activité accessible à un individu isolé, sans
investissements préalables importants. Même avec les techniques de programmation
récentes, un micro-ordinateur simple permet de disposer des outils de programmation
les plus puissants.

De sa destination, qui est d’être interprété par une machine, le logiciel tire deux
caractéristiques fondamentales qui le différencient des autres formes d’expression
humaine. Premièrement, il est extrêmement facile de le reproduire. Le logiciel est en
effet porté par les mêmes supports que les autres informations traitées par l’ordinateur,
et peut être lu et écrit par les mêmes dispositifs. De ce fait, tout outil permettant
d’exécuter un programme permet aussi de le reproduire, plus facilement et plus
exactement même que pour l’écriture normale. Une personne capable de lire un texte est
en général capable de le recopier, mais c’est une opération longue, sujette à erreur, et
dont le résultat diffère de l’original au moins dans la forme. Au contraire, un ordinateur
peut reproduire des millions de caractères en quelques minutes, sans risque d’erreur et
dans une forme identique à l’original, donc en particulier susceptible d’être reproduite à
son tour. Cette reproduction peut sans difficulté comporter un changement de support ou
une transmission à distance à travers des moyens de télécommunications.

Certaines formes de supports, comme le CD-ROM ou les autres formes de


mémoire morte, ne permettent que la lecture et ne permettent donc pas une reproduction
intégrale à l’identique, mais il reste très facile d’en extraire le contenu et de le copier sur
un support inscriptible traditionnel. Il existe certes des moyens de protection qui visent
à empêcher ou à rendre plus onéreuse la reproduction des programmes, mais ces
dispositifs sont artificiels, coûteux et généralement peu efficaces. L’extrême facilité de
reproduction est une caractéristique fondamentale du logiciel. Pour l’activité
commerciale, ceci a pour conséquence un niveau extrêmement bas des coûts variables
de production, qui donne à la production de logiciel les caractéristiques d’un secteur
concentré. Par ailleurs, la possibilité de reproduction par n’importe quel utilisateur
soulève le problème difficile de la protection de la propriété du logiciel.

Deuxièmement, étant destiné à être interprété par une machine de façon aveugle
(« machinale » au sens propre du mot), le logiciel a des exigences de rigueur et de

cxcix
fiabilité rarement rencontrées pour les autres écrits. Avant d’être utilisé, tout logiciel
dépassant la demi-douzaine d’instructions simples devra être soumis à des tests
permettant de vérifier que le comportement réel d’un ordinateur qui exécute le
programme est conforme en tout point aux intentions de son auteur et aux attentes de
ses utilisateurs. Il faut s’attendre à ce que ces essais révèlent des erreurs qui devront être
corrigées, ce qui exigera une nouvelle vérification du programme, et ainsi de suite. Le
développement de logiciel est ainsi une opération cyclique où les opérations d’écriture
et de correction alternent avec les essais sur ordinateur. Sa durée, sa difficulté et son
coût sont en proportion directe de la taille et de la complexité du programme concerné.

Or la variété des formes de logiciel est aussi grande que celle des formes et des
utilisations possibles de l’écriture. Le programme de quelques lignes de Fortran que
l’ingénieur écrit pour ses besoins propres est l’analogue de la note manuscrite qu’il
laisse à un collègue ou du post-it qu’il colle sur son réfrigérateur. Le petit programme a
un destinataire connu et une utilité précise et limitée ; il est destiné à une seule
utilisation et sera oublié après usage ; sa préparation ne coûte que quelques minutes à
son auteur, mais il n’a pas de sens ni d’utilité en dehors du contexte spécifique des
relations entre l’auteur et le destinataire ; il n’a pas de valeur marchande et aucune
intention lucrative ne préside à sa préparation. A l’opposé, un système d’exploitation ou
un grand progiciel du commerce est l’analogue d’une encyclopédie. Il représente de
nombreuses années de travail, qui ne peuvent se justifier que par l’espoir d’un revenu
résultant de la commercialisation de l’œuvre ; mais cet objectif lui-même impose des
exigences de qualité portant aussi bien sur la forme que sur le contenu, qui ajoutent au
temps et au coût de préparation, et demandent l’intervention de corps de métier
spécialisés qui font du produit une œuvre collective.

Entre ces deux extrêmes, le logiciel peut tout comme l’écriture revêtir de
nombreuses formes correspondant à de nombreux usages. Le système de gestion d’une
grande entreprise s’apparente à un recueil des procédures, des formulaires et des
informations de gestion propres à l’entreprise et préparés spécifiquement pour elle. Un
programme de jeu électronique est l’analogue d’un livre illustré pour enfants. Un
programme innovant traduisant d’une activité de recherche en informatique est
l’analogue d’une communication scientifique en ce qu’il a pour but prouver la validité
d’une idée et pas nécessairement d’en être la réalisation industrielle.

Toutes ces activités ont en commun de se traduire in fine par du logiciel, de même
que la rédaction du post-it, de l’encyclopédie, des procédures de gestion, du livre pour
enfants et de la thèse aboutissent à un texte écrit. Mais comme pour l’écrit, les contextes
de préparation et d’utilisation, les motivations, les modalités de production et
l’économie générale de l’opération introduisent entre ces activités des différences
infiniment plus significatives que ne l’est le point commun de la production de logiciel.
Autrement dit, la production de logiciel est une activité aussi variée que peut être
l’écriture, et il n’y a pas plus une industrie du logiciel qu’une industrie de l’écriture. Il
faut considérer le logiciel non pas comme un produit en soi, mais comme un matériau
utilisé isolément ou en combinaison avec d'autres. Dans les produits où il entre, le
logiciel peut être un composant secondaire, auquel cas le produit obéira à sa dynamique
industrielle propre. D’autres activités industrielles ont comme production principale des
logiciels, mais selon la nature et l’utilisation de ces logiciels, la nature de l’activité varie

cc
grandement et peut correspondre à des logiques économiques et concurrentielles
différentes, donc à des structures industrielles différentes.

Enfin, le progiciel est par excellence le matériau de la complexité et de


l’innovation. Contrairement au matériel, il reste modifiable à tout moment et convient
de ce fait à l’expérimentation et au développement progressif de fonctions nouvelles. De
fait, toute idée nouvelle ou toute exploration d’un nouveau domaine ou d’un nouveau
mode d’utilisation se traduit d’abord par le développement de programmes avant de
donner éventuellement naissance à des circuits ou des matériels spécialisés. Ce n’est
que lorsque ce domaine aura été suffisamment exploré, et la complexité des traitements
maîtrisée, qu’il deviendra envisageable de figer dans le silicium certaines des fonctions
nécessaires. On déplore quelquefois que le logiciel soit plus complexe et plus difficile à
maîtriser que le matériel, en oubliant que c’est la nature même du logiciel de réaliser ce
qui est trop complexe pour le matériel.

Les facteurs de la complexité et du coût

Au total, si nous exceptons les programmes très simples, la préparation d’un


programme comprend trois étapes : la conception d’ensemble, la rédaction et les tests.

La conception du logiciel porte évidemment sur les algorithmes, c’est à dire les
méthodes de manipulation de l’information qui seront mises en œuvre par le
programme, mais aussi sur les structures de données utilisées, les modalités des
échanges entre le programme et ses utilisateurs, les liaisons avec les autres programmes,
etc. Une grande partie de ces éléments peut être reprise de réalisations antérieures, mais
d’autres peuvent présenter un caractère original, voire constituer de véritables
inventions qui nécessitent un travail de recherche, de mise au point et de validation
spécifique.

Même à partir de bases connues, l’écriture d’un programme de quelque


importance reste une opération délicate. Tous ceux qui ont touché à la programmation,
de près ou de loin, ont appris à leurs dépens que l’ordinateur ne tolère pas la moindre
erreur. Plus exactement, il interprète littéralement chacune des instructions qu’il
rencontre, même si elles ne représentent pas exactement les intentions du programmeur.
Or de nombreuses erreurs d’écriture peuvent échapper à une relecture même attentive,
et le seul moyen de vérifier l’exactitude d’un programme reste de l’exécuter sur
l’ordinateur auquel il est destiné. Des résultats inattendus, ou un comportement anormal
de l’ordinateur durant l’exécution, constituent des symptômes d’erreurs dans le
programme. Remonter de ces symptômes aux causes d’erreurs s’avère souvent aussi
difficile que d’identifier le coupable dans un roman policier. Quand on pense avoir enfin
localisé et corrigé l’erreur, la seule vérification possible consiste à exécuter de nouveau
le programme corrigé, ce qui conduit le plus souvent à de nouvelles surprises. Même
pour un programme relativement simple, ce processus itératif peut se révéler long et
coûteux. On peut tenter de le raccourcir en apportant un soin tout particulier à la
première rédaction, mais ceci contribue également au coût et au délai de
développement.

cci
De plus, un logiciel de quelque importance n’est jamais formé d’une simple suite
d’instructions qui s’exécutent dans un ordre immuable. Il contient aussi de nombreuses
instructions de tests qui, selon la valeur courante de telle ou telle variable ou selon l’état
de tel ou tel indicateur, font sauter ou exécuter telle ou telle séquence ou renvoient à un
autre point du programme. Il existe ainsi un grand nombre de cheminements possibles
dans le programme, qui doivent tous avoir été exécutés avec succès pour que le
programme puisse être considéré comme correct.

Or, quand la taille d’un programme croît, ce n’est pas tellement la longueur
moyenne des séquences comprises entre deux aiguillages qui augmente, mais bien le
nombre d’aiguillages, si bien que le nombre de chemins possibles croît comme une
puissance (le carré ?) de la taille du programme. Le temps nécessaire aux tests augmente
donc très rapidement avec la taille des programmes, et dépasse rapidement le temps de
rédaction initiale, même si cette dernière a été effectuée avec tout le soin nécessaire
pour minimiser le nombre d’erreurs. Notons au passage qu’il n’existe pas de moyen de
certifier qu’un programme ne contient aucune erreur, ni a fortiori de prévoir le temps
nécessaire pour éliminer l’ensemble des erreurs contenues dans un programme.
L’expérience montre d’ailleurs que malgré des mois de tests intensifs préalables à leur
diffusion, des programmes complexes comme les systèmes d’exploitation contiennent
encore des erreurs plusieurs mois après leur mise en service.

L’effort nécessaire pour développer un logiciel varie dans de très larges


proportions suivant la nature, le contenu fonctionnel et la destination de celui-ci. Pour
fixer les idées, on peut estimer que pour les activités de rédaction et de test, la
productivité va de 60 instructions (testées) par jour-homme pour un programme simple
à moins de 2 instructions par jour-homme pour des systèmes complexes. Un programme
de plusieurs millions d’instructions, comme en contiennent les grands systèmes du
commerce, nécessite donc un effort de développement de plusieurs milliers d’années-
homme, qui exige une véritable organisation industrielle.

Types de logiciel et types d’acteurs

En plus du volume proprement dit du programme, de la difficulté intrinsèque des


traitements et de la richesse fonctionnelle recherchée, d’autres facteurs liés aux
modalités d’exploitation tendent à accroître les coûts de développement en exigeant une
discipline industrielle. Citons en particulier la variété des configurations de matériel sur
lesquelles le programme est destiné à être exécuté, la diversité des utilisateurs et des
modes d’utilisation, ainsi que la nature des relations entre les auteurs et les utilisateurs
du logiciel. On peut schématiser ces divers contextes de développement par trois modes
principaux, qui font apparaître une gradation des niveaux de complexité, et en parallèle
une gamme d’acteurs de « professionnalisme » croissant.

Une première catégorie d’acteurs est constituée par des individus ou de petits
groupes qui développent du logiciel pour leurs besoins propres. A cette extrémité du
spectre l’écriture de logiciel est une activité annexe subordonnée à une autre activité
professionnelle. Elle peut aussi, comme toute activité de l’esprit, être entreprise pour la
seule satisfaction de son auteur, c’est à dire en amateur au sens propre du mot : celui qui
aime. Rappelons que c’est ainsi qu’a commencé la micro-informatique, et que les

ccii
premiers micro-ordinateurs des années 1975-1980 étaient conçus par et destinés aux
amateurs de programmation, qui sont restés nombreux encore de nos jours.

Dans ce contexte, la seule source de difficulté est la complexité intrinsèque des


traitements. Le programme est destiné à être exécuté sur une seule configuration
machine bien connue, celle dont dispose l’auteur/utilisateur. Ce dernier n’a que des
exigences modestes en matière de convivialité et de fiabilité, n’a pas besoin de
formation ni de documentation et saura par définition faire preuve d’une grande
tolérance vis à vis de la qualité du logiciel. Très souvent même, il n’utilisera le
programme qu’un petit nombre de fois dans un petit nombre de cas particuliers et ne se
souciera jamais de savoir si le programme fonctionne correctement dans tous les cas
possibles.

Une variante de cette situation est celle d’un organisme de recherche pour lequel
le logiciel est un instrument de validation et de preuve, par exemple dans les domaines
du calcul numérique, des techniques de l’ingénieur et des sciences appliquées. Vérifier
ou prouver une théorie peut demander des programmes très complexes sur le plan
algorithmique, mais s’accommoder d’un logiciel rudimentaire en termes de facilité
d’utilisation.

Un contexte différent est celui où un logiciel doit être développé pour répondre
aux besoins d’une population d’utilisateurs distincte, dont l’auteur ne fait généralement
pas partie. Pour ces utilisateurs, qui ne possèdent souvent que des connaissances
limitées en informatique, le logiciel est destiné à être un outil plus ou moins critique,
avec les exigences de simplicité d’emploi, de fiabilité et de disponibilité qui en
découlent. Le nombre même des utilisateurs et leur diversité potentielle induit une
variété des conditions d’utilisation et nécessite une grande richesse fonctionnelle, qui
accroît considérablement la complexité du programme en multipliant les cheminements
possibles. Les configurations sur lesquelles le logiciel doit s’exécuter peuvent être
variées et évolutives, ce qui oblige à conduire des essais sur des configurations
multiples. Enfin, le programme doit être documenté et accompagné de moyens de
formation des utilisateurs.

Toutes ces exigences demandent l’intervention de spécialistes professionnels, qui


peuvent provenir soit d’équipes de développement internes à l’entreprise utilisatrice,
soit de sociétés de service. Le développement à façon de programmes pour le compte
d’une société cliente est une composante importante de l’activité de services en
informatique, sur laquelle nous reviendrons dans le chapitre 13.

Enfin, l’écriture d’un logiciel peut être entreprise pour des tiers non identifiés,
c’est à dire pour un marché espéré. Il s’agit alors d’une véritable démarche industrielle,
où toutes les exigences de richesse fonctionnelle, de convivialité, de fiabilité, de
documentation, … évoquées ci-dessus sont exacerbées par la nécessité de satisfaire
réellement une demande hypothétique dans un marché concurrentiel. De plus, en cas de
succès commercial, la variété des utilisateurs, des modes d’utilisation et des
configurations utilisées dépassera sans doute les prévisions de l’auteur, rendant des
essais extensifs encore plus nécessaires, et entraînant une demande de
perfectionnements et d’extensions qui constitue en elle-même un champ ouvert à la

cciii
concurrence. On entre ici dans le domaine du progiciel, dont la dynamique
concurrentielle fera l’objet du chapitre 11.

Le schéma ci-dessous résume cette analyse. L’axe horizontal correspond aux


complexités croissantes, et donc aux capacités d’intégration des organisations qui
développent le logiciel. L’axe vertical indique des audiences de taille croissante, donc
des capacités de diffusion croissantes de la part des mêmes organisations. En bas et à
gauche, des programmes simples destinés à peu d’utilisateurs peuvent être réalisés par
des individus isolés, tandis que les systèmes complexes destinés à un marché important
(en haut à droite) exigent des organisations de développement et de commercialisation
de type industriel. Entre les deux se rencontrent les programmes relativement simples
bien que visant une large diffusion, qui peuvent provenir de petites entreprises, tandis
que des laboratoires importants peuvent créer des systèmes complexes mais limités dans
leur diffusion.

Les acteurs du logiciel

capacité
d'intégration

systèmes capacité
audience extensions
industriels de diffusion
PME industriels

laboratoires
programmes systèmes
personnels expérimentaux

complexité

Ces différents contextes de développement se traduisent en particulier par des


cycles différents, au sens où nous l’avons introduit au chapitre 9. Il s’agit ici du délai
nécessaire pour vérifier que le logiciel qui a été produit est bien conforme aux besoins
de ses utilisateurs. En tout état de cause, ce délai est bien évidemment d’autant plus long
que le logiciel est complexe et ses utilisateurs divers. Mais quand la population des
utilisateurs est connue et accessible, il est possible de mettre en place un système de
développement permettant une validation progressive et de limiter ainsi le risque et
l’incertitude. Dans le cas du développement de progiciel pour le marché, l’adéquation
aux besoins se traduit par le chiffre d’affaires et ne peut être véritablement établie qu’à
la fin du cycle, quelles que soient les précautions prises en cours de développement, qui
ne peuvent impliquer que des échantillons plus ou moins représentatifs des utilisateurs
visés. A lui seul, ce facteur donne au développement de progiciel les caractéristiques
d’un secteur concentré : cycles longs, investissements élevés, donc échelle de
production élevée.

cciv
En résumé, l’activité de développement de logiciel peut prendre des formes très
nombreuses, allant depuis l’écriture de quelques lignes par un non-spécialiste pour son
usage personnel jusqu’à un projet industriel de grande envergure. Les auteurs de logiciel
peuvent être des amateurs isolés, des professionnels non-informaticiens, des
informaticiens intégrés dans des équipes spécialisées, des petites entreprises ou des
grandes entreprises de service ou des industriels du progiciel. Leurs motivations
peuvent être la passion ou la simple curiosité, l’exécution d’un contrat ou la mise sur le
marché d’un produit.

Au plan économique, chaque contexte de développement possède ses


caractéristiques propres qui éclipsent les points communs relatifs à la nature du logiciel.
Plus que comme une activité homogène, le logiciel doit être considéré comme un
matériau utilisé dans différentes activités, produits et services, où il peut se combiner à
d’autres ingrédients et dans lesquels ses propriétés intrinsèques peuvent aussi bien
disparaître que dominer. C’est ainsi que l’écriture de logiciel à façon aura toutes les
caractéristiques d’un service impliquant transfert de propriété d‘un ouvrage dont la
définition est négociée, tandis que le progiciel aura toutes les caractéristiques d’un
produit défini unilatéralement par l’offreur, même s’il ne donne lieu juridiquement qu’à
un transfert de droit d’usage.

Service et « self-service »

Réciproquement, un utilisateur potentiel qui ressent le besoin de disposer d’un


logiciel dispose a priori de plusieurs façons de satisfaire ce besoin. Il peut avoir la
chance de trouver un logiciel adéquat tout fait ; il peut le faire réaliser à l’intérieur de
son entreprise ou en sous-traiter la réalisation à une société de services ; il peut enfin
envisager de le réaliser lui-même. Ces modalités alternatives permettent de satisfaire un
même besoin de logiciel, bien que la dernière ne fasse pas appel à une transaction
marchande, tandis que la première entraîne l’achat d’un produit, et l’autre le recours à
une prestation de service. On pourrait d’ailleurs imaginer des formes de transaction plus
complexes pour satisfaire toujours ce même besoin, par exemple l’achat d’un ou
plusieurs logiciels complétés par une prestation de service pour les adapter au besoin
particulier.

A l’occasion de cet exemple, nous rencontrons une approche des services


proposée par Jonathan Gershuny et connue comme la théorie de l’« économie de self-
47

service ». Pour cet auteur, la demande de services et donc leur place dans l’économie ne
doit pas s’analyser isolément par familles de biens d’une part, famille de services
d’autre part, mais selon les besoins que l’un et l’autre sont susceptibles de satisfaire. La
définition d’un segment de marché doit être élargie à la demande de satisfaction d’un
besoin, les différentes formes de produits et de services que nous avons évoquées au
début de ce chapitre constituant des offres concurrentielles visant la satisfaction de ce
besoin, entre lesquelles le consommateur devra arbitrer.

Par exemple, l’offre de matériel informatique vise à satisfaire un besoin de


traitement de l’information, qui peut être satisfait non seulement par un achat de produit

47 Gershuny J : After Industrial Society ? The Emerging Self-Service Economy [Humanities Press,
1978]

ccv
proprement dit, mais aussi par une location permanente ou temporaire, qui constitue une
sorte de pseudo-service, ou par l’utilisation d’un service bureau. De même, un besoin de
transport peut être satisfait par l’achat d’une automobile, mais aussi par l’utilisation des
transports en commun (service sur catalogue) ou d’un taxi (service sur mesure). Dans
l’analyse concurrentielle qui est l’objet de la présente étude, produits et services non
seulement forment un continuum sans frontières claires, mais entrent en concurrence sur
chaque segment de marché élémentaire plutôt qu’ils ne constituent des segments de
marché séparés. C’est ce point de vue que nous retiendrons au chapitre 13 pour analyser
la place respective des produits et des différentes formes de service dans l’informatique.

Conclusions

A l’issue de cette analyse, la nomenclature « logiciels et services » apparaît


comme un fourre-tout statistique dépourvu de toute homogénéité et totalement vide de
sens en termes d’analyse des structures industrielles.

A l’intérieur de cet ensemble continu et multidimensionnel que forment les


produits et les services, il convient d’isoler le progiciel qui présente les caractéristiques
d’un produit typique : il est défini unilatéralement par l’offreur dans l’espoir d’un
marché ; il a une forme tangible, invariable et non périssable, et fait l’objet d’un
transfert définitif de droit d’usage. Au plan de l’économie de sa production, son coût est
essentiellement formé de coûts de développement encourus en totalité préalablement à
sa mise sur le marché, alors que les coûts variables unitaires sont extrêmement faibles.
Cette structure de coûts donne au secteur du progiciel une dynamique de secteur
concentré analogue à celle des composants, et à l’opposé de la plupart des services
comme le développement à façon de logiciel spécifique. Le progiciel relève de la
démarche industrielle typique des produits et doit être analysé comme tel.

Les progiciels sont étroitement assimilables à des produits au plan de l'économie


de leur production comme dans leurs modalités de commercialisation, tandis que les
activités de services exigent des structures et des cultures d'entreprise spécifiques. Parler
d'un secteur « logiciels et services » n'a pas plus de sens que parler d'un secteur
« carburants et taxis ». Aucun des leaders du progiciel, ni même aucune des firmes de
quelque importance qui ont réussi dans ce secteur n'a jamais été une société de services,
et aucune société de services n'est devenue un grand du progiciel. Dans la réalité, il
n'existe pas de société de « progiciels et services », et assimiler le progiciel à un service
relève de la confusion mentale.

A l’intérieur même de la famille des services coexistent des prestations de nature


différente, non substituables les unes aux autres, mais dont chacune entre d’une certaine
façon en concurrence avec certains produits matériels ou logiciels. Les services
constituent donc à leur tour un ensemble hétérogène dont le trait commun le plus
important en termes de structure industrielle est le contact direct entre le marché et
l’appareil de production de chacun des offreurs. Cette caractéristique rend la nature de
la production et la personnalité de chaque firme encore plus étroitement
interdépendantes que dans le cas des produits.

ccvi
Dans la suite de cet ouvrage, nous traiterons donc séparément le progiciel
(chapitre 11), puis les services (chapitre 13), même si cette dernière catégorie n’a pas
réellement de cohérence interne et doit s’analyser comme la juxtaposition de secteurs et
de métiers différents.

ccvii
Chapitre 11
L'industrie du progiciel

La lente émergence du progiciel. Une structure sectorielle paradoxale. Logiciel de


base et applications, systèmes et extensions. Cycles de développement, complexité et
coûts d’intégration. La formation des prix et des parts de marché. Une dynamique de
concentration dans des secteurs multiples. Progiciels et composants. Des prix sans
relation avec les coûts. Problématique et personnalité de l’entreprise de progiciel. Une
forme de mouvement perpétuel.

Le terme français de « progiciel » a été formé par la contraction de « produit


logiciel » pour désigner, parmi le grand nombre de produits et services de natures
différentes qui utilisent comme matériau le logiciel, ceux qui possèdent les
caractéristiques habituelles des produits au sens le plus classique du mot. Le présent
chapitre concerne donc les logiciels commercialisés prêt à l'emploi, utilisables
indépendamment de leur auteur, définis pour un marché anonyme et non pour un
utilisateur particulier.

Le progiciel a bien toutes les caractéristiques d’un produit. L’offre principale est
définie sur catalogue, et le client prend sa décision d’achat sur la base d’une description
préparée unilatéralement par le fournisseur. Moyennant une redevance unique analogue
à un prix d'achat, le client acquiert un droit d'usage illimité, la seule restriction par
rapport à un produit classique étant une limitation du droit de reproduction. On parle
d’ailleurs couramment d'« acheter » un progiciel. Au plan juridique, le progiciel est
protégé par le droit d'auteur donc assimilable à un livre ou un disque, tout en étant
également justiciable de brevets comme les produits. Un même progiciel est diffusé en
de nombreux exemplaires identiques, et les activités de création et de diffusion sont
deux fonctions séparées au sein de la firme productrice, voire réalisées par des
entreprises distinctes. Toutes ces caractéristiques sont à l’opposé du développement de
logiciels « sur mesure » tel que le pratiquent les sociétés de services.

Le progiciel se définit donc comme un produit constitué de logiciel. Sa production


présente les attributs d’une activité de production industrielle, et plus précisément d’un
secteur concentré où les coûts fixes (de développement) sont élevés et les coûts
variables (de reproduction) quasi-nuls. Contrairement à une idée reçue, la production de
progiciels est, économiquement parlant, radicalement différente d'une activité de
services, et plus proche par sa logique industrielle de la production de composants que
nous avons étudiée au Chapitre 7. Néanmoins, les caractéristiques propres du logiciel
donnent au secteur des traits particuliers que nous allons examiner dans ce chapitre.

ccviii
Historique et situation

Ce n’est que dans les années 70 que le logiciel est progressivement apparu comme
une activité industrielle indépendante susceptible de devenir productrice de revenu et
éventuellement de profit. Avant la décision d’IBM de facturer séparément certains types
de logiciels (1969), les constructeurs d’ordinateurs fournissaient ceux-ci
« gratuitement » avec les matériels dont ce logiciel faisait en quelque sorte partie. Il
s’agissait principalement de programmes utilitaires nécessaires à l’utilisation des
matériels, par exemple les systèmes d’exploitation ou les traducteurs de langages de
programmation.

De leur côté, les utilisateurs développaient eux-mêmes les logiciels qui leur
étaient nécessaires, principalement des logiciels d’application, ou les faisaient
développer par des sociétés de service. Dans le domaine scientifique se perpétuait la
tradition d’échange bénévole de programmes, inaugurée aux premiers temps de
l’informatique. Cette tradition fut respectée par les clubs de micro-informatique, au
point que Bill Gates se heurta violemment aux utilisateurs de micros de l’époque en
prenant position en 1976 contre le piratage des logiciels payants. Cette tradition
d’échange se prolonge de nos jours sous la forme du « freeware » et du « shareware » . 48

C’est dire combien l’idée que le logiciel est une création de l’esprit qui doit échapper
aux circuits marchands est ancienne et encore bien ancrée dans de nombreux esprits.

En dehors des constructeurs pour les programmes généraux, les premières


tentatives de commercialiser du logiciel sont le fait de sociétés de service qui, ayant
développé un programme pour un client, pensent possible de vendre ce même
programme à d’autres clients, souvent en partenariat avec le commanditaire initial qui
espère ainsi récupérer une part de son investissement. Dans la plupart des cas, il s’avère
impossible aux nouveaux clients d’utiliser exactement le même programme que le ou
les clients précédents. L’activité de ces firmes reste donc la fourniture de solutions sur
mesure où les développements antérieurs sont plus ou moins habilement réutilisés à
chaque nouveau contrat. Bien que souvent parés de noms séduisants et fortement
exploités dans la communication commerciale des sociétés de service, ces logiciels ne
sont en réalité que le support de prestations spécifiques, qui restent nécessaires non
seulement à leur mise en place, mais aussi à leur utilisation courante. Il ne s’agit donc
pas de progiciels au sens où nous l’avons défini, qui suppose une mise en œuvre
totalement indépendante de l’auteur.

Néanmoins, la différence de nature entre ce type de logiciels et de véritables


progiciels a été longtemps occultée, ce qui explique sans doute que logiciels et services
soient encore considérés comme une seule et même activité, ce que dément toute
analyse rationnelle. De plus, certaines sociétés de service facturent une redevance
distincte pour l’utilisation dans leurs prestations spécifiques de modules de logiciel
préexistants, ce qui explique probablement l’apparition d’une rubrique « software »
dans les statistiques qui les concernent, alors qu’elles n’offrent aucun progiciel au sens
propre du mot. C’est probablement le cas de sociétés comme Finsiel, qui apparaît

48 quelquefois « traduits » en français de façon ridicule par « gratuiciels » et « distribuciels » ( ! ! !)

ccix
comme une société mixte alors que c’est en réalité une pure entreprise de services, ou à
un degré moindre d’EDS ou Cap Gemini . 49

Du côté des constructeurs d’ordinateurs, la facturation séparée des logiciels va de


pair avec leur importance croissante, tant dans les coûts et l’organisation des
fournisseurs que dans leur argumentation concurrentielle. Très rapidement, les
constructeurs mettent en place pour le progiciel une discipline et une organisation
professionnelles dérivées de celle des matériels et radicalement distincte de celle des
services, affirmant ainsi que les progiciels sont des produits. De plus, sous la pression
d’une concurrence par les coûts de plus en plus vive dans le matériel, les constructeurs
s’éloignent progressivement de leur politique initiale où la vente du matériel
subventionnait le logiciel. Ceci se traduit par une augmentation progressive des tarifs du
progiciel et une disparition progressive du logiciel resté gratuit. Pour les mêmes raisons,
les constructeurs qui avaient tardé à suivre IBM sur la voie de la tarification séparée du
logiciel, en espérant en tirer un avantage concurrentiel, s’y rangent à leur tour. Le
secteur des logiciels utilitaires généraux est ainsi le premier à se transformer en un
secteur indépendant de progiciels de nature industrielle, où les constructeurs qui y
étaient seuls au début sont rejoints par quelques firmes spécialisées comme Computer
Associates.

Jusque dans les années 70, développer du logiciel suppose de pouvoir accéder à
un ordinateur facilement et de façon permanente. Cela n’est guère possible qu’aux
employés des grandes entreprises, dont l’activité est plutôt orientée vers la production
de logiciels spécifiques à leur employeur, ou aux universitaires dont la tendance
naturelle à cette époque est de diffuser leurs programmes gratuitement. Cet obstacle à la
création d’entreprises indépendantes est levé à la fin des années 70 par l’arrivée de la
micro-informatique, qui rend le développement de logiciel accessible à de petites
entreprises indépendantes voire à des individus isolés, en même temps qu’elle crée un
marché pour les progiciels ainsi développés.

Ce marché devient un marché de masse à partir de l’introduction du PC en 1981.


Apparaît alors une multitude de petites entreprises souvent formées d’une poignée de
programmeurs, offrant chacune son logiciel particulier pour un type d’utilisation précis.
Mais le foisonnement quelque peu artisanal du début fait place à une vive concurrence
qui conduit très vite à la constitution de positions dominantes occupées par des
entreprises à caractère industriel : Microsoft pour les systèmes d’exploitation, après
avoir éliminé Digital Research et quelques autres, le même Microsoft pour les
traitements de texte et les tableurs, avec un ou deux challengers dans chaque domaine
(Wordperfect et Lotus pour les traitements de texte, Lotus et Borland pour les tableurs),
ou encore Novell pour les logiciels de réseau, où Microsoft joue cette fois le rôle de
challenger.

Ce secteur spécialisé des progiciels pour micro-ordinateurs se développe en


parallèle avec l’activité plus traditionnelle des constructeurs de matériel pour leurs
systèmes propres , dont l’OS/2 d’IBM ou le Système 7 d’Apple sont des exemples dans
50

49 voir Chapitre 4.
50 On ne commettra pas dans cet ouvrage l’horrible contresens que constitue l’emploi du mot
« propriétaire » en tant qu’adjectif pour désigner un développement ou un standard propre à une

ccx
le domaine de la micro-informatique. C’est ainsi que parmi les entreprises qui réalisent
les 20 plus grosses parts du marché des progiciels, on trouve en 1992 7 généralistes
pour plus de 45% du CA total et 10 spécialistes, dont 6 en micro et 4 en grands
systèmes, pour environ 32% du CA total. Les 3 sociétés de service qui complètent la
liste des 20 premiers (pour moins de 5% du total) n’y figurent probablement que par
abus du terme « progiciel ».

Comme nous l’avons vu aux chapitres 4 et 5, les firmes spécialisées dans le


progiciel présentent une physionomie caractéristique assez différente de celle des autres
firmes de l’industrie informatique. Elles sont généralement étroitement spécialisées,
totalement absentes du marché des matériels, et n’offrent que le minimum de prestations
annexes comme la maintenance ou les services. Elles consacrent une forte part de leurs
dépenses à la R&D (typiquement entre 8 et 20%) et leur activité commerciale est
hypertrophiée (dépenses de vente et d’administration supérieures à 30% du CA), mais
leur coût de production est faible en valeur relative (la plupart du temps inférieur à 35%
du CA). Leurs performances, mesurées en termes de profit, se situent dans une plage
très large, avec chaque année des maxima supérieurs à 20% et dépassant même les 25%,
mais aussi des résultats lourdement négatifs pour certaines firmes. Néanmoins, le
nombre de firmes déficitaires est chaque année très faible, et les moyennes se situent
presque toujours au-dessus de 10%. Enfin, ce secteur n’a pas connu entre 1987 et 1989
la dégradation de profitabilité qui a affecté le reste de l’industrie.

Caractéristiques du secteur

Le secteur des progiciels présente des caractéristiques a priori paradoxales pour


un observateur superficiel. Le grand nombre des firmes présentes et la petite taille de la
plupart lui donnent l'apparence d'un secteur dispersé. Dans l’échantillon de 110 firmes
que nous avons examiné, 57 sont présentes dans le progiciel, parmi lesquelles la
première (IBM) a une part de marché de 32%, tandis que la part de marché du premier
spécialiste (Microsoft) est inférieure à 9%. Sur ces 57 firmes, 20 seulement ont une part
supérieure ou égale à 1%, et il existe par ailleurs un grand nombre de firmes trop petites
pour figurer parmi les 110, et dont les parts de marché sont inférieures à un pour mille.

Ce grand nombre de petites firmes semble cohérent avec le fait que les obstacles à
l'entrée paraissent presque inexistants. Au début de 1975, il n’a pas fallu beaucoup plus
de quatre semaines à deux jeunes étudiants qui s’appelaient Bill Gates et Paul Allen
pour écrire le Basic d’où est parti le succès de Microsoft. Encore aujourd’hui,
moyennant un investissement de 10000 à 20000 Francs dans un PC, chacun peut écrire
un programme à ses moments perdus et tenter de le commercialiser afin de devenir à
son tour l’homme le plus riche des Etats-Unis.

Mais si la production de progiciel était réellement un secteur dispersé par nature,


on ne pourrait expliquer ni la persistance de profitabilités très élevées, ni la domination
quasi-absolue de Microsoft dans des segments comme les systèmes d’exploitation pour
micro-ordinateurs (81% avec MS-DOS), les tableurs (73% avec Excel) ou à un degré
moindre les traitements de texte (55% avec Word), ou de Novell qui détient 70% du

entreprise

ccxi
marché des réseaux locaux. Dans ces segments de marché et quelques autres, la
répartition des parts de marché ressemble d’ailleurs curieusement à celle qui caractérise
les secteurs fortement monopolistes comme les composants : trois ou quatre firmes dont
la première occupe 60 à 70% du marché, et où les suivantes se partagent le reste de
façon très inégale. Cette situation est cohérente avec le fait que l'économie de la
production de logiciel obéit à une logique fortement monopoliste puisque la quasi-
totalité du coût est formée de coûts fixes, le coût marginal que constitue la reproduction
d'un nouvel exemplaire étant quasi-nul.

Donc, alors que les faibles obstacles à l'entrée et à la sortie semblent caractériser
un secteur dispersé, les économies d'échelle sont fortes et confèrent au secteur certains
des attributs d’un secteur concentré, en particulier une profitabilité élevée. La clé de cet
apparent paradoxe est double :

Premièrement, les firmes de progiciels ne doivent pas être considérées comme


formant un secteur unique, mais autant de secteurs que de domaines d’application.
Comme nous l’avons vu au Chapitre 6, s'appuyer sur l'étude de la concurrence pour
comprendre la structure de l'industrie exige de considérer séparément chaque « groupe
de firmes qui fabriquent des produits étroitement substituables », que Porter appelle
« industry » et ses traducteurs français « secteur ». La concurrence ne joue réellement
qu'entre progiciels offrant des fonctions comparables. Or un traitement de textes comme
Word, une base de données comme Paradox et un gestionnaire de réseaux locaux
comme Netware ne sont pas des produits substituables entre eux. Il existe en
informatique un grand nombre de domaines d'application différents qui sont autant
d’occasions de développement de progiciels, et qui définissent autant de marchés
distincts. Un système d’exploitation, un programme de comptabilité, un traitement de
texte, un gestionnaire de bases de données, une bibliothèque d’analyse statistique, un
progiciel de composition musicale, un jeu vidéo remplissent des fonctions radicalement
différentes, donc satisfont des besoins distincts et ne peuvent pas être substitués l’un à
l’autre. Le secteur des progiciels est en réalité, au sens strict de Porter, la juxtaposition
d'un grand nombre de secteurs correspondant chacun à un domaine d'application.

Comme nous l’avons évoqué au chapitre précédent, il ne faut pas considérer le


logiciel comme un produit ou un secteur d’activité, mais comme un matériau avec
lequel on peut construire une grande variété d’objets différents. Ce n’est pas parce que
Windows et les jeux vidéo sont tous deux faits « en logiciel » qu’ils sont concurrents au
sein d’un même secteur d’activité, pas plus qu’une table de cuisine et une barque de
pêche, qui sont pourtant tous deux en bois. Autrement dit, c’est le mobilier de cuisine, la
construction navale, les tableurs et les jeux vidéo qui constituent des segments de
marché, auxquels peuvent correspondre des secteurs d’industrie. Le travail du bois ou
l’écriture de logiciels sont des métiers qui peuvent être exercés dans des secteurs
différents.

Pour appliquer au progiciel notre méthode d’analyse structurelle, qui repose sur le
jeu de la concurrence, il nous faut considérer que chaque domaine d’utilisation possible
de l’ordinateur définit un segment de marché sur lequel des firmes concurrentes offrent
des produits substituables l'un à l'autre, dans le sens où ils visent tous à satisfaire un
même besoin des clients dans ce domaine. En première analyse, la concurrence dans
chacun de ces segments est indépendante de la concurrence dans les autres segments.

ccxii
Des progiciels non substituables entre eux définissent autant de secteurs disjoints qui se
structurent indépendamment les uns des autres.

En second lieu, si les coûts de reproduction sont uniformément faibles, les coûts
de développement peuvent varier dans de très grandes proportions suivant la nature et
les ambitions du progiciel considéré. Faibles pour des efforts individuels, ou
quelquefois invisibles si le développement est subventionné en totalité ou en partie par
une autre activité, par exemple la recherche, ils peuvent se chiffrer en dizaines de
millions de dollars à l’autre extrême pour des systèmes généraux complexes. L’immense
variété des formes de logiciel que nous avons évoquée au chapitre précédent se retrouve
dans les produits logiciels. Selon l’ordre de grandeur des dépenses de développement,
c’est la facilité d’entrée qui dominera en conférant à l’activité les caractéristiques d’un
secteur dispersé, ou au contraire l’échelle économique de production qui soumettra
l’activité à une dynamique de concentration.

Au total, c'est à l'intérieur de chacun de ces nombreux sous-marchés et non pour la


totalité de l’industrie du progiciel que joue la concurrence monopoliste qui résulte de la
faiblesse des coûts variables unitaires, et ce d’autant plus vigoureusement que la nature
du segment considéré exige des logiciels complexes entraînant des coûts fixes de
développement élevés. Les forces concurrentielles qui poussent à la concentration
agissent séparément à l’intérieur de chaque secteur élémentaire et font évoluer chacun
des secteurs des systèmes d’exploitation, des tableurs, des traitements de texte, des
compilateurs, des logiciels de comptabilité, des logiciels de dessin, … vers les structures
concentrées asymétriques que nous avons décrites plus haut (voir Chapitre 7). Chaque
secteur élémentaire obéit à une logique de concentration, ce qui explique les fortes
rentabilités et les dispersions constatées.

Au total, compte tenu de l'économie monopoliste de sa production, le secteur du


progiciel est en réalité formé d'un grand nombre de sous-secteurs, dont chacun est
concentré. De fait, si on examine les parts de marché non plus au niveau global où leur
sens économique est discutable, mais pour chaque domaine, on retrouve bien la
répartition caractéristique des secteurs concentrés, avec un leader dépassant les 50% de
part de marché : 81% pour MS-DOS dans les systèmes d'exploitation, 73% pour Excel
dans les tableurs sous DOS, 54% pour Word dans les traitements de texte sous
Windows, 70% pour Netware dans les réseaux locaux, etc.

Mais le nombre de tels sous-secteurs est suffisamment élevé, et il existe


suffisamment de firmes spécialisées dans un seul d’entre eux, pour que le « macro-
secteur » constitué par l’ensemble du progiciel ait l’aspect d’un secteur dispersé. Dans
chaque secteur, l’entreprise leader peut être de taille modeste. Même Microsoft, qui est
leader dans plusieurs secteurs, et parmi les plus importants, ne réalise que quelques
milliards de dollars de chiffre d’affaires, soit environ 8% du CA total du secteur des
progiciels.

De plus, la vitalité du domaine de l’informatique en général fait apparaître en


permanence de nouveaux domaines d’applications qui sont autant de secteurs naissants
où la relative facilité d’entrée ouvre la porte à une multitude de petites entreprises
nouvelles. Les différents secteurs se trouvent ainsi à des degrés de maturité très
différents. Alors que le phénomène de concentration a déjà conduit certains à une

ccxiii
structure caractéristique d’oligopole asymétrique, d’autres sont encore des secteurs
naissants. Ainsi s’explique sans doute en partie la grande dispersion des résultats que
nous avons constatée au Chapitre 5, et la difficulté que nous avons eue à interpréter les
caractéristiques apparentes de comportement du secteur.

Toutefois, les multiples sous-secteurs qui constituent le secteur du progiciel ne


sont ni disjoints ni étanches. Le développement de progiciels est un métier unique, et les
avantages concurrentiels qui permettent à une firme de réussir dans un domaine
d’application particulier valent aussi pour les autres domaines, même s’ils doivent y être
complétés par des avantages spécifiques à chacun des secteurs. Enfin, nous allons voir
que les frontières entre domaines d’application sont souvent floues et laissent de
multiples possibilités de passage. Au total, la dynamique d’ensemble du secteur des
progiciels résulte de ce jeu complexe entre segments régis chacun par une dynamique de
concentration, mais couvrant tout un spectre qui va depuis les secteurs naissants, grand
ouverts aux nouveaux entrants, jusqu’au secteurs stabilisés dominés par des monopoles,
ces différents secteurs communiquant et interagissant entre eux.

Les formes de progiciel

Il est habituel de distinguer à l’intérieur du progiciel deux grands domaines, le


logiciel de base, ou logiciel « système », et le logiciel d’application. Dans la première
famille, on range un ensemble de logiciels qui permettent d’utiliser le matériel sans être
spécialisés pour une tâche définie, et qui remplissent des fonctions générales telles que
la gestion du matériel, la gestion des tâches, la gestion des données, la gestion des
communications, etc. Ces programmes sont liés au matériel et l’englobent en quelque
sorte dans un ensemble de fonctions plus riche et plus facilement utilisable. De leur
côté, les logiciels d’application personnalisent l’ordinateur en vue d’une utilisation
particulière comme la comptabilité, le traitement de textes, la simulation de la formation
des galaxies, la composition musicale ou le jeu de Super Mario.

Les logiciels de base prennent en charge des fonctions fondamentales comme le


stockage des fichiers sur disque, le lancement des programmes et le dialogue avec
l’utilisateur. Ils établissent pour cela un certain nombre de standards généraux qui
devront être respectés par tous les composants du logiciel de base lui-même et par les
programmes d’application. L’ensemble des fonctions du logiciel de base s’organise ainsi
en un système rendu cohérent par le respect de standards communs et la possibilité pour
chaque composant d’utiliser chacun des autres. L’utilisation d’un système particulier a
des effets rémanents comme l’habitude d’une forme de dialogue, mais aussi sous la
forme concrète de fichiers conservés dans un certain format et conformes à certaines
conventions. C’est pourquoi l’immense majorité des utilisateurs n’utilise qu’un seul
système et n’en change qu’exceptionnellement, alors qu’il peut utiliser une multitude
d’applications, certaines de façon très éphémère.

Les logiciels système sont nécessaires quelle que soit l’utilisation de l’ordinateur
et peuvent être considérés comme la base commune à l’ensemble des applications
possibles. Chaque logiciel d’application utilise un certain nombre de fonctions du
logiciel de base, et suppose donc la présence sur l’ordinateur d’un certain système.
Chaque logiciel système particulier détermine ainsi quelles applications pourront être

ccxiv
exécutées sur l’ordinateur. Autour de chaque système se crée donc non seulement un
ensemble d’habitudes, mais aussi une galaxie de programmes d’applications utilisables
avec ce système. Le choix d’un système d’exploitation est lourd de conséquences pour
l’utilisateur, car il détermine pour lui, de façon très difficilement réversible, la gamme
de progiciels auxquels il aura effectivement accès, voire les domaines d’application
qu’il pourra aborder.

C’est pourquoi, en ce qui concerne les systèmes d’exploitation, le marché exige


des produits riches en fonctions et capables de s’enrichir parallèlement à l’évolution du
matériel. Ces systèmes doivent également être fiables, solides et faciles d’emploi dans
une gamme étendue de domaines d’utilisation. En effet, alors qu’une imperfection dans
une application n’a que des effets limités, une imperfection dans un système affecte
toutes les utilisations. De plus, les utilisateurs demandent que ces systèmes soient
soutenus par des organisations sur lesquelles ils puissent compter pour résoudre les
difficultés éventuelles, développer en permanence les extensions nécessaires au support
des nouveaux matériels et des nouvelles formes d’utilisation, et pour répondre aux
demandes d’amélioration en provenance du marché. La production de systèmes
d’exploitation demande donc à la fois des développements lourds, une activité de
support permanente et de garanties de pérennité de l’offreur, qui la réservent à des
entreprises de nature industrielle.

Réciproquement, tout auteur de progiciels d’applications doit choisir le (ou les)


système d’exploitation auquel se rattachera son produit. Ce choix est également lourd de
conséquences, car non seulement il détermine une partie des caractéristiques du
progiciel et de ses conditions de développement, donc de son coût, mais surtout parce
qu’il détermine le marché accessible. Le développeur de progiciel applicatif a donc
intérêt à s’appuyer sur les systèmes d’exploitation les plus répandus parmi la clientèle
qu’il vise (et qui peuvent d’ailleurs différer selon le domaine d’application). Les
systèmes les plus répandus seront aussi ceux qui s’accompagnent du choix de progiciels
d’application le plus vaste, ce qui leur donne un avantage concurrentiel supplémentaire.

Les spécialistes tendent donc à s’aligner sur les systèmes les plus courants,
formant ainsi autour de ces derniers des constellations de firmes indépendantes qui
offrent des extensions et des compléments au système de base, ainsi que des
applications qui l’utilisent. La variété et la qualité de ces offres constituent un avantage
concurrentiel pour chacune des firmes de la constellation par rapport à leurs
homologues appartenant à des constellations concurrentes.

En termes de concurrence entre systèmes, le succès va ainsi au succès. Ceux qui


jouissent des plus forts avantages concurrentiels occupent une part croissante du
marché, et une part de marché élevée est en elle-même un avantage concurrentiel.
Indépendamment même de l’économie de sa production et des effets d’échelle que nous
avons décrits au Chapitre 7 à propos des composants, le marché lui-même induit une
rétroaction positive par renforcement automatique des avantages acquis, qui conduit à la
concentration du secteur sur un petit nombre de systèmes riches en fonctions. Comme
nous le verrons par la suite, la demande du marché rejoint et renforce la dynamique
industrielle qui tend elle aussi à une extrême concentration du secteur des systèmes
d’exploitation.

ccxv
Un même phénomène touche les applications de nature générale. Avant
l’apparition des micro-ordinateurs, les applications étaient presque toujours propres à
chaque entreprise et seuls les systèmes d’exploitation et certaines fonctions utilitaires
comme la gestion de bases de données ou la préparation de programmes possédaient un
caractère suffisamment universel pour justifier le développement de progiciels
généraux. Aujourd’hui se sont développés des secteurs d’application liés à des activités
de nature générale comme la production de documents ou la manipulation de tableaux
de chiffres, auxquels correspondent les programmes de traitement de textes et les
tableurs, mais aussi d’autres types de programmes pour d’autres domaines. Chacun des
progiciels existants définit ses propres conventions d’utilisation, ses formats de fichiers,
… et suscite des développements complémentaires en provenance d’innovateurs
indépendants, qui doivent respecter ces standards. Autour de ces « quasi-systèmes » que
sont les applications de base comme le traitement de textes ou les tableurs s’organise la
même dynamique que nous avons décrite entre les systèmes d’exploitation et les
applications, et qui pousse de la même façon à une concentration de chacun de ces
secteurs.

A côté de la distinction traditionnelle entre progiciel de base et progiciel


d’application, nous venons d’esquisser une autre distinction entre « systèmes » et
« extensions » (en anglais « add-on »). Les systèmes, qui se rencontrent aussi bien dans
le domaine des applications que dans le logiciel de base, ont vocation à couvrir
l’ensemble d’un domaine en offrant à l’utilisateur une large palette de fonctions
cohérentes entre elles. Pour cela, ils définissent des standards en matière de formats de
données, de communication avec l’utilisateur, de communications entre composants du
système, etc. Les progiciels d’extension visent à réaliser une fonction particulière et
doivent le plus souvent se conformer aux standards existants concernant le domaine où
se situe leur fonction. Les systèmes impliquent des développements volumineux et
coûteux, donc une échelle économique de production élevée qui concourt avec la
demande du marché à une dynamique de forte concentration du secteur. Les extensions
sont des développements plus modestes par leur volume et leur coût mais généralement
plus innovants, et qui peuvent donc mieux s’accommoder d’une concurrence de type
dispersé.

Les frontières entre ces types de progiciels et entre les domaines d’applications
sont floues et perméables. En un sens, les applications sont des extensions du logiciel de
base. Plus significativement, les frontières entre les applications tendent à s’estomper.
Par exemple, les progiciels de traitement de texte comme Word ou Wordperfect
s’enrichissent de fonctions de traitement de tableaux qui rejoignent les tableurs tels que
Excel ou Quattro. A l’inverse, les fonctions de traitement des informations textuelles
dans les cellules d’un tableur offrent progressivement des possibilités analogues à celles
des traitements de texte. Il en va de même des fonctions de dessin, de préparation de
graphiques, etc. Les documents susceptibles d’être manipulés par ces programmes
deviennent des documents composites où peuvent figurer toutes les formes
d’information y compris les sons, les photographies et les images animées, ce qui
implique des logiciels capables de traiter toutes ces formes de façon homogène et
coordonnée.

Les progiciels jusque là distincts comme les traitements de texte, les tableurs, les
programmes de dessin et de présentation, les bases de données, les messageries, … se

ccxvi
réunissent donc en « suites » (Office de Microsoft, PerfectOffice de Novell, Smartsuite
de Lotus), au sein desquelles chacun peut utiliser les services des autres, et où
apparaissent des bibliothèques de modules fonctionnels communs. Ces modules
généraux utilisés par toutes les applications prennent de fait le statut de fonctions
logicielles de base, engendrant ainsi une migration de fonctions applicatives vers le
logiciel de base. Ce même mouvement affecte les extensions aux systèmes de base
comme aux systèmes applicatifs, que les fournisseurs de systèmes incorporent
progressivement dans leurs offres. Nous verrons que ce phénomène de migration
continuelle des fonctions depuis la périphérie des applications vers le coeur des
systèmes joue un rôle primordial dans la structuration de l’industrie du progiciel.

Le développement des progiciels

Examinons dans ses grandes lignes le processus de développement des progiciels


afin d’en comprendre l’économie et d’en déduire les mécanismes de structuration du
secteur.

Le développement d’un progiciel de quelque importance est une entreprise


complexe par nature. Pour avoir une chance de trouver un marché, un progiciel doit
posséder un minimum de richesse fonctionnelle et de convivialité, se prêter à de
multiples combinaisons de demande des utilisateurs et pouvoir s'exécuter dans une
grande variété d'environnements matériels et logiciels. En pratique, il est rare qu’un
progiciel ne comporte pas plusieurs centaines de milliers d’instructions élémentaires, et
courant qu’il en contienne plusieurs millions. La seule façon de construire de tels
édifices de façon fiable est de les décomposer en modules plus simples qui pourront être
écrits et testés séparément, puis assemblés ensuite.

In fine, tout programme est constitué par une séquence d’instructions élémentaires
directement exécutables par les microprocesseurs, qui n’effectuent que des opérations
simples très éloignées des fonctions applicatives offertes par les progiciels, mais à partir
desquelles on peut construire n’importe quel programme. On considère habituellement
que la taille optimale d’un module, c’est à dire celle qui permet le meilleur arbitrage
entre sa puissance fonctionnelle et la possibilité de le tester de façon efficace, est de
l’ordre de 50 à 100 lignes de programme ou instructions . C’est donc à ce niveau de
51

finesse que doit aboutir la décomposition du progiciel en modules élémentaires. Si la


décomposition fonctionnelle est correcte, chacun de ces modules réalise une fonction
simple bien définie qui peut être invoquée dans tout autre programme grâce à l’écriture
d’une ligne de code souvent appelée une « macro-instruction ».

Tout en respectant la limitation empirique de taille qui permet de le tester


efficacement, chaque module peut donc utiliser les fonctions des autres modules en les
appelant par des macro-instructions (ou tout autre mécanisme analogue). Au total, un
progiciel conçu selon ce modèle se présente comme une collection de modules qui
s’utilisent les uns les autres, formant une sorte de pyramide dont le sommet est le

51 En réalité, une notion plus pertinente est celle de « complexité » d’un module, dont diverses
mesures ont été proposées. Imposer une limite supérieure à la complexité entraîne une limitation de la
taille, aussi nous en resterons à cette notion.

ccxvii
module « maître » qui est appelé par l’utilisateur et qui commande et résume tous les
autres.

Un progiciel important peut comprendre des milliers, voire des dizaines de


milliers de tels modules, qui à leur tour doivent être organisés en ensembles
fonctionnels homogènes de différents niveaux, réalisant chacun une partie définie des
fonctions globales du progiciel. Vu de l’extérieur, un progiciel se présente ainsi comme
un ensemble hiérarchisé de sous-systèmes, eux-mêmes articulés en grandes fonctions
formées de différents composants, etc.

La démarche d’ensemble de développement d’un progiciel est schématisée dans la


figure ci-dessous. Au départ, l’ensemble des fonctions souhaitées et des objectifs visés
est décrit dans un document de spécification. Commence alors un processus analytique
de conception du programme, consistant à décomposer successivement chacune des
fonctions en sous-fonctions plus simples, tout en définissant de façon précise les
fonctions que doivent réaliser chacun de ces éléments fonctionnels, ainsi que les
modalités des relations entre eux. Si nécessaire, ces sous-éléments sont à leur tour
décomposés en éléments plus simples, jusqu’à ce que chacun des éléments respecte la
définition d’un module élémentaire.

Le développement du logiciel

systèmes

sous-systèmes tests

fonctions

intégration
modules

conception

spécification rédaction tests


temps

Dans la phase suivante, chacun des modules est rédigé dans un langage de
programmation approprié. Les modules de base, qui ne font appel à aucun autre module
du programme en cours de développement, peuvent être testés individuellement pour
vérifier que leur comportement réel est conforme à leurs spécifications telles qu’elles
résultent du processus de décomposition ci-dessus (tests dits « unitaires »). Lorsque ces
modules fonctionnent correctement de façon isolée peut commencer le processus
d’intégration, qui est en quelque sorte l’inverse du processus de décomposition. Les
modules intermédiaires sont progressivement reliés aux modules de niveau inférieur
qu’ils utilisent, et le bon fonctionnement de chaque sous-assemblage est vérifié. Ce
processus de construction progressive du système à partir des modules se poursuit

ccxviii
jusqu’à ce que le progiciel ait été testé dans toutes ses combinaisons de fonctions, de
modes d’utilisation et d’environnements d’exécution.

Au cours de ce processus d’intégration se révèlent habituellement un très grand


nombre d’erreurs . Celles-ci peuvent porter sur les derniers modules en cours de tests,
52

auquel cas leur correction n’a que des effets locaux sur le niveau de tests en cours, mais
elles peuvent aussi concerner des modules déjà testés. Dans ce dernier cas, il faudra
reprendre les tests en amont après correction des modules défectueux, afin de vérifier
que ce qui marchait correctement jusque-là marche toujours après modifications (tests
dits « de non-régression »). Il faut pour cela ré-exécuter des séries de tests déjà effectués
antérieurement. En effet, dans l’état actuel des technologies de programmation, le seul
moyen de vérifier qu’un programme est correct est de l’exécuter. Tant qu’un passage de
test aura révélé au moins une erreur et donné lieu à au moins une correction, celle-ci
devra être vérifiée en recommençant le même test, jusqu’au passage qui ne révélera plus
aucune erreur.

A ce stade, le programme exécute correctement toute la bibliothèque de test sur


les configurations des machines utilisées dans cette phase. Mais pour un programme
complexe, le fait même qu’il ait été correctement exécuté dans son intégralité dans une
gamme raisonnable de cas d’utilisation et de configurations ne garantit aucunement
qu’il s’exécutera correctement dans tous les cas et toutes les configurations
envisageables. Là encore, le seul moyen de s’en assurer est de procéder à des essais
réels suffisamment longs, de préférence conduits par des utilisateurs représentatifs en
situation d’exploitation réelle. Cette étape, qui suppose qu’une première étape de tests
système ait été franchie avec succès afin d’assurer une fonctionnalité et une convivialité
suffisantes, est souvent désignée par le terme de « beta-test ». Pour des progiciels
majeurs, elle peut concerner des milliers d’utilisateurs (plus de 400000 pour Windows
95). Essayer toutes les combinaisons possibles est impossible en toute rigueur, en
essayer de nombreuses coûte du temps et de l’argent, même quand le résultat est positif
et n’appelle aucune correction.

Sans entrer dans le détail des estimations, qui font l’objet de toute une littérature,
nous pouvons utiliser ce modèle pour voir comment les coûts et les délais de
développement varient selon le système, et donc caractériser le niveau d’investissement
et la durée de cycle, qui gouvernent la personnalité d’entreprise des firmes du secteur.

Le temps nécessaire pour la phase de conception est largement imprévisible. Il est


évidemment fonction de la taille et de la complexité du projet, mais aussi des méthodes
et des conventions adoptées pour l’ensemble du développement, qui définissent les
conditions de passage de la phase d’analyse à la phase d’écriture. On constate que toute
imperfection au stade de l’analyse induit un supplément de coûts d’intégration bien
supérieur à ce qu’aurait coûté le supplément de temps d’analyse qui aurait permis de
l’éviter. C’est pourquoi les méthodes de développement tendent à prolonger la phase
d’analyse dans l’espoir de limiter les efforts d’intégration. Cette première phase reste

52 Certaines études ont permis d’estimer que le nombre d’erreurs de programmation présentes au
début des tests est couramment de l’ordre de 2 pour 10 lignes de code. Pour un programme de 100000
lignes, c’est donc 20000 erreurs, de gravité heureusement très variable, qui devront être décelées et
corrigées.

ccxix
néanmoins la plus difficile à estimer, d’autant plus que les paramètres tels que la taille
du programme, le nombre de modules, … ne sont à ce stade pas encore connus avec
précision.

La phase d’analyse aboutit normalement à une estimation assez fiable du nombre


de modules, de la taille et de la complexité de chacun d’entre eux, de leur combinatoire
et de la complexité de leurs interactions. Le temps d’écriture peut alors être estimé avec
une certaine précision. Il est en gros proportionnel au nombre de modules et à la
complexité de chacun, en supposant que les modules ont par définition des tailles
comparables en nombre d’instructions.

Comme le temps d’analyse, le temps nécessaire pour l'intégration et les tests est
difficilement prévisible. il croît évidemment avec la taille du système, mais dépend plus
précisément du nombre et de la complexité des interactions possibles entre modules. On
admet généralement que, toutes choses égales par ailleurs, le temps d’intégration varie
comme une certaine puissance du nombre de modules, l’exposant de cette puissance se
situant entre 1.5 et 2. Autrement dit, quand on double le nombre de modules d’un
système, le temps nécessaire pour le tester est multiplié par un facteur compris entre 3 et
4. A une autre échelle, il faut plusieurs milliers de fois plus de temps pour intégrer et
tester un système de 10000 modules que pour un système de 100 modules ! Dès qu’un
système atteint un certain degré de complexité, son temps d'intégration devient très
supérieur au temps d’analyse et d’écriture, et l’ensemble croît en gros comme le carré
du volume. On comprend par là pourquoi la productivité décroît rapidement quand
l'échelle augmente.

Il faut de plus tenir compte de paramètres extérieurs au système lui-même :


diversité des conditions d’utilisation, variété des configurations matérielles et
logicielles, objectifs de fiabilité. Dans les quelques semaines qui suivent sa
disponibilité, une nouvelle version de Windows sera installée sur plusieurs millions
d’ordinateurs représentant des milliers de configurations différentes et des milliers de
fournisseurs de matériels indépendants. Pour pouvoir raisonnablement espérer que seuls
quelques utilisateurs atypiques rencontreront des difficultés, il faut évidemment un
programme de « beta-tests » portant sur des milliers d’utilisateurs cobayes pendant
plusieurs mois, qui serait largement inutile si tous les micro-ordinateurs étaient
configurés de la même façon, fournis par un constructeur unique et utilisés pour les
mêmes applications suivant les mêmes procédures.

Pour que l’effort total de développement soit contenu dans une durée calendaire
raisonnable, il faut pouvoir distribuer le travail entre plusieurs équipes fonctionnant en
parallèle. Dans la phase initiale, il devient progressivement possible de mener en
parallèle l’analyse de plusieurs sous-ensembles dès que l’analyse précédente a permis
de les isoler et de les spécifier avec certitude. C’est donc un des objectifs de cette phase
que de permettre le plus rapidement possible une distribution de la suite du travail entre
équipes aussi autonomes que possible. Dans le cas idéal, on met ainsi en place
progressivement une organisation qui reflète la structure interne du système en cours de
développement. Dans la réalité, il arrive souvent que l’organisation préexiste à la
conception d’un nouveau système, et que cette organisation dicte a contrario au système
une structure qui n’est pas nécessairement optimale.

ccxx
Le degré maximal de parallélisme est atteint dans la phase d’écriture, ce qui
contribue à limiter la durée calendaire de cette phase. Il est par contre évident que
l’intégration s’accommode de moins en moins bien de travaux parallèles au fur et à
mesure que le système se recompose. Le processus d’intégration du système met en
œuvre un processus de ré-intégration de l’organisation, en sens inverse de celui qui a
résulté de la phase d’analyse. Chaque niveau successif de sous-ensemble peut être
intégré sous la responsabilité de la même organisation qui en a assuré l’analyse, et ceci
jusqu’à remonter à l’échelon qui a défini le premier niveau de décomposition du
système global. Mais pour chaque erreur constatée, il faut en rechercher les causes en
remontant jusqu’aux modules qui doivent être corrigés, et revenir en arrière dans le
processus d’intégration pour le reprendre au niveau de ces modules modifiés.

La nature même du processus d’intégration rend extrêmement difficile de prévoir


le temps nécessaire pour atteindre un degré de fiabilité fixé d’avance. Tout au plus peut-
on dire que la probabilité de détecter une erreur existante croît avec la durée des tests, et
que la probabilité qu’il existe des erreurs résiduelles est d’autant plus faible que le
système a fonctionné sans incidents pendant plus longtemps dans une plus grande
variété de configurations. Dans la pratique, on traite le problème à l’inverse en fixant
d’avance une durée raisonnable de tests, qui peut être supérieure à un an pour des
systèmes d’exploitation complexes, et qui est cohérente avec le calendrier imposé par
des raisons de marché ou de concurrence.

Pour respecter ce calendrier, les erreurs qui sont découvertes trop tard dans le
cycle sont simplement signalées et seront corrigées dans des versions ultérieures. De
même, pour certains cas de problèmes non critiques, il sera préférable, pour ne pas
retarder le processus d’intégration, de remettre la correction à plus tard en acceptant une
limitation temporaire qui sera indiquée dans la documentation.

Le cycle total de développement d’un programme ne peut pas raisonnablement


dépasser deux ou trois ans, et il existe donc une limite supérieure à la taille du système
raisonnablement testable en un seul cycle d’intégration. Des développements
particulièrement ambitieux seront nécessairement réalisés en plusieurs versions
successives, afin que chacune d’entre elles puisse être validée par un usage intensif en
milieu réel avant d’entreprendre d’y intégrer des modifications et des extensions.

Pour ces versions nouvelles, il faudra non seulement définir de nouveaux modules
correspondant aux extensions, mais aussi apporter des modifications à des modules
existants. Notons que si l’effort nécessaire pour les phases d’analyse et d’écriture ne
dépend que de l’importance des modifications, c’est la totalité ou presque du système
qui devra de nouveau être intégrée et testée pour tenir compte de ces modifications de
l’existant. On voit que si ce processus de développement cumulatif rend possible, sur
une durée suffisante, des constructions extrêmement complexes, l’obligation de tester le
système complet à chaque version impose de nouveau des limites à la taille et à la
complexité des progiciels ainsi créés. De plus, il existe une limite pratique à ce qui est
possible par accumulation de modifications, et le système devra donc faire
périodiquement l’objet d’une refonte majeure.

En résumé, pour des systèmes complexes, c’est la phase de test et d’intégration


qui consomme l’essentiel des ressources et qui détermine la durée totale du cycle de

ccxxi
développement. Plus généralement ce sont les contraintes de cette troisième phase qui
gouvernent l’ensemble du processus. On voit aussi que la production de progiciels très
généraux, c’est à dire offrant une grande variété de fonctions en se pliant à des
modalités d’utilisation diversifiées sur des configurations quelconques, exige des
organisations et des méthodes industrielles. Seules en effet des entreprises industrielles
peuvent investir les ressources nécessaires en personnel et en matériel, gérer
efficacement des projets complexes impliquant le travail coordonné de nombreuses
équipes en parallèle et le respect d’une discipline contraignante, tout en faisant face à
des situations essentiellement imprévisibles qui appellent des arbitrages permanents
dont les conséquences économiques peuvent être lourdes.

Economie de la production et structure sectorielle

Coûts variables, parts de marché et prix

Nous avons vu que la facilité de reproduction est une caractéristique intrinsèque


du logiciel. Créer un nouvel exemplaire à partir d’un programme existant est rapide, peu
coûteux et ne nécessite pas de matériel spécialisé puisque le matériel destiné à utiliser le
programme permet aussi de le reproduire. C’est comme si chaque voiture était capable
de reproduire gratuitement son moteur, ou si les appareils photographiques pouvaient
produire des pellicules vierges.

Pour un particulier, reproduire un progiciel même complexe tel que Windows ne


coûte que quelques minutes et le prix de quelques disquettes. Le professionnel qui doit
produire de nombreux exemplaires peut investir dans des matériels spécialisés qui
réduiront encore ses coûts variables, au point que l’essentiel du coût unitaire sera formé
par la documentation plutôt que par le logiciel lui-même. Pour fixer les idées, on peut
estimer que le coût variable de fabrication d’un logiciel comprenant 8 disquettes (soit
plus de 12 millions d’octets) et une documentation de 1500 pages est de l’ordre de 15$
soit moins de 100 F. Ce chiffre est à rapprocher d’un coût de développement probable
de l’ordre de 10 ou 20 millions de dollars. Le ratio des frais fixes aux frais variables,
dont nous avons vu qu’il détermine l’échelle économique de production et gouverne le
degré de concentration du secteur, se chiffre donc en millions.

Les coûts variables de reproduction sont en gros proportionnels à la taille du


progiciel et de la documentation qui l’accompagne, avec pour le programme lui-même
un effet de seuil correspondant à la capacité d’une disquette (actuellement 1,4 millions
d’octets). Mais nous avons vu précédemment que les coûts fixes de développement
croissent plus vite que la taille du logiciel à cause des dépenses de test et d’intégration
dont la productivité baisse fortement quand la taille augmente. Il en résulte que l’échelle
économique de production est d’autant plus élevée que le progiciel est plus volumineux
et complexe. Un programme simple peut se rentabiliser avec quelques milliers
d’exemplaires vendus, alors qu’un système complexe demandera une diffusion de
plusieurs millions.

Bien qu’elle se traduise par un ratio inférieur à celui que nous avons estimé pour
les composants, qui est de l’ordre de la dizaine de millions, cette relation entre coûts

ccxxii
fixes et coûts variables confère à chacun des champs concurrentiels définis par les
fonctions d’un progiciel donné tous les attributs et toute la dynamique d’un secteur
fortement concentré, que nous avons décrite au Chapitre 7. Les coûts variables unitaires
de reproduction sont infimes par rapport au coût fixe du prototype, et donc le coût
unitaire moyen décroît fortement avec le volume.

Les mêmes causes produisant les mêmes effets, la production de progiciels est une
industrie à tendance monopoliste comme celle des composants. Dans chacun des sous-
secteurs qui la composent, nous trouverons un faible nombre d’offreurs dont les parts de
marché très inégales s’échelonnent en gros de façon logarithmique. Par exemple, dans le
cas typique des systèmes d’exploitation pour micro-ordinateurs PC, le complexe
MS-DOS/Windows de Microsoft occupe plus de 80% du marché, IBM un peu plus de
10% avec OS/2, les différents fournisseurs de systèmes qui se réclament d’UNIX se
partageant le reste.

Répétons ici que cette inégalité n’est ni fortuite, ni le résultat de manœuvres


déloyales de domination, mais constitue une caractéristique intrinsèque des structures
concentrées. Autrement dit, l’action de la concurrence entre firmes détermine laquelle
obtiendra 70% ou plus du marché, laquelle se situera autour de 15%, et lesquelles
survivront en se partageant les miettes. Mais elle ne peut ni laisser subsister un grand
nombre de firmes, ni faire que la répartition des parts de marché soit égalitaire. Qu’une
firme occupe 80% du marché des systèmes d’exploitation est une conséquence
inéluctable de la dynamique concurrentielle. Il se trouve que c’est Microsoft qui a gagné
le gros lot. L’histoire aurait pu faire que ce soit IBM ou Digital Research ou un autre ;
elle n’aurait pas pu faire que cinq, dix ou cinquante fournisseurs se partagent le marché
à parts égales.

Quant aux prix, ils se fixeront comme pour les composants électroniques à un
niveau suffisamment bas pour que la sensibilité du marché aux prix soit presque nulle.
Ceci entraîne en particulier que le choix du marché se fondera principalement sur
d’autres attributs du produit . Toujours pour les systèmes d’exploitation, les prix
53

tournent autour de 1000F soit moins de 200$, c’est à dire moins du dixième du prix de
l’ordinateur qu’ils font fonctionner. A ce niveau, les différences de prix des systèmes en
concurrence n’ont sur le choix des clients qu’une faible incidence comparativement aux
autres caractéristiques du produit. Par ailleurs, comme dans le cas des composants, les
prix sont très inférieurs à ceux qu’aurait intérêt à pratiquer un monopoleur. En effet,
doubler (par exemple) le prix du progiciel n’augmenterait le prix total du système que
de 10% et ne réduirait pas sensiblement le nombre total d’unités vendues, se traduisant
ainsi pour les offreurs de progiciels par un revenu et des profits supérieurs.

L’originalité du secteur

Si le secteur des progiciels présente des analogies avec le secteur des composants,
il s’en distingue également par un certain nombre de caractéristiques.

Tout d’abord, comme nous l’avons vu, les progiciels ne constituent pas un secteur
unique où tous les offreurs seraient en concurrence entre eux. Il existe une multitude de

53 Voir chapitre 8

ccxxiii
segments de marché indépendants qui forment autant d’arènes concurrentielles où les
différents offreurs choisissent ou non d’être présents. Les secteurs qui se constituent
ainsi peuvent avoir des caractéristiques suffisamment différentes pour que les modalités
de la concurrence n’y soient pas identiques, de même que les personnalités d’entreprise
adaptées à chacun de ces secteurs. En revanche, les frontières entre ces secteurs
élémentaires sont floues et mouvantes. La structure de l’industrie du progiciel est donc
par nature plus complexe et plus instable que celle des composants.

Nous avons vu précédemment que les investissements de développement de


logiciel s’inscrivent dans une plage de variation plus basse et relativement plus large.
Alors que pour les composants la mise va de quelques centaines de millions de dollars à
quelques milliards, soit un rapport de l’ordre de 10, elle dépasse rarement quelques
dizaines de millions et peut se réduire à quelques dizaines de milliers de dollars pour les
progiciels, soit un rapport mille. Quant à l’échelle économique de production, elle est de
l’ordre de la dizaine de millions pour les composants, alors qu’elle peut aller du millier
au million pour les progiciels selon l’ampleur du développement. Le caractère concentré
du secteur pourra donc être plus ou moins accentué selon les domaines.

Deuxièmement, les investissements ne portent que sur la phase de développement


et sont formés essentiellement de travail humain. Le progiciel ne nécessite que
relativement peu d'investissements matériels et pas d’investissements lourds de
fabrication. Une équipe motivée prête à investir beaucoup de son temps peut ainsi
entreprendre l’écriture d’un progiciel sans devoir rechercher au préalable des capitaux
importants. Les obstacles à l’entrée peuvent facilement être surmontés ou ignorés pour
des développements innovants ou de taille modeste. Même pour des projets plus
importants, il reste possible que des inconscients sous-estiment les vrais problèmes
industriels comme les prix dissuasifs et se lancent quand même dans l’aventure. Il n’est
même pas totalement exclu que quelques-uns puissent y réussir.

Par ailleurs, les technologies de développement comme celles de distribution des


progiciels ne connaissent pas l’évolution frénétique qui caractérise les composants.
Toutes choses égales par ailleurs, l’échelle économique de production y reste donc assez
stable. Puisque le marché est en croissance, et ce d’autant plus vite que le domaine
d’application considéré est innovant, le rapport de la taille du marché à l’échelle de
production est probablement croissant quel que soit le domaine, et il peut donc y avoir
place pour des firmes de plus en plus nombreuses. Le processus de concentration, qui
pour les composants entraîne inéluctablement l’élimination des concurrents marginaux,
n’est ici lié qu’à la maturation de chaque sous-secteur et n’a pas de raison de se
poursuivre quand il a abouti à des parts de marché et des prix acceptables par tous les
offreurs.

De plus, l’invasion par l’informatique de toutes les activités humaines fait


continuellement apparaître des domaines d’application nouveaux, et donc des secteurs
concurrentiels nouveaux pour les progiciels. Le nombre des sous-secteurs peut ainsi
rester indéfiniment croissant. A chacun de ces sous-secteurs peuvent correspondre des
besoins de développement différents et donc des échelles économiques et des
concentrations différentes. A un instant donné, les sous-secteurs se situent à des stades
d’évolution différents dans leur processus de concentration. En particulier les plus
récents n’ont pas atteint l’état de concentration asymétrique. Comme de plus certains

ccxxiv
domaines peuvent être dominés par une firme spécialisée dans ce seul domaine et donc
relativement petite, le progiciel dans sa totalité peut avoir les apparences d’un secteur
dispersé si on ne prend pas soin d’en conduire l’examen domaine par domaine.

L’évolution technologique à long terme prend également une forme différente.


Pour les microprocesseurs, nous avons vu qu’exploiter le potentiel technologique
impose de concevoir une puce nouvelle et de reconstruire les lignes de production à
chaque génération, rendant totalement obsolètes les puces précédentes. Au contraire, la
plasticité du logiciel et la stabilité relative de ses technologies de développement permet
aux progiciels d’évoluer par versions successives de façon cumulative. Comme pour les
composants, un challenger doit rechercher son avantage concurrentiel par les qualités du
produit, ce qui motive le développement de nouvelles versions dotées de fonctions
nouvelles et d’améliorations aux fonctions existantes, tant par le leader pour maintenir
sa domination que par le challenger pour la contester. Les systèmes existants peuvent
toujours être perfectionnés, des idées nouvelles peuvent apparaître même pour des
domaines existants, et il se crée en permanence des besoins de marché non satisfaits qui
alimentent ces versions successives.

Enfin, alors que les microprocesseurs ne sont vendus par leurs producteurs qu’à
des entreprises d’assemblage de matériels pour être incorporés dans leurs machines, le
plus souvent à raison de un processeur et un seul par unité, les progiciels sont
commercialisés en grande partie directement auprès des utilisateurs. La proportion de
ventes directes aux utilisateurs et de vente indirecte à travers les firmes de matériel varie
selon la nature du progiciel. La grande majorité des ventes initiales des systèmes
d’exploitation est réalisée à travers les vendeurs de matériel qui équipent leurs machines
du système d’exploitation de leur choix. L’utilisateur peut commander une machine nue
et choisir lui-même son système d’exploitation, mais la plupart du temps il s’en tient au
système pré-installé et ne se procurera de façon directe que les nouvelles versions de ce
système. A l’opposé, les progiciels d’application les plus spécifiques sont toujours
acquis directement par leurs utilisateurs.

Ces distinctions sont importantes en termes de modalités de la concurrence et de


la sensibilité du marché aux prix. Le secteur des systèmes d’exploitation fonctionne
comme celui des composants : la taille totale du marché y est peu sensible aux prix, la
concurrence pour les parts de marché revêt les mêmes modalités et conduit à la même
structure asymétrique. Il en va de même pour les programmes d’application très
courants comme les traitements de texte ou les tableurs, qui sont eux aussi utilisés sur
toutes les machines et de plus en plus souvent pré-installés par les constructeurs comme
les systèmes d’exploitation.

En revanche, pour des applications moins universellement utilisées, le marché des


progiciels n’est qu’une fraction du parc d’ordinateurs installés, d’autant plus faible que
l’application est moins répandue. Le volume total des ventes, et non seulement la
répartition entre les offreurs d’un volume total déterminé par ailleurs, est alors lui-même
sensible aux prix pratiqués, et ceci d’autant plus que l’application concernée touche
potentiellement un grand nombre d’utilisateurs.

ccxxv
La tarification des progiciels

Les tarifs pratiqués pour les progiciels illustrent bien le résultat des mécanismes
classiques de formation des prix dans un secteur de type monopoliste, c’est à dire où les
coûts unitaires variables sont très faibles par rapport aux coûts fixes, ici les coûts de
développement.

Tout d’abord, les prix « catalogue » sont à peu près indépendants du contenu
fonctionnel du produit et donc de ses coûts. L’échelle des prix s’organise en quelques
grandes familles plus directement liées à la taille du marché visé et à sa sensibilité aux
prix. Les utilitaires simples et tous les jeux quelle que soit leur complexité se situent
autour de 500F ou moins (moins de 100$), les systèmes de base (DOS, Windows, OS/2)
et les utilitaires plus complexes autour de 1000 à 1500F, les systèmes applicatifs et les
outils courants (Traitement de Textes, tableurs, PAO, …) entre 3000 et 7000F. Seuls
quelques outils exceptionnels comme des compilateurs de langages rarement utilisés sur
micro-ordinateurs atteignent la zone des 12000 à 20000F. Or il est bien clair qu’un
compilateur de Pascal Objet ou Visual C++ vendus 1500F sont plus complexes et plus
coûteux en développement qu’un Fortran à 12000F.

L’offreur d’un nouveau progiciel doit choisir son prix par rapport à ces gammes
de prix standard qui se sont formées sur le marché. Les prix préexistent en quelque sorte
au progiciel, et sont indépendants de ses coûts de développement. Il appartient ensuite à
chaque offreur actuel ou potentiel de gérer ses coûts et ses volumes de façon à produire
un profit si possible.

Au stade de la commercialisation, le coût du produit, qui se résume pratiquement


aux coûts de développement, est devenu irrécupérable et ne peut plus être modifié par
quelque action que ce soit. Tout revenu supplémentaire, aussi faible soit-il, est donc un
supplément de profit et mérite d’être recherché. Pour y parvenir, la technique classique
prêtée aux monopoles par la théorie économique est la tarification différenciée ou
tarification par segments. Ce système consiste à vendre le même produit à des prix
différents selon le segment de clientèle, dans la mesure où il est possible d’identifier des
segments assez isolés les uns des autres pour que le prix le plus bas ne se généralise pas
à tous. Dans le cas du progiciel, cette isolation est facilitée par le fait que le progiciel
n’est pas cessible par l’utilisateur, ce qui élimine théoriquement toute possibilité
d’arbitrage entre segments.

C’est pourquoi le prix d’un même progiciel varie selon le client, les conditions, le
lieu, le moment, etc. Par exemple les tarifs de cession aux constructeurs pour pré-
installation dans leurs systèmes sont très inférieurs aux tarifs de vente directe aux
utilisateurs, et peuvent l’être d’autant plus que c’est alors le constructeur et non le
producteur du progiciel qui en supporte les coûts variables. Par exemple, un
constructeur de micro-ordinateurs ne paye à Microsoft que 35$ (moins de 200F) par
exemplaire du couple MS-DOS/Windows, alors que le prix de Windows seul, vendu
isolément, est d’environ 1000F. A la sortie, la contribution du progiciel au prix total du
système livré reste notablement inférieure au prix du progiciel isolé. L’objectif du
fournisseur de progiciel est bien évidemment de se créer une clientèle captive pour les
versions ultérieures. Un cas un peu analogue est celui des « licences de site » et de

ccxxvi
toutes leurs variantes négociées pour permettre à un grand utilisateur d’utiliser un
progiciel sur plusieurs machines sans devoir payer autant de fois le prix unitaire, en
prenant à sa charge les coûts de reproduction ou une partie des coûts de support
technique.

La tarification des versions successives est une autre forme de tarification


différenciée, puisque chaque nouvelle version d’un système reprend sans modification
un grand nombre de modules de la précédente, qui sont ainsi vendus plusieurs fois aux
mêmes clients. La mise à jour d’un système contient d’ailleurs le plus souvent le
système complet et non seulement les parties modifiées, mais comporte également des
fonctions supplémentaires pour vérifier qu’une version précédente est bien présente sur
la machine au moment de l’installation, ce qui constitue un moyen d’isoler la clientèle
des mises à jour de celle des nouveaux utilisateurs . Une variante de cette approche
54

consiste à offrir un prix préférentiel aux utilisateurs de produits concurrents.

Pour les grands progiciels, la lutte pour les parts de marché met principalement en
jeu les accords d’installation des progiciels sur les machines neuves livrées par les
constructeurs, les prix réduits pour les utilisateurs de produits concurrents ou les prix
« d’attaque » pour la première version d’un progiciel nouveau. Après que le choix des
clients a été déterminé, les nouveautés de chaque version et les coûts de conversion vers
un progiciel concurrent contribuent à faire accepter les prix des versions successives,
dont le cumul après quelques années d’utilisation dépasse de loin le prix auquel il est
possible à ce moment d’acquérir la version courante du progiciel en question.

D’autres formes de tarification différenciée sont pratiquées pour les progiciels


destinés aux grands ordinateurs, qui consistent le plus souvent à profiter de leur statut
hybride pour les facturer comme un service et non comme un produit. On rencontre par
exemple des tarifs au prorata de l’utilisation ou selon la puissance du processeur sur
lequel s’exécutent, ou des systèmes de redevance périodique comprenant la
maintenance et les versions successives, etc. Quels que soient les efforts des
fournisseurs concernés, il est peu probable que ces pratiques s’étendent un jour au
progiciel pour micro-ordinateurs, et beaucoup plus vraisemblable qu’elles disparaissent
progressivement du monde des grands systèmes.

Notons enfin que l’extrême facilité de reproduction des progiciels sur des supports
très divers rend possible leur copie et leur diffusion illicite, que les dispositions
contractuelles ne peuvent que partiellement empêcher. La possibilité du « piratage »
contribue à imposer des limites supérieures aux prix de marché. L’utilisateur sera
d’autant plus tenté de se procurer une copie gratuite que le prix du logiciel est élevé, que
le logiciel est répandu donc facilement accessible, et que le milieu où il opère est
permissif. Le piratage introduit une forme de sensibilité du marché aux prix qui porte
non pas sur le nombre d’exemplaires diffusés, mais sur la proportion d’exemplaires
facturés parmi les exemplaires utilisés.

54 On retrouve ici la vieille tarification « fonctionnelle » dont nous avons parlé au chapitre 1, qui
peut conduire à ajouter à un produit des fonctions et donc un coût supplémentaire dans le seul but de
pouvoir le vendre moins cher, mais à une clientèle distincte.

ccxxvii
Dynamique d’ensemble

En résumé, l’industrie du progiciel apparaît non seulement comme un secteur


radicalement distinct de celui des services auquel on l’assimile trop souvent, mais
constitue elle-même un complexe de secteurs dont chacun est défini par un domaine
d'application où plusieurs firmes offrent des produits concurrents répondant au même
besoin. A contrario, des produits répondant à des besoins différents ne sont pas
directement en concurrence et forment des secteurs différents. Tous ces secteurs
obéissent à la même logique concurrentielle, qui découle de la structure de coûts
caractéristique de la production de progiciels, et qui en fait des secteurs de type
concentré.

Suivons le cycle d’évolution d’un tel secteur, considéré isolément. Lorsque le


domaine d’application est encore vierge, il est facile d’y pénétrer en n’entreprenant que
des développements relativement modestes qui suffiront souvent pour satisfaire un
besoin latent, grâce à la nature même de l’investissement qui ne comporte qu’une faible
part matérielle ou financière. Il apparaîtra donc vraisemblablement plusieurs offreurs
qui entreront en concurrence pour la part de marché, lançant ainsi le processus classique
de baisse des prix vers les prix standard et de constitution d'un oligopole dissymétrique
stable formé de quelques offreurs dont un fortement dominant. Au terme de ce
processus, les positions respectives seront verrouillées par des prix dissuasifs largement
indépendants du contenu du progiciel.

Nous avons vu que les forces de concentration sont d’autant plus vigoureuses que
le logiciel est plus volumineux et plus complexe. Des secteurs correspondant à des
applications simples par nature pourront donc conserver longtemps une structure plus
égalitaire et plus dispersée. Mais le plus souvent, la demande du marché et la
concurrence font évoluer naturellement le progiciel dans le sens d’une richesse et d’une
complexité croissantes, accélérant par là même le processus de concentration.

L’entrée dans un secteur d’application naissant peut être le fait de firmes déjà
établies dans d’autres secteurs. Ces firmes adopteront le plus souvent pour le nouveau
secteur une stratégie de préemption, en introduisant dès le départ des produits riches en
fonctions aux tarifs standard du marché, décourageant ainsi d’emblée l’entrée de petites
firmes spécialisées. La concurrence ne pourra alors impliquer que des offreurs du même
type et prendra immédiatement la forme qu’elle a dans les secteurs concentrés.

La même logique de formation des prix que nous avons vue à l’œuvre dans le cas
des composants électroniques (voir Chapitre 7) aboutit à fixer le prix au niveau du prix
de survie du plus petit offreur. Pour les progiciels, où il existe des prix standard de
marché, il est plus juste de dire que seuls survivent les offreurs dont le prix de survie est
inférieur au prix de marché, ce qui impose un volume minimal de ventes. Les
profitabilités respectives s’échelonnent alors du voisinage de zéro pour les offreurs
marginaux à des valeurs inhabituellement élevées pour les leaders. Ce phénomène
explique la grande dispersion des profitabilités que nous avons constatée au Chapitre 5.

ccxxviii
Les acteurs du progiciel

A la diversité des sous-secteurs qui composent le secteur des progiciels


correspond une grande variété d’acteurs. Bien que tous pratiquent a priori le même
métier, au sens où nous l’avons défini au Chapitre 6, les domaines d’application sont
nombreux et à des stades de maturité différents. De plus, nous avons vu que les
exigences du processus d’intégration réservent les grands systèmes complexes à des
entreprises importantes qui seules peuvent jouer le rôle d'intégrateur professionnel
nécessaire au succès industriel d'un système. Il apparaît donc une dichotomie entre les
grands systémiers et les offreurs spécialisés secondaires.

Nous avons soigneusement évité le terme maintenant consacré d’« éditeur » de


progiciels pour désigner des firmes comme Microsoft ou Novell. C’est que cette
appellation est particulièrement impropre. Dans le langage courant, le métier d’éditeur
est un métier distinct de l’activité des auteurs dont il consiste à publier les œuvres en les
mettant sous une forme propre à la distribution et en en gérant la diffusion. Pour les
progiciels, les auteurs sont le plus souvent employés par les « éditeurs », qui
juridiquement détiennent les droits sur les œuvres et en sont donc les véritables auteurs,
d’autant plus que les progiciels sont des œuvres collectives. Pour la plupart des firmes
de progiciel, c’est cette activité de création qui est dominante, l’activité d’éditeur au
sens strict du mot étant une activité secondaire souvent même sous-traitée. Utiliser le
mot « éditeur » pour désigner tous les offreurs de progiciels est donc un contresens.

Il existe néanmoins de véritables éditeurs de progiciels au sens habituel du mot,


qui mettent en forme et diffusent des programmes écrits par des auteurs indépendants de
la même façon que les éditeurs de livres. Il est d’ailleurs remarquable que ces éditeurs
sont souvent également éditeurs de livres d’informatique, et que les prix de leurs
progiciels soient tout à fait comparables aux prix des livres (100 à 200 F). On voit en
parallèle se développer sur le même modèle des éditeurs de progiciels sur CD-ROM ou
sur réseau.

Le métier d’offreur de progiciel

Le succès d’un progiciel repose non seulement sur sa richesse fonctionnelle, mais
aussi et surtout sur sa facilité d'utilisation, sa convivialité, ses possibilités de
personnalisation, d'extension et de connexion à d'autres logiciels, sa fiabilité, sa
possibilité d'évolution, etc. Les compétences nécessaires sont de trois ordres et
requièrent souvent une étroite coopération entre les trois types de spécialistes
correspondants. Tout d’abord une bonne connaissance des utilisateurs, de leurs besoins,
de leurs habitudes de travail, de leurs préférences, etc. Deuxièmement un spécialiste des
technologies propres à l’application, pour définir tes traitements appropriés. Enfin, des
compétences proprement informatiques dans les techniques de réalisation de progiciel
industrialisé.

Selon la nature du progiciel, ces compétences sont requises en proportions


variables. Si les fonctions prévues sont de nature purement informatique ou
suffisamment générale, comme pour les systèmes d’exploitation ou les traitements de
texte, la compétence applicative se confond avec la compétence informatique. Pour des

ccxxix
applications proprement dites comme la comptabilité, les statistiques, les calculs
d’aérodynamique ou la gestion de portefeuille, une connaissance spécifique des
techniques de l’application est nécessaire. Tant que le logiciel reste raisonnablement
simple, c’est la connaissance de l’application qui domine, et des compétences
informatiques relativement courantes peuvent assurer le succès à des firmes non-
informatiques mais expertes dans le domaine. Un exemple est celui des logiciels de
synthèse musicale, où des firmes comme Roland ou Yamaha sont présentes.

Si en revanche on s’éloigne des applications simples pour aller vers de grands


systèmes applicatifs destinés à une clientèle diversifiée, la connaissance de l’application
doit être complétée par une haute expertise en développement logiciel que des
entreprises non-informatiques ne possèdent que rarement, et dont elles ont tendance à
sous-estimer la nécessité. C’est pourquoi on ne compte plus les échecs d’entreprises qui
ont tenté de mettre sur le marché un progiciel dans leur domaine de spécialité, sans
avoir pris soin d’en confier le développement à une organisation dédiée suffisamment
pourvue de compétences informatiques.

L’activité de production de progiciel relève dans son ensemble de cycles longs et


d’une concurrence de type concentré. Les caractéristiques correspondantes, que nous
avons décrites au Chapitre 9, sont d’autant plus marquées qu’on passe de la production
de composants logiciels ou d’applications relativement simples vers l’activité de
systèmes complexes. Pour un logiciel simple, le cycle de développement peut être de
l’ordre de quelques mois, alors qu’il est de plusieurs années pour les grands systèmes
intégrés, comme pour les microprocesseurs.

Comme pour tous les produits, le développement et la diffusion sont deux


activités séparées dans le temps, et confiées à deux branches séparées de l’organisation.
Pour l’organisation de développement, le problème clef est de mettre sur le marché, au
moment opportun, des produits correspondant à une demande et compétitifs par rapport
à ceux (encore inconnus) des concurrents. Pour l’organisation commerciale, le problème
clef est de tirer le revenu maximal des produits existants, pour couvrir les frais de
structure et financer le développement des produits suivants, si possible en dégageant un
profit. Il faut pour cela une organisation commerciale forte, alliant si nécessaire des
ventes directes à un réseau de distributeurs, et opérant de façon efficace sur un vaste
territoire.

Cette activité commerciale est facilement mesurable et peut être organisée et


gérée, comme la diffusion de produits standards, selon des modalités adaptées aux
cycles courts. Pour le développement au contraire, le succès sur le marché ne peut pas
être mesuré à court terme dans le cours de l’activité. La seule part formalisable est le
suivi des coûts et des délais, mais non l’adéquation du produit à la demande du marché.
Sur ce dernier point, les décisions de l’entreprise reposent exclusivement sur la
confiance qu’elle accorde à ses développeurs, ce qui est d’autant plus facile que les
dirigeants participent eux-mêmes aux décisions de développement et restent familiers
avec les produits de la firme.

Dans une entreprise de progiciels, le rôle fondamental du dirigeant est donc de


s’assurer que les produits en cours de développement sont conformes à la demande
future du marché, et ce mieux que les produits concurrents. Ce rôle ne peut guère être

ccxxx
tenu que par un informaticien de profession, probablement rompu à l’utilisation et au
développement du progiciel, et qui doit de plus être compétent dans la gestion de son
entreprise.

Or il est plus courant pour un informaticien de maîtriser la gestion que pour un


gestionnaire de devenir compétent en logiciel. C’est pourquoi on trouve à l’origine de la
plupart des réussites en progiciel un développeur particulièrement clairvoyant qui a été
capable de créer et de diriger son entreprise. Mais le succès de ses produits peut amener
cet informaticien à être dépassé par les problèmes de gestion. Si on le remplace alors par
un gestionnaire, il est à craindre que ce dernier soit ignorant sur le plan technique et
divorce d’avec ses équipes de développement, ce qui met l’entreprise en grand danger.
Il s’ensuit que la taille efficace d’une entreprise de progiciel est limitée à ce qu’un
informaticien est capable de gérer sans perdre le contact avec la technique. Cette taille
maximale dépend du génie personnel du patron, et les grandes réussites sont le fait
d’individus exceptionnels. Une firme de progiciel qui réussit est nécessairement liée à
une personnalité d’exception.

Ces caractéristiques permettent d’expliquer pourquoi les firmes qui réussissent


dans le progiciel sont toutes des firmes spécialisées de relativement petite taille. IBM,
qui a été le pionnier du progiciel dès les années 60 pour ses propres grands systèmes,
n’a jamais été capable de devenir un acteur majeur dans le domaine des applications, ni
de concurrencer sérieusement Microsoft pour les systèmes d’exploitation pour micro-
ordinateurs. On peut considérer que Microsoft constitue également une exception par sa
taille, mais il est probable que cette situation est directement liée à la personnalité tout
aussi exceptionnelle de Bill Gates.

Les acteurs majeurs

Les offreurs de systèmes ont intérêt à s’attirer le plus grand nombre possible de
supporters, qu’ils soient développeurs d’applications ou constructeurs de matériel qui
pré-installeront le système. Ils chercheront donc à concevoir leurs produits de façon
qu’ils soient ouverts aux extensions offertes par d'autres, et à faciliter le développement
de ces extensions par des programmes d’information et de support destinés aux autres
firmes. Cette forme de concurrence par la séduction des offreurs secondaires peut se
traduire par des formes d’association plus ou moins formelles avec ces derniers, en
particulier par la formation de consortiums visant la définition de normes communes ou
des actions de commercialisation conjointes.

La concurrence entre les grands intégrateurs les pousse à enrichir leurs produits en
permanence en offrant des versions successives. Les extensions ou améliorations
offertes par les offreurs secondaires constituent à chaque instant un réservoir de
fonctions susceptibles d’être intégrées dans la nouvelle version du système, et que le
« systémier » pourra ou bien réécrire sous une forme compétitive avec les offres
secondaires, soit acquérir auprès de l’un de ces offreurs. Sur le long terme, on assiste
ainsi à une migration de fonctions, qui débutent comme des extensions mineures
indépendantes, puis se réunissent en sous-systèmes pour achever leur course à
l’intérieur de grands systèmes intégrés.

ccxxxi
Pour bénéficier de ce mouvement, les intégrateurs sont amenés à acquérir les
logiciels concernés auprès des firmes secondaires, et souvent à acquérir la firme elle-
même pour bénéficier de ses compétences et de sa base de clientèle. La migration des
fonctions s’accompagne d’un processus continu d’absorption des petites entreprises par
les industriels, compensé par l’apparition permanente de nouveaux acteurs dans des
domaines périphériques nouveaux.

Les acteurs secondaires

Les grands systèmes en place sont le résultat d’investissements cumulés qui se


chiffrent en dizaines de millions de dollars, alors que leurs prix de marché sont établis
autour de 1000$. Le candidat à l’entrée devrait donc investir à ce même niveau pendant
des années, puis vendre des dizaines de milliers d’exemplaires de son nouveau système
pour en couvrir simplement les coûts de développement. Aussi n’y aura-t-il
probablement plus de nouveaux entrants dans le secteur des systèmes d’exploitation,
comme d’ailleurs dans celui des systèmes de traitement de texte ou celui des tableurs.

En revanche, la variété infinie des domaines d'application et l'émergence


constante de nouveaux domaines crée en permanence des opportunités d'entrée dans des
niches particulières. Ces opportunités peuvent être saisies par des firmes déjà en place,
mais également par des firmes nouvelles, le plus souvent lancées par un développeur à
partir d’une idée personnelle, et financées par son effort personnel ou un peu de capital
risque. Mais si les barrières à l'entrée sont en apparence faibles, et donc la tentation
forte, on ne réussit qu'à condition d'arriver très tôt sur le marché avec un produit
parfaitement adapté à la clientèle, accompagné d'une action commerciale importante et
efficace.

Beaucoup de ces petites firmes disparaîtront si l’idée qui leur a donné naissance
est fausse ou non originale, moins bien réalisée ou moins bien vendue que les produits
concurrents, ou reprise entre temps par un offreur majeur. D’autres survivront dans des
réseaux parallèles de « shareware » où le paiement d’une redevance est laissé à
l’appréciation de l’utilisateur, et où la distribution est assurée par une variété de canaux
comme des annonces ou plus récemment des CD-ROM encartés dans les magazines
spécialisés, ou encore les réseaux informatiques tels qu’Internet.

Parmi les firmes qui réussissent, certaines offriront des produits assez originaux et
d’assez bonne qualité pour intéresser les offreurs majeurs, qui chercheront alors à
acquérir soit le produit soit la firme. Pour ces petites entreprises, la disparition peut être
le prix du succès et l’objectif de leur créateur, qui peut alors se retirer fortune faite ou
repartir dans l’aventure avec une autre idée.

Résumé et perspectives

Au total, en analysant le secteur des progiciels à l’aide des outils que nous avons
forgés dans la deuxième partie de cet ouvrage, nous découvrons un macro-secteur
complexe et diversifié, formé en réalité de secteurs distincts selon les fonctions des
progiciels. Les facteurs qui déterminent la forme du jeu concurrentiel et la structure
sectorielle qui en résulte varient de secteur à secteur selon la taille et la complexité des

ccxxxii
produits de chaque secteur. Les frontières entre secteurs sont floues et perméables, et
l’ensemble du macro-secteur est traversé de mouvements continuels.

A une extrémité, la taille et la complexité des grands systèmes imposent une


échelle économique de production élevée qui rendent prédominants les facteurs de
concentration du secteur. La dynamique des grands systémiers, analogue à celle des
composants, ne laisse subsister qu’un tout petit nombre de firmes et de systèmes qui se
partageant le marché de façon très inégalitaire. Nous examinerons plus en détail les
modalités et les conséquences de cette situation dans le chapitre suivant.

A l’autre extrémité, pour des développements d’ampleur limitée dans des


domaines nouveaux, c’est la modestie des obstacles à l’entrée qui domine et qui autorise
une floraison des innovateurs et des innovations. Les nouveaux domaines d’utilisation
des ordinateurs, qui apparaissent en permanence, passent ainsi par une phase initiale où
la structure du secteur correspondant est de type dispersé et autorise une concurrence
ouverte entre des solutions alternatives. Cette phase peut donner leur chance à des
acteurs très divers et faire place, à côté de firmes établies, à de petites entreprises, à des
laboratoires universitaires ou à des individualités d’exception.

Ces deux mondes vivent en symbiose. D’une part les innovateurs et les offreurs
secondaires forment des constellations d’alliances autour des standards du marché que
constituent les grands systèmes. D’autre part les grands industriels cherchent en
permanence à enrichir leur offre en y incorporant les fonctions nouvelles développées
par les innovateurs, ce qui peut impliquer acquisition des logiciels ou des entreprises.

Le dynamisme du secteur a deux moteurs concurrentiels : le premier est, comme


pour les composants, la rivalité entre le leader de chaque sous-secteur et ses
challengers ; le second est l'élargissement continu du champ d'application de
l'informatique, qui fait apparaître en permanence de nouveaux domaines et donc des
secteurs vierges où tout nouvel entrant peut espérer avoir sa chance de devenir leader à
condition d'être le premier à y entrer.

Contrairement au matériel, l’évolution potentielle du logiciel ne connaît pas de


frontières physiques propres. La taille des logiciels n’est bornée que par les capacités de
mémoire disponibles, et leur vitesse d’exécution est celle des microprocesseurs. Le
progrès des composants rend possible le progrès du logiciel, en même temps que la
diversité croissante des matériels, des applications et des utilisateurs demande le
développement de nouveaux logiciels. La seule limitation propre est liée aux techniques
de développement et surtout d’intégration de logiciel, dont l’état actuel rend
pratiquement impossible la production de systèmes dépassant un certain niveau de
complexité. C’est dans ce domaine que les progrès les plus significatifs doivent être
attendus, et à un degré moindre dans des domaines tels que les méthodes de
représentation et de traitement des données, qui conditionnent largement les
performances, ou encore la conception des relations entre l’homme et la machine. Nous
aborderons ces questions dans le chapitre suivant, consacré spécifiquement aux
systèmes d’exploitation.

ccxxxiii
Chapitre 12
Les systèmes d’exploitation et la
standardisation

Fonctions et structure des systèmes d’exploitation. Qu’est-ce qu’un système


« ouvert » ? Standards, normes, innovation et concurrence. Systèmes expérimentaux et
systèmes industriels. A quoi sert Unix ? Objets et noyaux. La frontière entre matériel et
logiciel. Perspectives.

Parmi les produits fabriqués « en logiciel » (les progiciels), les systèmes


d’exploitation occupent une position centrale. Leurs fonctions en font un intermédiaire
obligé entre les utilisateurs, les applications et le matériel. C’est en utilisant les
fonctions du système que les utilisateurs accèdent aux applications et au matériel.
Symétriquement, c’est en répondant aux sollicitations du système que le matériel se met
au service des utilisateurs, et en se connectant au système que les applications
deviennent utilisables. Le système d’exploitation incorpore donc un ensemble de
conventions qui en font l’image principale de l’informatique pour chacun de ses
utilisateurs ou de ses participants.

Cette situation à la charnière entre les utilisateurs, les applications et le matériel


fait des systèmes d’exploitation le lieu par excellence des efforts de normalisation, et
l’arène ou se joue la bataille des standards. C’est pourquoi nous consacrerons une part
de ce chapitre à analyser les phénomènes économiques et concurrentiels associés à la
normalisation.

A l’intérieur du macro-secteur du progiciel, les systèmes d’exploitation couvrent


un champ assez vaste pour inclure des sous-secteurs distincts qui prennent toutes les
formes structurelles que nous avons décrites dans le chapitre précédent. A une extrémité
du champ, les offreurs de systèmes intégrés de qualité industrielle forment un secteur
fortement concentré dont la dynamique est voisine de celle des microprocesseurs. A
l’opposé opèrent des innovateurs qui forment une nébuleuse de sous-secteurs de type
dispersé. Le domaine des systèmes d’exploitation permet ainsi de préciser pour un cas
particulier les mécanismes généraux de structuration de l’industrie du progiciel.

En termes d’évolution à moyen et long terme, les systèmes d’exploitation jouent


également un rôle central. Le logiciel étant par sa plasticité le matériau privilégié de
l’innovation, c’est dans les systèmes d’exploitation, ou du moins sur leurs marges, que
se réalisent d’abord un grand nombre de développements concernant le futur de
l’informatique. De plus, nous avons vu que la dynamique propre au macro-secteur du
progiciel fait du système d’exploitation l’analogue d’un « trou noir » autour duquel
gravitent et vers lequel convergent tous les développements. Enfin, toute évolution qui
naît soit dans le matériel, soit les applications ou les modes d’utilisation se traduit par
des évolutions des systèmes d’exploitation, qui en transmettent l’impact aux deux autres
domaines.

ccxxxiv
Fonctions et structure des systèmes d’exploitation

Pour bien comprendre l’importance des systèmes d’exploitation dans l’ensemble


de l’informatique, et les perspectives de leur évolution, il est nécessaire d’examiner un
peu plus précisément leurs fonctions et leur structure, et de définir certains termes
fréquemment utilisés.

Relation avec le matériel

Le premier rôle des systèmes est d’assurer la relation entre les autres programmes
et le matériel proprement dit. Les organes physiques de l’ordinateur savent exécuter un
répertoire d’opérations élémentaires commandées chacune par une instruction. Un grand
nombre des fonctions exécutées de façon fréquente dans les programmes demandent
l’exécution d’une séquence plus ou moins complexe d’instructions élémentaires qu’il
serait fastidieux de réécrire à chaque fois, ce qui constituerait en outre une source
d’erreurs. Ces séquences fonctionnelles sont donc codées une fois pour toutes et mises à
la disposition des programmeurs sous la forme de sous-programmes standard.

C’est ainsi qu’un programmeur peut faire appel à une fonction synthétique
« sauvegarder sur disque une zone de mémoire » en ne spécifiant que la zone de
mémoire concernée. Le sous-programme standard se chargera de mesurer la place
nécessaire, de localiser sur disque un emplacement libre de taille suffisante, d’y
positionner la tête d’écriture, de copier le contenu de la mémoire désignée, de relire
cette zone du disque en la comparant à l’original afin de vérifier l’exactitude de la copie,
de recommencer en cas d’erreur à un autre emplacement du disque, de signaler enfin au
programme que l’opération a été correctement effectuée, en indiquant l’endroit du
disque où l’information a été copiée, pour permettre de la retrouver ultérieurement.

Le système d’exploitation remplace ainsi les fonctions élémentaires du matériel


par des fonctions plus synthétiques et plus proches du mode de pensée des
programmeurs et des utilisateurs. Cette médiation permet en particulier de définir pour
une même unité physique différentes formes d’utilisation, par exemple différentes
organisations de fichier. A l’inverse, il est possible de définir des fonctions qui peuvent
s’exécuter indifféremment sur des unités physiquement différentes, par exemple un
sous-programme d’impression dont le résultat sera temporairement orienté vers un
fichier disque si l’imprimante n’est pas disponible. Un tel programme devra être
complété par une fonction qui surveille en permanence l’état de l’imprimante, et qui
relit automatiquement le fichier pour l’imprimer dès que l’imprimante est libérée.

On voit sur cet exemple que le système d’exploitation a une autre fonction
fondamentale, celle de tenir à jour en permanence en mémoire des tables qui
représentent une image de la machine et de l’état de ses différents constituants, et de
réagir automatiquement de façon appropriée aux changements d’état. Ces fonctions
utilisent généralement un système d’interruptions par lequel chaque organe de
l’ordinateur peut interrompre le traitement en cours pour signaler un événement le
concernant. C’est cette image de l’ordinateur, élaborée par le système, qui est utilisée
par l’ensemble des programmes.

ccxxxv
Cette démarche est utilisée en particulier pour gérer les interactions avec les
utilisateurs dans les systèmes qui permettent un dialogue direct avec l’ordinateur. Les
actions de l’usager, qui peuvent être menées indépendamment du déroulement du
programme en cours, sont reflétées dans les tables descriptives de l’état de l’ordinateur
et peuvent être signalées au programme. A l’inverse, la présentation du travail en cours
est assurée par des sous-programmes qui transforment les commandes fonctionnelles du
programme en ensembles de points coloriés affichés sur l’écran. Ces fonctionnalités
d’entrée et de sortie définissent la forme et le style du dialogue entre la machine et ses
utilisateurs.

Au total, en créant une image synthétique de l’ordinateur et en offrant un


répertoire de fonctions de haut niveau, le système d’exploitation définit à l’intention des
programmeurs et des utilisateurs une machine abstraite ou « virtuelle » qui d’une part
simplifie leur tâche et d’autre part isole dans une partie spécifique du logiciel les
incidences de la variété et de l’évolution des matériels. L’évolution de la périphérie peut
ainsi être dissociée de celle du système central, et à la limite modifier la composition,
les fonctions et le répertoire d’instructions du matériel peut laisser inchangé le reste du
système pour autant que la couche de logiciel liée au matériel soit aisément modifiable.

Contrôle de l’exécution des programmes

Un deuxième rôle des systèmes d’exploitation est d’assurer l’ordonnancement et


la surveillance des tâches confiées à l’ordinateur. Au temps où les ordinateurs ne
savaient exécuter qu’une chose à la fois et où leur temps était coûteux, il fallait
minimiser le temps de passage d’un travail à un autre, pendant lequel l’ordinateur était
immobilisé de façon improductive. Une des premières fonctions des systèmes a donc été
d’automatiser l’exploitation en assurant la mise en place automatique des travaux
successifs, préalablement préparés hors de la salle ordinateur. A cet effet, le système
devait en particulier gérer la mise en place des supports amovibles comme les bandes
magnétiques ou les papiers d’impression, charger en mémoire et lancer les programmes,
et surtout être capable de traiter automatiquement les incidents éventuellement
rencontrés en cours d’exécution.

Pour le développeur ou l’utilisateur d’un programme, la machine n’apparaît plus


comme une simple collection d’unités physiques qui se présentent en quelque sorte nues
à chaque application, mais comme un ensemble organisé doté a priori de fonctionnalités
globales, et contenant de nombreux éléments rémanents tels que des bibliothèques de
programmes généraux sur disques et des fichiers privés appartenant aussi bien à
d’autres propriétaires. C’est le système d’exploitation qui doit alors gérer ces éléments,
donner à chaque utilisateur accès aux éléments qui le concernent et à eux seuls, et les
protéger des actions volontaires ou involontaires des autres utilisateurs. A ces fonctions
se rattachent la gestion des utilisateurs et de leurs autorisations, la comptabilité, etc.

Avec la multiprogrammation, c’est à dire la possibilité pour plusieurs


programmes de résider simultanément en mémoire et de se partager les ressources de la
machine, le système d’exploitation reçoit en plus la charge d’affecter dynamiquement
chacune de ces ressources à chacun des programmes, tout en les protégeant des
interférences des autres programmes. On voit ainsi apparaître dans les systèmes tout un

ccxxxvi
ensemble de fonctions qui sont externes aux applications par nature, et non plus par
commodité comme pour celles qui faisaient l’objet de la section précédente.

Assistance aux utilisateurs

Chacun des programmes destinés à être exécutés sur un ordinateur, qu’il s’agisse
d’applications ou de fonctions utilitaires, vient ainsi s’insérer à l’intérieur d’une
structure prédéfinie formée par le système d’exploitation. Ces programmes s’exécutent
comme des sous-programmes du système d’exploitation. Ils doivent respecter un certain
nombre de conventions propres à celui-ci et peuvent s’appuyer sur une bibliothèque de
sous-programmes qui incarnent par ailleurs ces conventions. Pour le programmeur, le
système se présente comme une collection de fonctions qu’il peut mettre en œuvre à
travers des conventions d’appel généralement appelées des API pour « Application
Programming Interface ».

Ces API regroupent les instructions qui donnent accès à toutes les fonctions du
système utilisables pour l’écriture d’applications, organisées en grandes familles selon
le domaine couvert : gestion de la mémoire, gestion de l’impression, gestion des
fichiers, communication entre programmes, communications avec l’utilisateur, etc. Elles
forment un langage doté de sa syntaxe et de sa sémantique, qui constitue une façon
naturelle de représenter des fonctions d’intérêt général, même si en toute rigueur elles
ne se rattachent pas aux fonctions classiques d’un système d’exploitation au sens strict.
C’est ce langage que produisent et manipulent les différents programmes d’aide au
développement tels que les traducteurs de langages de haut niveau (Cobol, Fortran,
Pascal, C, …).

Du point de vue de l’utilisateur, les API définissent les modalités de sa relation


avec l’ensemble du système. En effet, toutes les applications qui utilisent l’API standard
de dialogue avec l’utilisateur mettront en œuvre les mêmes constructions et conventions
de présentation (fenêtres, boîtes de dialogue, menus, …) et répondront aux mêmes
actions comme cliquer avec la souris, mettre une zone en surbrillance, etc. De plus, le
système d’exploitation fournit directement à l’utilisateur des fonctions générales comme
la gestion de fichiers, la gestion de la configuration, une variété de transferts
d’information, l’utilisation de l’horloge, etc.

Variété et structure

Bien que répondant en gros à la description qui précède, les systèmes


d’exploitation existants sont différents selon leur origine. Les constructeurs généralistes
ont tous développé pour leurs matériels des systèmes d’exploitation propres, et souvent
plusieurs selon la famille de matériel et le type d’utilisation. Certains utilisateurs, tels
les grands laboratoires et les universités, ont également écrit des systèmes
d’exploitation, que ce soit pour satisfaire leurs besoins propres ou dans le cadre de
projets de recherche en informatique. Enfin, plus récemment, des entreprises
indépendantes comme Digital Research ou Microsoft ont mis sur le marché des
systèmes d’exploitation pour micro-ordinateurs.

ccxxxvii
Les limites externes de ces systèmes, c’est à dire leur contenu fonctionnel, varient
de système à système. Chacun d’entre eux est d’ailleurs distribué sous la forme d’un
noyau plus ou moins riche qui constitue le système d’exploitation proprement dit, et
d’une collection de programmes utilitaires indépendants dont certains peuvent être
rangés parmi les applications. Où s’arrête par exemple la gestion des données ? Doit-
elle se borner à la gestion des fichiers en tant qu’entités globales opaques, permettre un
accès élémentaire aux enregistrements individuels qui les constituent ou aller jusqu’à la
gestion de structures complexes de bases de données ? De même, quelles fonctions de
gestion des textes, des images et des sons doivent figurer respectivement dans la base du
système, dans les utilitaires ou dans les programmes d’application ?

Pas plus la frontière entre système d’exploitation et programmes utilitaires que


celle entre programmes utilitaires et applications n’est définie de façon précise. Elles ne
résultent que de la décision des auteurs de systèmes d’inclure ou non telle ou telle
fonction dans leurs produits. Par exemple, le système Windows contient deux
programmes simples de traitement de textes et un compilateur de langage Basic, alors
que les traitements de texte plus complexes comme Word et tous les autres traducteurs
de langage sont vendus séparément en tant qu’applications.

Pour les fonctions qui sont présentes dans plusieurs systèmes, elles sont réalisées
de façon différente, et en particulier leurs conventions d’appel par les programmes
utilisateurs (les API) sont différentes. Un programme écrit pour un système
d’exploitation ne peut donc pas s’exécuter sur un autre, même si les deux systèmes
résident sur la même machine, et a fortiori sur des machines différentes. De plus, le
contenu fonctionnel des systèmes, la répartition des fonctions entre les différentes
couches, voire la forme des API, évoluent dans le temps pour un même système par
suite de son enrichissement progressif, si bien que les programmes d’application
doivent parfois être modifiés pour continuer à fonctionner sur les nouvelles versions des
systèmes.

La situation est tout aussi variée en ce qui concerne la structure interne. Un


système d’exploitation est un édifice complexe dont la construction exige une
organisation interne rigoureuse, qui est nécessaire pour permettre la répartition du
travail de développement, l’intégration, les tests et l’évolution ultérieure.

L’approche traditionnelle est de découper le système en grandes fonctions


correspondant aux divers domaines des API externes, et de décomposer chaque fonction
en couches selon leur proximité relative du matériel et de l’utilisateur Chaque couche ne
peut communiquer qu’avec la couche immédiatement inférieure, c’est à dire plus proche
du matériel, et la couche immédiatement supérieure, c’est à dire plus proche de
l’utilisateur. Les couches les plus externes incarnent donc explicitement les API et les
conventions de communication avec l’extérieur, tandis que les couches les plus
profondes sont seules en relation directe avec le matériel, et se fusionnent en un noyau
de fonctions de base utilisé par les couches les plus basses de tous les sous-systèmes.
Un exemple classique est celui des systèmes de communication (SNA défini par IBM en
1974, puis le modèle normalisé ISO), qui comportent tous deux sept couches.

Mais si on excepte les rares cas où le système respecte une norme externe, la
définition des sous-systèmes et de leurs couches est de la responsabilité du producteur

ccxxxviii
du système et répond à ses propres conceptions et à ses propres objectifs de commodité.
Cette structuration implique également des arbitrages entre performances et pureté
structurelle. En effet, si la rigueur commande de respecter scrupuleusement les
contraintes de construction, la performance demande souvent de les transgresser, par
exemple en court-circuitant des couches intermédiaires dans un sous-système ou en
laissant les sous-systèmes communiquer entre eux aux niveaux intermédiaires. Dans la
réalité, non seulement la structure du système est propre à chaque offreur, mais elle reste
complexe et embrouillée, en permettant plus ou moins à chaque module fonctionnel
d’utiliser tous les autres. Loin d’être un édifice harmonieux, le système forme un bloc
opaque pour tout autre que ses concepteurs, et qui reste difficile à intégrer et à faire
évoluer, même pour ces derniers.

Notion de « système ouvert »

Il est tentant de profiter de la place centrale qu’occupe le système d’exploitation


entre le matériel et ses divers utilisateurs pour lui faire jouer un rôle fédérateur qui
permettrait à tous les programmes d’application de fonctionner sur tous les matériels. Il
suffirait pour cela que tous les auteurs de systèmes s’entendent sur une définition
commune des API, c’est à dire sur une standardisation de la machine virtuelle que
définissent chacun des systèmes. L’ensemble des primitives de programmation utilisées
par les développeurs deviendrait alors indépendant du matériel, et il reviendrait aux
systèmes d’exploitation de réaliser cet ensemble commun de fonctions de façon
appropriée aux spécificités des composants matériels. On profiterait ainsi de la plasticité
du logiciel pour lui faire absorber les différences entre matériels.

Cette ambition est celle des promoteurs des systèmes dits « ouverts », dont les
buts principaux sont de permettre la « portabilité » et l’« interopérabilité » entre
systèmes différents. La notion de portabilité concerne non seulement les programmes,
pour lesquels elle signifie qu’ils peuvent être exécutés indifféremment par plusieurs
systèmes, mais aussi les informations, qui doivent pouvoir être écrites par un
quelconque des systèmes et lues par tous les autres, ainsi que les compétences
nécessaires aux utilisateurs, qui ne doivent pas différer selon le système qu’ils utilisent.
La notion d’interopérabilité signifie que deux systèmes différents doivent pouvoir
communiquer entre eux en s’échangeant les informations nécessaires pour fonctionner
ensemble de façon harmonieuse.

En toute rigueur, l’approche de standardisation des API décrite ci-dessus exigerait


de définir de façon rigoureuse l’emplacement de la frontière entre le système
d’exploitation et les applications. Nous avons vu qu’une telle définition serait largement
arbitraire et perpétuellement remise en question. Une solution est d’appliquer la même
démarche de normalisation à l’intérieur même du système, en définissant une structure
normalisée et des interfaces internes normalisées pour les principales fonctions
constitutives. Un système « ouvert » est donc également un système modulaire
conforme à une structure standard. Ceci rend théoriquement possible le remplacement
d’un sous-système standard par un autre, que ce soit dans le cadre de l’évolution
normale du système ou dans celui d’une concurrence entre offreurs qui porterait sur
chacun des sous-systèmes.

ccxxxix
On devine que la mise en œuvre du concept de systèmes ouverts porte en germe
des conséquences potentiellement importantes pour la structure de l’industrie
informatique. Rendre les applications et les progiciels indépendants du matériel, et
permettre à tous les matériels de s’intégrer dans tous les systèmes, achève de dissocier
l’industrie en secteurs spécialisés par nature d’offre et type d’unité, et accélère le
passage d’une industrie de type traditionnel dominée par les généralistes au type PC
dominé par les spécialistes. Rendre tout élément compatible avec tous les autres élargit
le marché potentiel de chacun et favorise la dispersion de chaque secteur. Enfin, faire
éclater le système d’exploitation en composants standard donc développables
indépendamment peut conduire à l’éclatement de ce secteur et à un affaiblissement des
forces de concentration.

Donc, même si la question de la normalisation se concentre dans le domaine du


progiciel, ses enjeux touchent l’ensemble de l’industrie informatique. C’est pourquoi
nous allons consacrer une partie de ce chapitre à l’analyse des mécanismes et les aspects
économiques de la normalisation.

Standardisation, innovation et concurrence

Normes et standards

Précisons d’abord quelques définitions. Retenons, comme IBM pour le système


360, le terme d’« architecture » pour désigner un ensemble de conventions destinées à
permettre à des produits développés indépendamment de fonctionner ensemble. Une
architecture peut être interne à une firme productrice ou concerner les relations entre la
firme et les utilisateurs de ses produits. Par exemple, l’architecture 360 était l’ensemble
des conventions permettant aux utilisateurs de développer des programmes exécutables
sur les matériels de cette gamme IBM. Les architectures sont généralement définies
unilatéralement par les producteurs. Vis à vis des tiers, elles rendent possible
l’utilisation des produits et le raccordement de produits complémentaires. En interne,
elles permettent la distribution du travail entre les unités de l’entreprise et constituent
des standards internes pour les développeurs.

Un standard est un ensemble de conventions architecturales auxquelles se


conforment des firmes productrices indépendantes, agissant chacune dans son propre
intérêt. En définissant des standards, les acteurs dominants cherchent à favoriser
l’existence d’offres complémentaires qui rendront leurs produits plus attractifs. Celui
des acteurs secondaires peut être de profiter du leadership des acteurs dominants pour
faciliter la vente d’offres complémentaires, mais aussi d’offrir des produits directement
concurrents conformes à l’architecture de l’acteur dominant. La conformité à un
standard commun permet à des produits développés indépendamment dans des
domaines différents de fonctionner ensemble, par exemple les périphériques et les unités
de calcul, ou encore les microprocesseurs et les systèmes d’exploitation. Les standards
servent en particulier de base pour des développements nouveaux, mais peuvent aussi
servir de spécification commune à la réalisation de produits concurrents.

ccxl
L’existence d’un standard suppose une instance de définition de l'architecture, qui
peut être simplement une firme dominante ou un organisme formé à cet effet par les
firmes intéressées. Le respect d’un standard est une décision prise librement et selon son
propre intérêt par chacune des firmes productrices.

Un standard devient une norme quand il est soutenu par une autorité distincte des
entreprises concernées, qui lui confère un caractère obligatoire en disposant de moyens
de pression pour la faire respecter. Les normes sont généralement promulguées au nom
de l’intérêt de l’utilisateur afin d’assurer à la fois sa liberté de choix et la pérennité de
ses investissements.

Standardisation et concurrence

Les produits ou services qui composent chacun des secteurs particuliers, et qui
sont par hypothèse substituables entre eux dans chaque secteur, peuvent être soumis à
des standards ou des normes. Insistons sur le fait évident que l’activité de production de
standards et l’activité de production de produits conformes au standard sont deux
activités distinctes. Les entreprises ne gagnent pas d'argent en vendant des standards,
mais en vendant des produits qui peuvent être plus ou moins conformes aux standards,
ou au contraire devenir la définition des standards si le marché les plébiscite.

Même dans les secteurs soumis à une forte normalisation, les différents offreurs
sont en concurrence et cherchent par définition à se différencier les uns des autres pour
obtenir un avantage concurrentiel qui leur attire la faveur du marché. Or se conformer à
des standards élimine des possibilités de différenciation. Etant donné que les standards
portent le plus souvent sur les spécifications fonctionnelles externes des produits, la
normalisation déplace le champ de la concurrence vers les prix et les modalités de
réalisation, et non plus les fonctionnalités elles-mêmes ou les modalités de leur
utilisation. Tout progrès étant le fruit de la concurrence, la normalisation tend donc à
ralentir voire figer le progrès dans la définition des fonctions qu’elle concerne, et à
l’orienter vers la recherche de meilleures performances et d’une meilleure fiabilité au
moindre coût.

On voit que le moment où intervient la standardisation dans la vie d’un produit


revêt une importance cruciale. Trop tardive, elle laisse de la place pour le gaspillage en
permettant les expérimentations inutiles et les innovations futiles, et elle induit un coût
d’incompatibilité entre produits tant pour les offreurs que pour les utilisateurs.

A l’inverse, une standardisation – et a fortiori une normalisation – prématurée a un


effet stérilisant pour le secteur. Elle peut conduire à des produits non viables dans la
mesure où tous les besoins n’ont pas été correctement pris en considération, et où les
solutions alternatives n’ont pas été suffisamment explorées. Dans le cas de normes
définies à l’initiative des utilisateurs ou de leurs représentants, les implications des
différentes alternatives, en termes pratiques de coût, de performances ou de
compatibilité avec d’autres domaines ou avec des développements à venir, sont souvent
insuffisamment analysées. Dans des domaines où l’évolution technologique est rapide et
où les besoins du marché ne sont pas connus avec précision, une période
d'expérimentation concurrentielle est un préalable nécessaire à l’établissement de

ccxli
standards. Le meilleur standard est celui qui se dégage spontanément de l’interaction
entre les offreurs et le marché à l’issue de cette période.

L‘existence d’’un standard a plusieurs effets sur le ou les secteurs auxquels il


s’applique. Premièrement, la standardisation diminue les obstacles à l'entrée en
dispensant les candidats d’une partie des investissements nécessaires à la définition d’un
nouveau produit. Deuxièmement, elle facilite pour les clients le changement de
fournisseur en diminuant les coûts de transfert, et avive donc la concurrence bien
qu’elle ne puisse plus porter que sur certains points comme les performances, les prix et
la commodité d’utilisation. Ces deux effets concourent à accentuer le taux de dispersion
du secteur, et donc tendent à en diminuer la profitabilité potentielle et à augmenter
l'instabilité des positions des concurrents.

Les gagnants sont les clients, les candidats à l'entrée et dans une certaine mesure
les offreurs secondaires qui voient les avantages concurrentiels des leaders s’effriter.
Les perdants sont les leaders établis du secteur. Dans le cas favorable où ce sont leurs
produits qui ont servi de base aux normes, les avantages concurrentiels qu’ils tiraient de
leur définition même disparaissent, et ils doivent pour conserver leur position
rechercher d'autres avantages reposant sur des économies d'échelle, des technologies
protégées ou un meilleur savoir-faire. Si les normes retenues sont différentes des
spécifications de leurs produits, ils sont face à un choix de toute façon coûteux : ou bien
se conformer aux normes, et pour cela supporter en plus les investissements de
développement de nouveaux produits, ou bien entrer en concurrence avec les produits
normalisés, tout en tentant de faire évoluer les standards dans un sens qui leur soit
favorable.

Insistons sur le fait qu’un offreur dominant n’a intérêt à ce que ses produits
deviennent des standards que s’il dispose d’autres avantages concurrentiels suffisants
pour conserver sa part de marché dans le secteur soumis au standard malgré
l’abaissement des obstacles à l’entrée. Autrement, l’effet de la standardisation est de lui
susciter des concurrents plus nombreux et plus agressifs, tout en augmentant le pouvoir
relatif des clients, deux facteurs qui ne peuvent que réduire à la fois ses marges et sa
part de marché. A l’intérieur des entreprises, les techniciens peuvent rechercher une
satisfaction d’amour-propre à travers la reconnaissance de leurs produits sous forme de
standard ou de norme ; les stratèges sont beaucoup plus circonspects et évitent de
solliciter ce cadeau empoisonné.

La production des standards

Dans une industrie comme l’informatique, des standards se développent


naturellement sans que l’action d’une autorité extérieure soit nécessaire. Tout
producteur adopte implicitement pour ses produits une ou des architectures qui
définissent au minimum les relations entre fournisseur et client, et simultanément
permettent à d’autres fournisseurs d’offrir des produits complémentaires dont
l’existence rendra l’offre plus attractive pour le marché. Les producteurs d’offres
complexes et variées sont également amenés à définir des architectures internes qui ont
pour effet de subdiviser leur offre en produits distincts afin de pouvoir les développer et
les gérer indépendamment les uns des autres. Ces produits peuvent être aussi bien des

ccxlii
composants logiciels distincts dans un système que des unités matérielles distinctes dans
une machine.

Si ces éléments, entre lesquels l’architecture définit des interfaces standardisés,


peuvent être non seulement produits, mais aussi commercialisés séparément, la
définition d’une architecture permet à des spécialistes d’entrer en concurrence avec le
producteur principal pour chacun des composants, tout en étant assuré que ces
composants s’intégreront efficacement dans l’offre globale. Pour ces offreurs de
« compatibles », le marché potentiel est d’autant plus grand que l’architecture à laquelle
ils se réfèrent est plus répandue. En résolvant le problème de développement que lui
pose la complexité de son offre, le fournisseur de produits complexes crée donc les
conditions de l’éclatement de son secteur en sous-secteurs spécialisés. L’architecture
définie par ce fournisseur devient alors un standard pour l’ensemble de ces sous-
secteurs. C’est ce qui s’est passé par exemple au début des années 70 après qu’IBM a
introduit sur le marché l’architecture 360.

Nous avons vu que les secteurs concentrés se caractérisent par une grande
inégalité des parts de marché. Dans un secteur structurellement concentré, c’est à dire
qui n’est pas susceptible d’éclater, le produit de l’offreur dominant constitue un standard
de fait par sa diffusion majoritaire sur le marché, et aussi par l’existence de produits
compatibles ou « clones ». Dans un tel secteur, il serait fort peu probable que la firme
dominante, avec ses 60 à 80% du marché, accepte de négocier avec ses challengers pour
établir une norme commune qui ne serait pas en tout point conforme aux spécifications
de ses propres produits. Une standardisation consensuelle est donc pratiquement exclue.

En revanche, les standards de fait définis unilatéralement par l’offreur dominant


de chaque secteur concentré s’appliquent aussi aux secteurs connexes qui utilisent leurs
produits. Des firmes appartenant à des secteurs différents et qui ne sont donc pas en
concurrence directe pourraient avoir intérêt à se concerter pour établir des standards
communs. Mais Porter nous a enseigné (voir Chapitre 6) que les secteurs dispersés ont
peu d’influence sur les secteurs concentrés. Il est donc probable que les offreurs
dominants des secteurs concentrés imposeront unilatéralement leurs standards aux
secteurs connexes s’ils sont dispersés, et que la concertation en vue de l’établissement
de normes communes se limitera aux leaders des secteurs concentrés. C’est ainsi que
Intel impose ses standards aux assembleurs de matériels, mais négocie des standards
communs avec Microsoft.

La position privilégiée de l’offreur dominant dans chaque secteur concentré lui


impose en retour des responsabilités vis-à-vis des standards qu’il a lui-même créés.
D’une part, l’existence du standard favorise la concurrence de clones, et il serait
quelquefois tentant pour le leader d’utiliser ses ressources de développement pour
s’écarter du standard et acquérir des avantages concurrentiels pour tenter de rendre les
clones obsolètes. Mais l’offreur dominant s’aliénerait alors les utilisateurs et les offreurs
complémentaires, et offrirait ainsi un autre avantage concurrentiel aux offreurs de
clones, celui de la continuité. L’offreur dominant est donc condamné à respecter le
standard qu’il a créé, et à rechercher son avantage concurrentiel dans la réalisation des
produits qui dérivent de ce standard. Dans le passé, ce phénomène a conduit IBM à
abandonner son projet FS en 1975 (voir Chapitre 2). De nos jours, c’est ce qui contraint
toujours IBM à maintenir les architectures 360/370 et MVS même dans ses futurs

ccxliii
systèmes multiprocesseurs à base de PowerPC, et Intel à conserver l’architecture 80x86
dans les Pentium.

Les secteurs dispersés sont soumis aux standards pertinents des secteurs
concentrés connexes. Une éventuelle demande d’autres standards, qu’ils soient propres
au secteur ou qu’ils concernent l’interconnexion entre produits de secteurs dispersés
différents, ne peut être satisfaite que par une concertation explicite entre firmes. Cette
demande viendra d’ailleurs principalement des offreurs secondaires et des candidats à
l’entrée dans le secteur.

La définition de standards par consensus résulte d'une négociation aboutissant à


un accord entre partenaires indépendants, et qui conservent leur indépendance après que
le standard a été défini. Aucun comité ne peut contraindre un de ses membres à agir
contre ses intérêts. Chaque participant peut se retirer de la discussion à tout moment, et
conserve la liberté de ne pas se conformer aux standards qui en résultent. Or chacun
arrive à la table de négociation avec sa propre conception de ses intérêts. Si la
discussion recherche le consensus, elle progressera trop lentement pour les participants
pressés et les compromis risqueront d’aboutir à un résultat médiocre qui en détournera
les plus exigeants. Si par contre elle vise un résultat rapide, elle devra sans doute laisser
de côté un certain nombre d’objections et d’expérimentations, ce qui conduira
probablement les firmes les plus sérieuses à s’en désolidariser. Dans un cas comme dans
l’autre, le processus peut conduire à la formation de groupes concurrents défendant des
standards différents. La voie du consensus est semée d’embûches et son issue est
incertaine. Même un accord unanime ne garantit pas la qualité du standard qui en
résulte, dont l’adoption reste soumise à la décision du marché.

Une autorité extérieure à la collectivité des fournisseurs peut intervenir pour


forcer l’adoption d’un standard ou promulguer une norme. L’existence de standards et
leur respect, indépendamment même de leur qualité, est bien évidemment dans l’intérêt
des clients. La concurrence entre offreurs en est avivée, ce qui pousse à des
améliorations des produits et à une réduction de leurs coûts, l’éventail des choix de
produits et de fournisseurs en est élargi, et les investissements sont mieux protégés. Les
clients peuvent former des groupes de pression pour accélérer la normalisation ou
l’orienter dans un sens qu’ils considèrent comme favorable, mais il semble que leur
action n’a jamais eu pour résultat une normalisation trop hâtive, et qu’ils comprennent
implicitement le besoin d’une période d’expérimentation concurrentielle préalable.

Il arrive par contre que des normes soient promulguées par une autorité agissant
au nom de l’intérêt des utilisateurs, ou se réclamant d’eux pour d’autres motifs de
politique industrielle par exemple. Si l’organisme de normalisation ne fait qu’accélérer
ou faciliter le processus naturel de standardisation, et entériner ses résultats, son action a
toutes chances d’être bénéfique. Elle peut devenir néfaste si elle aboutit à une
standardisation prématurée ou si elle a pour objectif de s’opposer à des standards de fait.

Un exemple du premier cas est celui de Cobol, où le premier langage venu a été
promulgué comme norme et adopté de façon générale faute d’alternative, tarissant tout
développement en matière de programmation de gestion et condamnant les
programmeurs à utiliser éternellement un outil rigide et mal commode. Dans le
deuxième cas, on trouve les cas où la normalisation est utilisée comme une arme de

ccxliv
politique industrielle pour s’opposer à un standard « naturel » de fait et donc lutter
contre les firmes qui représentent ce standard. Un exemple classique est celui du modèle
Osi pour l’architecture de réseaux, conçu dès le départ comme une alternative au
modèle SNA d’IBM, mais qui n’a jamais pu recueillir l’adhésion totale de l’industrie et
est en passe d’être supplanté par d’autres architectures plus performantes et plus en
phase avec les besoins actuels. Les efforts de normalisation autour d’Unix, dont nous
allons parler dans la suite, relèvent en grande partie de cette normalisation « de
combat ».

Fort heureusement, alors qu’un standard est par définition respecté par une
majorité, une norme peut ne pas être respectée ou rester minoritaire. Si une norme
officielle ne donne pas satisfaction, les offreurs continueront à rechercher des solutions
alternatives que le marché pourra consacrer comme standards indépendamment de la
norme.

La formation de standards est un processus évolutif. Les standards prématurés ou


non satisfaisants seront toujours contestés par des développements concurrents qui
seront autant de candidats à la standardisation. Même des standards largement suivis
seront un jour périmés par l’évolution des technologies et des besoins, et donc à leur
tour contestés. Certains offreurs adopteront des stratégies de différenciation en
s’écartant des standards majoritaires, et si leurs produits reçoivent un accueil
suffisamment favorable, ils pourront devenir à leur tour des candidats à la
standardisation. Bref, tant que nous ne serons pas dans un monde totalitaire normalisé,
les standards n’arrêteront pas d’évoluer et il existera toujours des standards concurrents
entre eux.

L’évolution des systèmes et la place d’Unix

Un système expérimental

Depuis leur origine vers la fin des années 50, les systèmes d’exploitation ont été
considérés comme associés à chacun des matériels. Certains types d’ordinateurs ont
même été dotés de plusieurs systèmes d’exploitation, soit pour des utilisations
différentes comme le traitement conventionnel, le temps partagé ou le traitement en
temps réel, soit pour des familles de configurations différentes. Dans le contexte
d’offres intégrées qui est celui de l’informatique jusqu’en 1981, les systèmes
d’exploitation sont produits par les constructeurs généralistes et commercialisés comme
partie intégrante du matériel. Il n’existe pas d’offreurs indépendants de systèmes
d’exploitation, et l’idée même d’un système universel commun à des matériels
différents ne s’est pas fait jour.

Certaines universités ou certains laboratoires ont néanmoins développé leurs


propres systèmes comme support d'enseignement et de recherche informatiques. C’est
en particulier le cas du système Unix des Laboratoires Bell de ATT, qui se propage dans
plusieurs universités américaines où il constitue un terrain d'études et d'expérimentation,
en même temps que la base de la formation des informaticiens. Unix n’est au départ

ccxlv
qu’une adaptation aux mini-ordinateurs du système Multics de General Electric . Son55

succès est dû pour une part à ses fonctions bien adaptées aux besoins des universités, et
surtout à sa disponibilité sous forme source dans un langage de haut niveau, le langage
C, à partir de 1973. Unix se prête donc bien à l’enseignement de la structure d’un
système d’exploitation et à l’expérimentation de fonctions et de méthodes de réalisation
nouvelles.

Pour fonctionner efficacement en tant que système de laboratoire commun dans


un milieu coopératif de type universitaire, Unix doit se conformer à un ensemble de
conventions qui permette le développement et l’expérimentation de modules nouveaux
ainsi que leur circulation entre les différents laboratoires, et facilite la communication
grâce à un langage et à des références communes. Ces conventions forment une base
solide de standards sur laquelle se greffent de nombreuses extensions ou réalisations
alternatives, donnant progressivement naissance à des versions concurrentes du
système.

La base d’un système standard ?

Parallèlement, le début des années 80 voit l’émergence des stations de travail


scientifiques. Quelques jeunes entreprises voient dans Unix un système à la fois déjà
familier aux utilisateurs de ce marché, disponible et non protégé par un constructeur,
conçu pour permettre une évolution facile et bénéficiant de la dynamique d'innovation
des centres de recherche les plus actifs. En quelque sorte, l’adopter permet aux
constructeurs de se reposer sur une source indépendante de logiciel de base pour
concentrer leurs efforts et leurs investissements sur le matériel. Unix devient donc le
système d’exploitation des stations de travail les plus innovantes, et la plupart des
grands constructeurs suivront en mettant à leur catalogue des dérivés d’Unix à côté de
leurs systèmes propres.

Commence alors un double conflit qui domine toute l’histoire d’Unix et persiste
encore aujourd’hui, et qui rend les considérations techniques inséparables de
considérations de politique industrielle. Premièrement, chacun des offreurs industriels
doit dans ses systèmes trouver le meilleur équilibre entre conformité aux standards et
différenciation concurrentielle. Deuxièmement, au niveau global, les exigences d’un
standard industriel sont souvent différentes de celles d’une plate-forme de recherche et
développement. Enfin, le processus de standardisation vise ouvertement à définir une
norme qui serait non seulement applicable à Unix en tant qu’un système parmi d’autres,
mais qui s’appliquerait à tous les systèmes et ferait d’Unix le standard des systèmes
d’exploitation. Cette volonté a priori d’établir une norme indépendante apparaît dès
1981 avec la création de Posix.

Ces ambiguïtés, ainsi que le nombre et la variété des acteurs impliqués, entravent
la progression vers des standards. De plus, ceux des acteurs majeurs qui possèdent un
avantage concurrentiel concernant Unix hésitent entre l’exploiter et y renoncer en
s’associant pleinement à la standardisation. C’est ainsi qu’en 1983, ATT, qui jusque là
avait permis une diffusion libérale d’Unix, réagit à sa vogue soudain en demandant des
redevances importantes. Les autres constructeurs intéressés créent alors en 1984
55 voir Chapitre 3

ccxlvi
l’organisation XOpen afin de promouvoir un système réellement ouvert et facilement
accessible. Des réactions du même type se produiront en 1988 avec la création de l’OSF
pour contrer une alliance entre Sun et ATT annoncée en 1987, et en 1994 par la création
du consortium Cose lorsque Microsoft mettra sur le marché son système Windows NT
qui intègre un grand nombre de caractéristiques d’Unix et vient le concurrencer sur son
terrain traditionnel. A chaque fois que l’un des acteurs prend une initiative qui pourrait
faire de lui l’acteur dominant, les autres parties intéressées font de la standardisation un
instrument de lutte explicite en créant des organes de normalisation « de combat ».

Poussés à la fois par l’absence d’un consensus sur les standards, par le besoin
concurrentiel de se différencier et par la qualité inégale des réalisations issues des
laboratoires universitaires, tous les constructeurs développent leur propre version
d’Unix qu’ils composent d'un assemblage particulier d'éléments standard et d'éléments
originaux. Entre les réalisations universitaires, les systèmes offerts par les constructeurs
et ceux proposés par des firmes spécialisées comme Santa Cruz Operation, on assiste à
une floraison de systèmes se réclamant tous d’Unix mais tous plus ou moins différents,
dont le nombre est estimé à environ une centaine. Cette diversité est d’ailleurs favorisée
par le fait que le nom Unix était encore récemment propriété d’ATT et ne pouvait pas
être utilisé par d’autres firmes. Puisque les développeurs de systèmes Unix devaient en
tout état de cause les appeler d’un autre nom, ils pouvaient aussi bien en faire autre
chose...

Le monde Unix est donc tout le contraire d'un monde standardisé. C'est au
contraire là que la concurrence spécifique aux systèmes d'exploitation est la plus
intense. Dans le monde traditionnel, l’idée même d’un système d’exploitation commun
à des matériels de fournisseurs différents est étrangère, et la concurrence sur les
systèmes s’éclipse derrière la concurrence sur les matériels. Dans le monde du PC, toute
l'industrie s'est rangée derrière MS-DOS et maintenant Windows, et la concurrence qui
subsiste dans le secteur des systèmes d’exploitation a pris la forme asymétrique
caractéristique des secteurs concentrés. La standardisation d’Unix est un processus qui
conduit au mieux à un espoir, pas un état de fait. C’est précisément parce que le besoin
de standards y est criant et qu'aucun offreur ne domine le marché que le monde Unix
consacre tant d'efforts à la standardisation.

Mais, l'innovation étant l'autre face de la concurrence, le monde Unix est le foyer
d'innovation privilégié pour le domaine des systèmes d'exploitation, où contribuent non
seulement les industriels spécialisés ou non, mais les laboratoires de recherche
universitaires ou autres. De plus, le niveau de puissance de la plupart des systèmes Unix
empiète à la fois sur le haut de gamme des ordinateurs personnels et sur la partie basse
de la gamme des grands systèmes. A la charnière de l'informatique traditionnelle et de la
microinformatique, le laboratoire Unix est idéal pour expérimenter des technologies qui
permettront la symbiose de ces deux mondes, ainsi que pour transférer de l’un vers
l’autre des technologies existantes.

Par exemple, Unix ne brillait à l’origine ni par sa convivialité, ni par ses


performances, ni par sa richesse en fonctions d’informatique de gestion, ni par la variété
des matériels supportés. Autrement dit, le choix d’Unix ne reposait nullement sur une
supériorité dans la satisfaction des utilisateurs autres que les universitaires. En revanche,
sa position de plate-forme expérimentale a fait que de très nombreuses extensions et

ccxlvii
améliorations ont été développées dans ces domaines et dans d’autres. Il existe
aujourd’hui dans le monde Unix tous les ingrédients nécessaires pour composer sur
cette base un système à la fois plus convivial que celui d’Apple (par exemple NextStep)
et plus riche en fonctions de gestion que les systèmes IBM pour grands systèmes.

C’est dans le monde Unix que prennent naissance les produits d’avant-garde qui
permettront le remplacement des grands systèmes par des complexes de systèmes ou de
microprocesseurs issus des micros, et donc la fusion des trois mondes traditionnel,
micro et Unix en un seul dont la structure industrielle et les paramètres prix-
performances seront ceux de la micro-informatique.

Le foisonnement de solutions alternatives qui caractérise le monde Unix se double


d’une volonté de standardisation intense et obstinée, qui complète la confrontation
concurrentielle et le choix spontané du marché, en l’accompagnant d’une comparaison
rationnelle entre les diverses solutions proposées pour chacun des problèmes
techniques. La conjonction de l’effort d’innovation et de cette volonté de
standardisation contribue à faire de la mouvance Unix le creuset où se forment les
standards qui s’appliqueront demain à toute l’industrie du progiciel.

Des intérêts différents

Il est naturel que dans ce monde foisonnant situé au confluent des intérêts des
utilisateurs, des développeurs d’applications, des producteurs de matériel et du monde
de la recherche, et qui concerne au premier chef les producteurs de progiciels, la volonté
de standardisation se heurte à des conflits d’intérêt entre les acteurs.

Les utilisateurs, et les firmes spécialisées dans le développement d’applications,


souhaitent disposer d’une base robuste et durable pour le développement d’applications.
Pour cela, ils demandent des standards couvrant tous les aspects des systèmes, et qui
soient incarnés dans des produits de qualité industrielle. En même temps, ils souhaitent
que ces standards puissent évoluer en incorporant toutes les nouveautés, en particulier
celles qui sont issues de la recherche basée sur Unix, sans compromettre la robustesse,
la généralité, la fiabilité ou la facilité d’utilisation des systèmes qu’ils utilisent.

Or, comme nous l’avons vu, un système de qualité industrielle ne peut être produit
que par une organisation industrielle, et les investissements nécessaires ne peuvent être
consentis que dans un espoir de profit. Un logiciel de qualité industrielle ne peut donc
être que payant. De plus, la loi à laquelle sont soumises les firmes industrielles est celle
de la concurrence, qui les contraint à chercher à se différencier. Dans un secteur aussi
dynamique que celui des systèmes d’exploitation, il est hautement improbable que
toutes les firmes en concurrence renoncent à se différencier par les fonctionnalités de
leurs produits pour se limiter à une concurrence par les performances, les prix et la
qualité.

Une firme industrielle ne peut pas se fier aveuglément à un standard extérieur.


Tant qu’il restera plusieurs firmes en concurrence dans les systèmes d’exploitation, elles
conserveront leur sens critique vis à vis des standards externes, en les respectant dans la
mesure où c’est leur intérêt, en s’en affranchissant dans le cas contraire, et à tout le
moins en cherchant à offrir mieux que ce qui est prescrit par les standards. On peut

ccxlviii
prédire qu’il n’existera jamais de système alliant une conformité absolue à un standard
extérieur avec une qualité industrielle incluant le support de toutes les configurations,
une fiabilité rigoureuse et une bonne documentation, une garantie de maintenance et
d’évolution, etc.

De leur côté, le monde de la recherche et les autres innovateurs demandent une


base commune de développement et d'échange qui soit indépendante des systèmes
« commerciaux » que proposent les industriels. Parmi les qualités des produits possibles
pour former cette base, ils privilégient la modularité et la clarté de la structure interne
plutôt que la performance et la fiabilité. Chacun d’entre eux demande à la fois des
standards généraux pour ce qui est hors de son domaine de recherche et une totale
liberté à l’intérieur de ce domaine. Puisque la raison d’être de ces équipes est d’enrichir
le système de base, il existera toujours plusieurs versions du système de référence Unix,
dont chacune sera en avance sur certains points par rapport à tous les systèmes
industriels, en ce sens qu’elle contiendra des fonctions absentes de ces derniers. Les
chercheurs préféreront toujours ne pas se lier à un industriel, et donc utiliser un système
de référence distinct, au point que si d’aventure un industriel adoptait une version
d'Unix comme offre commerciale, le monde de la recherche s'en détournerait pour
adopter une autre référence.

Unix et les systèmes industriels jouent ainsi des rôles définitivement différents et
coexisteront toujours. Le premier sert de cadre à une activité de R&D indépendante ou
universitaire qui restera toujours un facteur fondamental de progrès. Les seconds visent
à satisfaire les besoins concrets du marché tout en tirant parti, de façon différenciée et
sélective, des progrès réalisés dans le monde Unix. Entre d’une part le monde Unix, à la
fois système de référence pour l’innovation et idéal inaccessible pour la normalisation,
et d’autre part le monde prosaïque des systèmes industriels concurrents, s’établit un
équilibre dynamique mouvant qui a toutes chances de se perpétuer tant que demeurera
un potentiel de progrès dans le logiciel, c’est à dire aussi loin que l’on puisse voir.

Du côté de l’offre industrielle, il convient de distinguer entre l’utilisation de la


marque Unix comme bannière promotionnelle et d’Unix comme véritable système. Les
industriels qui se réclament aujourd’hui d’Unix le font parce que c’est une façon de se
différencier, et justement parce que ce n’est pas le standard de fait. Si Unix devient un
jour un véritable standard respecté par la majorité des offreurs, il deviendra comme tous
les standards un facteur de dispersion du secteur et de limitation de la profitabilité, et les
industriels devront chercher d’autres voies de différenciation. Autrement dit et de façon
apparemment paradoxale, pousser à la normalisation n’est dans l’intérêt des offreurs
établis que tant que Unix est minoritaire sur le marché et reste de ce fait un facteur de
différenciation.

Le futur immédiat

Jusqu’à présent, le monde Unix est resté séparé du reste de l’informatique car
s’appuyant essentiellement sur des familles de processeurs différents rangés sous la
bannière Risc. Cette séparation est remise en question par la fusion des mondes Intel et
Risc annoncée par le Pentium et le PowerPC, qui mènera à l’élimination progressive de
la plupart des architectures Risc actuelles (voir Chapitre 7).

ccxlix
Il existe d'ores et déjà plusieurs versions d'Unix tournant sur les processeurs Intel
caractéristiques du monde PC, dont Xenix de Microsoft et Solaris de Sun, mais leur
diffusion est confidentielle en regard de la diffusion de MS-DOS et Windows. A
l'inverse, Digital Equipment a récemment fait entrer les processeurs Risc dans la
concurrence des PC en offrant un PC sous MS-DOS/Windows équipé de son processeur
Alpha.

L’événement qui inaugure la fusion des mondes PC et Unix en matière de


systèmes d'exploitation a été le lancement par Microsoft de Windows NT au début de
1993. Ce système est destiné à fonctionner aussi bien sur processeurs Risc que sur
processeur Intel, tout le code lié à un processeur particulier étant regroupé dans une
couche de logiciel facilement interchangeable. Il peut recevoir des programmes
d'application écrits pour Unix comme pour MS-DOS et Windows, à travers des
interfaces applicatifs (API) appropriés. Il peut fonctionner en réseau avec des systèmes
Unix, en respectant les normes d'interopérabilité définies par XOpen et l'OSF. Enfin, il
incorpore beaucoup de fonctions jusque-là propres à Unix, en particulier le
multiprocessing symétrique.

Windows NT, et ses dérivés présents et futurs, est non seulement un successeur de
Windows, mais devient une alternative raisonnable à des systèmes Unix, y compris pour
des systèmes à base de processeurs Risc et pour des configurations haut de gamme
destinées à s'insérer dans une architecture client-serveur ou utilisant des
multiprocesseurs. Comme pour les composants, le secteur des systèmes Unix et celui
des systèmes d'exploitation pour PC, jusque là essentiellement disjoints, sont en train de
fusionner.

La fusion de ces deux secteurs implique que, comme pour les processeurs, la
dynamique concurrentielle de concentration va maintenant jouer dans un segment de
marché unique allant des PC aux systèmes Unix. Pour de tels progiciels l'échelle
optimale de production est de quelques millions, donc notablement inférieure à la taille
du marché, ce qui laisse la place pour un certain nombre d'offres concurrentes. Il faut
donc s'attendre à voir des entrepreneurs de type industriel, comme Microsoft, Novell ou
IBM, offrir des systèmes d'exploitation concurrents dont la qualité ne laissera que peu
de place à ceux qui seraient développés par des amateurs même géniaux, ou par des
comités même animés des meilleures intentions.

Comme Windows NT ou Unixware, ces différents systèmes chercheront à se


différencier par leur catalogue de fonctions, leur convivialité, leurs performances, leur
fiabilité, etc. Mais dans le même temps ils viseront le plus large marché possible en
respectant les interfaces applicatifs standard et les normes d'échange de données, ainsi
qu'en pouvant s'exécuter sur tous les processeurs du marché.

Pour atteindre ces objectifs, tous puiseront dans le laboratoire d'idées que
constitue le mouvement Unix et respecteront les normes qui, en sont issues, mais sans
pour autant se priver de développements originaux propres. Dans ce secteur des
systèmes d'exploitation, devenu autonome aussi bien par rapport à celui des composants
que par rapport à celui des matériels, la concurrence ne se jouera pas entre Unix et les
autres, mais entre systèmes se réclamant tous plus ou moins d'Unix et comprenant tous
une part variable de modules originaux (pour ne pas dire « propriétaires »).

ccl
Les firmes qui offrent des systèmes d’exploitation se réclamant d’Unix sont pour
la plupart des firmes conformes au modèle de l’informatique traditionnelle par
opposition au modèle PC, c’est à dire qui offrent également leur propre matériel, soit
construit à partir de processeurs Risc particuliers comme Sun, Silicon Graphics, Digital
Equipment ou Hewlett-Packard, soit à partir de processeurs du commerce pour les
nouveaux convertis comme Unisys. Sur le segment des systèmes d’exploitation, ces
firmes vont de plus en plus être concurrencées par les spécialistes des progiciels (non
nécessairement Unix) que sont Microsoft, Novell, Santa Cruz Operation, ou les futurs
rejetons spécialisés d’IBM ou Apple.

Les « généralistes Unix » se trouveront alors confrontés au choix suivant : ou bien


continuer à développer leur propre système d’exploitation, ou y renoncer et se
concentrer sur le matériel. Le premier terme de l’alternative – continuer – suppose qu’ils
disposent dans ce secteur d’avantages concurrentiels, alors qu’il leur sera difficile
d’offrir la même qualité et les mêmes prix que Microsoft ou son suivant immédiat à
cause de l’effet d’échelle. L’intérêt de cette option peut être d’utiliser le système comme
facteur de différenciation, mais ceci va à l’encontre de la normalisation.

La concurrence croissante de firmes spécialisées, pour lesquelles la spécialisation


est justement la source d’avantages concurrentiels, fera apparaître de façon critique les
problèmes de cohabitation entre activités. Le développement de systèmes logiciels
implique une échelle de production très supérieure à celle des matériels et fonctionne
selon des cycles longs, ce qui oblige à reconnaître des personnalités d’entreprise
différentes et pousse à l’éclatement des firmes mixtes. Les généralistes qui opèrent
aujourd’hui sous la bannière Unix, seront, comme leurs modèles plus anciens, contraints
de dissocier l’une de l’autre leurs activités de matériel et de progiciels et d’offrir leurs
systèmes d’exploitation de façon séparée.

Nous reprendrons cette problématique dans le Chapitre 14 pour conclure que,


comme c’est déjà le cas dans le monde PC, les systèmes d’exploitation deviendront
progressivement l’affaire d’entreprises spécialisées constituant un secteur autonome
distinct de structure concentrée, et en particulier fortement inégalitaire en termes de
parts de marché. A travers cette évolution, les niveaux de prix et les pratiques de
commercialisation convergeront vers les pratiques caractéristiques du monde PC.

Perspectives

La structure industrielle de l’offre des systèmes d’exploitation est encore très


hybride. On y trouve juxtaposés les généralistes traditionnels qui offrent encore leurs
systèmes propres liés aux matériels, les firmes spécialisées du monde PC qui profitent
de la montée en puissance des micro-ordinateurs pour entrer en concurrence avec les
généralistes, et tout un complexe d’offreurs de taille et de natures différentes regroupés
autour de la bannière d’Unix et de l’idéal des systèmes ouverts.

Nous avons vu que les généralistes seront probablement contraints de dissocier


l’une de l’autre leurs activités de matériel et de logiciel. De ce fait, tout cet ensemble
hétérogène s’organisera progressivement, dans les quelques années qui viennent, en un

ccli
macro-secteur des systèmes d’exploitation indépendant, détaché de celui du matériel et
dominé par des spécialistes du progiciel comme c’est déjà le cas dans le monde PC.

Comme le progiciel en général, le macro-secteur des systèmes d’exploitation sera


constitué d’un continuum de sous-secteurs communiquant entre eux. A un extrême,
celui des systèmes industriels complets aura toutes les caractéristiques d’un secteur
fortement concentré, où un petit nombre de firmes, se comptant sur les doigts d’une
main, se répartiront le marché de façon très inégale dans des proportions analogues au
secteur des microprocesseurs. A l’autre extrême, des idées et des entreprises nouvelles
naîtront en permanence pour produire des fonctions nouvelles ou des réalisations
alternatives de fonctions existantes. Ce foisonnement d’innovations sera facilité par
l’existence de standards et d’un système théorique de référence appelé Unix, même si
l’idée d’un monde ou tout serait régi par des standards respectés par tous restera une
utopie.

Entre ces deux limites extrêmes du secteur pourront se placer des firmes agissant
en tant que relais d’intégration dans des domaines comme celui des utilitaires ou
d’applications générales voisines des systèmes d’exploitation, un rôle que jouent
aujourd’hui par exemple Symantec ou Computer Associates. A travers l’ensemble du
secteur, des idées et des produits migreront de façon continue depuis la frange
innovatrice dispersée vers les pôles d’attraction que constituent les systèmes intégrés
industriels. Cette migration aura pour conséquence d’étendre le périmètre fonctionnel
considéré comme séparant les systèmes d’exploitation des progiciels d’application. Elle
s’accompagnera de l’acquisition de firmes appartenant aux secteurs dispersés par les
entreprises des secteurs les plus concentrés.

Que peut-on dire de l’équilibre général du secteur ? Des forces concurrentielles


qui poussent à la concentration ou de celles qui favorisent l’éclosion de nouvelles
entreprises, lesquelles l’emporteront ? Est-il réaliste de penser que la régénération des
entreprises innovantes compense presque exactement les disparitions ou les
acquisitions, donnant ainsi au secteur global l’allure d’une sorte d’écoulement
stationnaire où les proportions des différents types de populations restent les mêmes
alors que leur composition ne cesse de changer ? Ou peut-on craindre que le rythme des
créations soit plus faible que celui des disparitions, si bien que toute l’industrie tendrait
à se résumer à une poignée d’offreurs ? Ou au contraire, existe-t-il des raisons de penser
que la dynamique de concentration puisse se ralentir, et que le secteur évolue vers un
éclatement analogue à celui du matériel dans les années 1975-1990 ?

Génie logiciel et structure sectorielle

Ces questions renvoient à l’évolution probable des technologies de


développement. Le moteur économique de la dynamique de concentration est en effet le
coût et la complexité de l’intégration. Les systèmes les plus complexes sont construits
en assemblant des modules ou des sous-ensembles qui pourraient aussi bien être
commercialisés séparément si leur regroupement ne présentait pas de difficultés ni de
risques. Seul le problème de l’intégration oblige à les distribuer ensemble et à supporter
des coûts fixes aussi élevés.

cclii
La racine du problème est que, avec les techniques de développement actuelles, la
conformité d'un élément à ses spécifications ne garantit pas qu’il s’intégrera sans effort
ni erreurs dans le système auquel il est destiné. S’il était possible de spécifier et de
réaliser tous les composants d’un système de façon que la conformité de chacun à ses
spécifications en garantisse l’intégration, et que le fonctionnement correct du système
dans une configuration entraîne qu’il fonctionnera correctement dans toutes les autres,
alors il deviendrait possible de développer et de commercialiser les systèmes sous forme
de morceaux indépendants. L’échelle de production applicable à chacun de ces
composants serait notablement plus faible que celle des systèmes intégrés, et le cycle de
production plus court. Comme nous l’avons vu au chapitre précédent, ceci favoriserait
la fragmentation de l’industrie, et l’intégration de systèmes deviendrait une spécialité
parmi d’autres, analogue à celle d’assemblage pour le matériel.

En même temps que l’intensité des forces de concentration pour les intégrateurs,
les technologies de construction (de « génie logiciel ») déterminent le niveau des
obstacles à l’entrée pour les plus petites entreprises. Il existe déjà tout un choix de
boîtes à outils qui permettent de développer facilement des logiciels de qualité et
d’apparence professionnelles, et ces aides au développement ne peuvent que s’enrichir
et se perfectionner. Les obstacles à l’entrée resteront faibles pour les innovateurs, et les
opportunités illimitées tant que les utilisations de l’informatique continueront de ses
diversifier.

Quelque puissantes que puissent être les aides à l’écriture et à l’intégration mises
à la disposition des programmeurs par les méthodes classiques de développement, le
programme ne peut s’exécuter en fin de course que sous la forme de langage machine
où toutes les références à des informations ou à d’autres points du programme ont été
converties en adresses numériques. A ce stade, qui est celui des tests et de l’intégration,
le découpage en modules qui a servi à la construction a disparu et l’ensemble forme un
bloc compact indissociable. Modifier ou ajouter une partie du système demande un
réassemblage complet quel que soit l’importance de la modification.

Pour la même raison, greffer un programme sur un autre, ce qui est par exemple
nécessaire pour exécuter un programme d’application dans le cadre d’un système
d’exploitation, doit avoir été explicitement prévu et se fait selon des conventions
rigoureuses et contraignantes. Des techniques diverses ont été développées pour retarder
au maximum la résolution des références entre programmes, qui conduit à la « prise en
masse » décrite ci-dessus, et permettre ainsi de lier entre eux, au stade de leur exécution,
des programmes indépendants. Quelques exemples de telles conventions sont les
mécanismes DDE (Direct Data Exchange) ou OLE (Object Linking and Embedding) de
Microsoft, mais le développement le plus significatif et le plus prometteur est la
programmation dite « par objets », dont nous allons dire quelques mots.

Les objets

Dans la programmation traditionnelle, le code, formé des instructions exécutables,


est séparé des données sur lesquelles il opère. Les informations sont regroupées dans
des structures, des tables ou des fichiers, et sont exploitées et manipulées par de
nombreux modules du programme. Cette structure introduit une interdépendance

ccliii
implicite entre chacun des modules et la structure des données, ainsi qu’entre modules
via leurs données communes, qui crée des risques d’effets pervers appelés « effets de
bord » (« side effects ») et contribue fortement à la difficulté des tests. De plus, si on
désire changer le format d’une table, que ce soit pour rectifier une erreur, pour
introduire de nouvelles fonctions ou pour améliorer les performances, il faut modifier
tous les modules qui utilisent cette table.

Dans le vocabulaire de la programmation, un objet est formé par la réunion de


données et de programmes associés (généralement désignés par le mot de
« méthodes »), qui peut communiquer avec d’autres objets en échangeant des
« messages ». Une utilisation possible de la technologie objet consiste à englober dans
un même objet un ensemble de données et les sous-programmes d’accès à ces données,
en interdisant d’accéder aux données autrement qu’en utilisant ces méthodes. Pour
autant que les méthodes d’accès aient été définies de façon suffisamment générale, toute
modification de la structure des données n’impose de modifier que les méthodes de
l’objet à l’exclusion des programmes qui l’utilisent.

L’exécution des méthodes d’un objet est déclenchée, directement ou


indirectement, par la réception de messages parmi un répertoire que l’objet sait
reconnaître. Quatre méthodes différentes peuvent par exemple être écrites pour réagir à
quatre messages, l’une en imprimant l’objet, la deuxième en l’affichant à l’écran sous
forme complète, la troisième en l’affichant sous forme résumée (par exemple une
icône), et la quatrième en le copiant sur disque. Le fonctionnement détaillé de ces
méthodes dépend évidemment de la structure et de la signification de l’objet. Par
exemple, la méthode « afficher » d’un objet « rectangle » sera différente de celle d’un
objet « cercle », mais les deux objets sauront réagir de façon appropriée à un même
message « afficher ».

Regrouper ainsi dans une construction cohérente et isolable tout ce qui fait la
spécificité d’un objet apporte de nombreux avantages. Pour chaque objet, il est possible
de faire évoluer chacune de ses méthodes, par exemple le mode d’affichage, en laissant
inchangé tout le reste. On peut aussi ajouter de nouveaux objets à ceux que sait déjà
traiter le système, en les dotant simplement des méthodes appropriées pour réagir aux
messages du système qui saura ainsi les manipuler sans autre changement. Dans le
jargon des objets, on parle de « polymorphisme » pour la possibilité qu’ont des objets
différents de réagir de façon appropriée et différenciée à une même séquence de
messages. Par exemple pour afficher une liste de figures géométriques, le programme de
gestion globale de l’affichage est indépendant de la nature des figures affichées, et il
suffit pour introduire une nouvelle figure d’incorporer la méthode d’affichage
appropriée dans l’objet qui la représente. L’approche objets apparaît comme un concept
essentiel à la réalisation des interfaces graphiques et plus généralement des applications
multimédia.

Dans la plupart des systèmes de développement par objets, la définition d’objets


nouveaux est facilitée par le mécanisme dit d’« héritage » qui consiste à définir un
nouvel objet par référence à un objet existant, en conservant certaines de ses méthodes,
en les redéfinissant ou en en définissant de nouvelles, sans pour cela devoir accéder au
code source de l’objet de référence. Ce mécanisme réduit les besoins de programmation
et minimise les risques d’erreur en permettant d’utiliser des méthodes déjà éprouvées

ccliv
dans des objets nouveaux. Il permet aussi de remplacer individuellement chaque objet
d’un système par un autre objet présentant les mêmes interfaces externes, et dont les
différences avec l’objet original peuvent aller de simples détails de réalisation à une
réécriture complète.

La communication par messages implique que toute communication entre objets,


par exemple l’appel d’une méthode d’un objet à partir d’un autre objet, a lieu
indirectement et met en œuvre une fonction fondamentale du système d’exploitation.
Cette fonction du système peut en particulier être chargée de résoudre les références
croisées entre objets, permettant ainsi de maintenir une structure modulaire jusqu’au
stade de l’exécution. Entre autres possibilités, une telle structure peut servir de base à la
réalisation de systèmes distribués où les objets qui les composent peuvent résider sur
des organes d’exécution différents. La fonction de gestion des messages est chargée de
les localiser et de router les messages en conséquences sans que les différents objets
aient à connaître leurs emplacements respectifs. Le concept d’objet apparaît ainsi
comme également lié au concept client-serveur et au multitraitement.

On devine à travers cette présentation très résumée que la programmation par


objets est non seulement à la source de nouveaux paradigmes de développement
d’applications, mais une base potentielle pour une véritable modularité du logiciel. Pour
que ces espoirs se concrétisent, il faut encore beaucoup d’expérimentation et
probablement d’invention, et il faudra aussi que des standards se dégagent en leur
temps, sans qu’une hâte intempestive fige prématurément des normes immatures. Il
faudra ensuite que les entreprises de progiciel inventent et mettent en place de nouvelles
disciplines de conception et de programmation adaptées, avec par exemple un système
d’administration des objets qui favorise leur réutilisation.

Une technologie émergente liée aux objets est celle des « micronoyaux »
(« microkernel »). Un système moderne peut à tout instant contenir plusieurs
programmes en cours d’exécution, qui sont isolés les uns des autres par des dispositifs
matériels de protection afin d’empêcher les erreurs en cours d’exécution (ou les
malveillances) de se propager de l’un à l’autre. Par exemple, chaque programme ne
pourra accéder qu’aux zones de mémoire qui lui ont été affectées. C’est le système
d’exploitation qui est chargé, entre autres fonctions, d’affecter la mémoire disponible
aux différents travaux et d’assurer le passage d’un programme à un autre. Il doit pour
cela s’affranchir temporairement de ces protections, en quittant le mode normal de
fonctionnement, ou mode « problème » pour passer dans un mode « système » qui
autorise l’accès à la totalité de la mémoire et l’exécution de certaines instructions
privilégiées.

Il est clair que tout programme qui utilise directement le mode système doit être
protégé et soumis à des restrictions draconiennes, et ne peut pas facilement être
développé et distribué séparément. Dans un système qui serait composé d’objets
développés indépendamment, aucun d’entre eux ne devrait faire appel au mode système
autrement qu’en envoyant des messages à un objet « noyau » qui a le monopole de ce
mode.

On appelle « micronoyau » la plus petite partie du système qui est dépendante de


la machine et doit s’exécuter en mode système. La définition exacte des micronoyaux

cclv
est actuellement le sujet de débats et d’expérimentations. Si toutes les propositions y
font figurer la gestion de la mémoire, la gestion des tâches et la communication entre
processus, elles diffèrent par la répartition exacte des tâches entre le mode problème et
le mode système, en particulier pour la gestion des périphériques. Comme c’est toujours
le cas en programmation, ces décisions de répartition correspondent à des arbitrages
différents entre la pureté conceptuelle et la souplesse d’une part, les performances
d’autre part.

Les deux réalisations de micronoyaux les plus connues sont issues du monde
Unix : Mach, né d’une collaboration entre l’Université Carnegie-Mellon et IBM, et
Chorus, développé par la société française Chorus Systèmes. Le micronoyau Mach a été
adopté comme standard par l’OSF et est utilisé dans les nouveaux systèmes en cours de
développement par IBM, Apple, Sun et d’autres, tandis que Novell a choisi Chorus.
Microsoft, de son côté, fait reposer ses systèmes les plus récents comme Windows NT
sur un micronoyau qui lui est propre.

Bien que la technologie des micronoyaux soit au coeur des systèmes objet, aucun
des systèmes ci-dessus n’est réellement un système objet. Dans les systèmes
actuellement disponibles, le code qui réalise les fonctions externes au micronoyau reste
développé et structuré selon les méthodes traditionnelles. Il faudra attendre la
génération de systèmes prévue pour la fin du siècle pour que ces fonctions soient
réalisées sous la forme de collections d’objets indépendants qui communiquent à travers
le micronoyau.

Alors il deviendra peut-être possible à des offreurs indépendants de se spécialiser


sur des objets particuliers et d’entrer en concurrence avec les grands du marché, de la
même façon que les compatibles sont entrés en concurrence avec IBM dans les années
70. Si ces technologies tiennent leurs promesses, elles peuvent conduire l’industrie du
progiciel à éclater, comme le 360 puis l’unbundling ont conduit à l’éclatement de
l’informatique traditionnelle.

Logiciel et matériel

Une autre grande question est celle de la frontière entre le logiciel et le matériel.
Les microprocesseurs deviennent inéluctablement de plus en plus puissants. On sait
qu’ils contiendront cent millions de transistors vers l’an 2000 contre 3 millions
actuellement, alors qu’il suffit largement d’un demi-million de transistors pour réaliser
une unité de calcul complète. Peut-on penser que les microprocesseurs du XXIe siècle
seront formés de centaines d’unités de calcul fonctionnant en parallèle, ou faut-il
s’attendre à ce que leurs fonctions même soient considérablement enrichies ?

Si telle est la voie dans laquelle s’orientent les fabricants de microprocesseurs, les
fonctions susceptibles de résider sur la puce, voire d’être réalisées directement par des
circuits actifs, sont au premier chef les fonctions du système d’exploitation qui sont les
plus proches du matériel, à commencer par le micronoyau. A priori, tout logiciel
pourrait résider dans une mémoire incorporée au microprocesseur, et de façon plus
radicale tout ce qui est réalisé par logiciel pourrait l’être par les circuits et
réciproquement. On trouve d’ailleurs entre le matériel et le logiciel proprement dits des

cclvi
formes intermédiaires comme le microcode, le logiciel en mémoire morte, les pilotes de
périphériques, qui peuvent eux-mêmes résider dans le système central ou dans l’unité
d’entrée sortie, etc.

L’histoire de l’informatique offre plusieurs exemples de migration de fonctions


entre le matériel et le logiciel, et dans les deux sens. Retirer des fonctions au matériel
pour les transférer dans le logiciel procède en général de motivations théoriques. La
célèbre « machine de Türing » représente la machine la plus simple capable d’effectuer
n’importe quel calcul, mais n’est qu’un concept purement abstrait utilisé en théorie de
l’information. Sa réalisation physique aurait des performances ridiculement faibles et
serait inutilisable justement à cause de son jeu d’instructions rudimentaire. C’est la
même démarche de simplification systématique du matériel, en acceptant de reporter les
fonctions plus complexes vers le logiciel, qui a présidé aux travaux qui devaient mener
aux concepts Risc.

La migration inverse du logiciel vers le matériel est plus fréquente. Elle est
toujours motivée par des raisons pratiques de performances ou de fiabilité, et n’est
retardée que par les possibilités des technologies matérielles d’une part, la stabilité et la
généralité des fonctions concernées d’autre part. En effet, les fonctions « gravées dans
le silicium » ne peuvent plus être modifiées que très difficilement, et seules les parties
de logiciel parfaitement testées et stabilisées peuvent être en pratique candidates. Toute
la vie du 360 et de ses dérivés a vu l’apparition périodique de nouvelles instructions
privilégiées destinées à remplacer des séquences d’instructions du système
d’exploitation. Le projet FS prévoyait d’incorporer au matériel de nombreuses fonctions
dont une grande partie de la gestion des bases de données. Dans le monde micro, chacun
des processeurs Intel successifs incorpore des fonctions nouvelles comme la gestion de
l’énergie, qu’on aurait normalement confiées au logiciel. Même le concept Risc a
évolué d’un jeu d’une dizaine d’instructions dans la forme puriste de ses origines à
quelque 200 instructions pour ses incarnations récentes, c’est à dire autant que les
processeurs Cisc classiques.

Malgré des retours en arrière occasionnels et temporaires, la tendance constante à


long terme est bien la migration de fonctions depuis le logiciel système vers le matériel
et en particulier le microprocesseur, ainsi d’ailleurs que vers les matériels périphériques
dont les « pilotes » sont de plus en plus riches. Si l’industrie se met un jour d’accord sur
un ensemble d’API pour définir une machine virtuelle standard, il est probable que les
constructeurs de matériel en offriront des réalisations variées qui incluront une partie
des objets du système nécessaires à son fonctionnement. Cette migration concerne
d’abord les systèmes d’exploitation, peut s’étendre à certaines fonctions des
programmes d’applications. En tout état de cause, elle remet en question les relations
entre producteurs de composants et de systèmes, ainsi que la frontière entre ces deux
secteurs.

Conclusions

Les systèmes d’exploitation forment un secteur original par les spécificités


techniques et économiques de l’activité de développement de progiciel, ainsi que par

cclvii
l’étendue du domaine couvert qui laisse la place pour des sous-secteurs allant de
l’extrême concentration à l’extrême dispersion.

Pour les systèmes d’exploitation industriels majeurs, la tendance actuellement


dominante est la concentration, qui devrait aboutir dans la décennie à une structure
analogue à celle des composants. Au couple leader-challenger formé probablement par
Intel et PowerOpen pour les microprocesseurs pourrait répondre un couple formé par
Microsoft et IBM (ou le fruit de son rapprochement avec Apple), suivis dans les deux
cas par une petite poignées de firmes plus marginales. Pour le logiciel, les leaders
seraient accompagnés par un cortège fluctuant d’innovateurs plus ou moins associés
sous la bannière Unix, dont certains graviteraient autour de l’un des leaders au point de
s’y fondre.

Mais les technologies portent en germe un potentiel de remise en question


profonde de ce schéma, en permettant à terme un éclatement du système donc un
éclatement du secteur. S’il se réalise, ce mouvement serait favorable à la multiplication
de petites entreprises et à une accentuation du caractère dispersé du secteur. On
assisterait alors pour le progiciel à une nouvelle version de l’« unbundling ». Que
deviendraient alors les leaders actuels ? Qui prendrait en charge le problème de
l’intégration en un système cohérent des objets de provenances différentes ?
L’utilisateur lui-même ? Des sociétés de service spécialisées ? Tels sont les enjeux
industriels et structurels profonds des « systèmes objets ».

Cette restructuration possible serait encore compliquée si l’évolution des


composants entraînait en parallèle une redistribution des cartes entre les progiciels
systèmes et les microprocesseurs. Tandis que l’industrie du progiciel éclaterait, une
partie d’entre elle fusionnerait plus ou moins avec l’industrie du matériel pour donner
naissance à des produits intégrés hybrides. Plus que jamais, le logiciel reste un domaine
particulièrement divers et mouvant, dont l’évolution est au centre de toute l’industrie
informatique.

cclviii
Chapitre 13
L’univers des services

Un monde à plusieurs dimensions. Services de support, services de substitution et


services informatisés. Les services de traitement et leur évolution. Grandeur et
décadence du Service Bureau. Assistance technique, développement et intégration. Les
pièges du forfait. Des structures et des cultures différentes pour des activités différentes.
Spécialisations et impasses. Les produits ont-ils besoin de services ? Et l’infogérance ?

A plusieurs reprises, nous avons abordé le domaine des services sans toutefois y
pénétrer. En survolant l’industrie informatique dans la première partie, puis en préparant
nos instruments d’analyse des structures industrielles dans le chapitre 6 et en cherchant
à organiser notre réflexion au chapitre 10, nous avons noté quelques traits
caractéristiques des services, qui font de ce domaine un ensemble aux contours flous et
au contenu hétérogène.

Cette hétérogénéité correspond d’ailleurs aux définitions traditionnelles qui se


résument pour la plupart à appeler service « tout ce qui n’est pas un produit ». Mais
nous avons vu au chapitre 10 que la différenciation habituelle entre produits et services
fait appel à plusieurs critères indépendants, et que loin de se résumer à une situation
bipolaire, cette différenciation donne naissance à une classification à plusieurs
dimensions, où chacun des critères peut varier entre la modalité « service » et la
modalité « produit » en passant par des valeurs intermédiaires. Ces considérations nous
ont déjà conduits à traiter séparément le progiciel, dont toutes les caractéristiques sont
celles d’un produit et dont l’assimilation aux services, bien qu’habituelle, est totalement
abusive.

Même après en avoir éliminé le progiciel, les services ne se distinguent pas aussi
radicalement des produits que le prétend en général la littérature, et sont trop divers
pour que l’on puisse avancer à leur propos des affirmations générales pertinentes. Bien
au contraire, l’analyse des activités de service doit faire appel à l’ensemble des outils
que nous avons forgés et validés en les appliquant aux produits, et conduit à des
conclusions aussi variées que le sont les formes de service elles-mêmes.

Malgré cette grande diversité, les services font l’objet de nombreux discours où la
confusion plus ou moins volontaire des situations donne naissance aux généralisations
et aux approximations les plus abusives. C’est dans ce domaine que les à peu près et les
idées fausses abondent le plus, véhiculés en particulier par les discours intéressés de
tous les intervenants qui visent à promouvoir leurs offres de services, et relayés par les
analyses des gourous professionnels. Au total, le discours dominant et les idées reçues
quant aux services ne font généralement qu’ajouter à la confusion. Le présent chapitre
se propose d’analyser le domaine des services de façon objective, en distinguant ses
parties suivant le vieux précepte cartésien, et en analysant les relations et les
mécanismes de symbiose et de concurrence avec les produits pour déceler les

cclix
perspectives d’évolution de chacun des principaux types d’offre, sans craindre de
remettre en question quelques idées reçues.

Dans le discours dominant, le domaine des services est porteur d’espérances, au


point que certains affirment que les services supplanteront un jour les produits. Cet
intérêt est soutenu par deux affirmations : la première, que le chiffre d’affaires des
services se développe plus vite que celui du matériel, et la deuxième que les services
sont plus profitables que le matériel. On en veut pour preuve que presque tous les
grands offreurs traditionnels affichent des ambitions dans les services, et tirent même
fierté de la part relative des services dans leur chiffre d'affaires. Les commentateurs
superficiels attribuent cette ruée vers les services à une profitabilité intrinsèque
supérieure et la présentent comme une tendance lourde conduisant à une suprématie
définitive des services sur le matériel.

Les statistiques montrent en effet que les services se développent plus vite que le
matériel en général, et que les matériels traditionnels (autres que les micro-ordinateurs)
en particulier. Mais cette constatation doit être tempérée par le fait que la plupart des
chiffres cités portent sur l’ensemble des progiciels et des services, les premiers croissant
nettement plus vite que les seconds.

En revanche, comme nous l’avons vu au chapitre 5, il est inexact d'affirmer que


les services sont plus profitables que les produits. Sur toute la période 1985-1993, le
taux moyen et le taux médian de profit net après impôts des sociétés de services
spécialisées se situent autour de 5%, tout comme ceux des firmes spécialisées dans les
PC, les stations de travail ou les périphériques. De plus, autour de ces moyennes, les
variations sont suffisantes pour qu'il existe depuis 1989 des sociétés de services
déficitaires, et des sociétés de matériel dont la profitabilité est supérieure de 10 points à
celle des sociétés de services les plus performantes. Autrement dit, non seulement les
moyennes des différents secteurs sont très voisines, mais les écarts entre sociétés du
même secteur sont beaucoup plus grands que les infimes différences entre les moyennes
des secteurs. Les profits moyens et médians des services ne sont clairement supérieurs
qu'à ceux des généralistes ou des spécialistes des grands systèmes, et encore trouve-t-on
parmi ces derniers des firmes dont la profitabilité dépasse celle de beaucoup de sociétés
de services.

De même, comme nous l’avons vu au chapitre 5, on n’observe pour les firmes non
spécialisées aucune corrélation entre leur profitabilité et la part des services dans leur
chiffre d’affaires. La différence de comportement la plus clairement observable entre
produits et services est l’étroitesse des plages de variation pour ces derniers, et leur plus
grande stabilité dans le temps. La crise qui a précipité dans le rouge bon nombre de
constructeurs de matériels à partir de 1991 n’a pas eu d’effet visible sur la profitabilité
d’ensemble des services, dont les difficultés relatives étaient apparues dès 1989. Pour
les constructeurs en difficulté, développer leur activité de services leur a permis de
limiter l’impact des pertes dues au matériel, principalement en facturant, même à un
taux peu profitable, des personnels devenus excédentaires.

cclx
Profitabilité - services

30.00% Moyenne
Mediane

20.00%

10.00%

0.00%

-10.00%

-20.00%

-30.00%
85 86 87 88 89 90 91 92 93

Données McKinsey - Analyse GD


G. Dréan - 1995

C’est probablement cette insensibilité à la crise des matériels standard qui est à
l’origine de la réputation de profitabilité des services. Cette illusion est entretenue par
les commentateurs qui englobent dans un même « secteur » les services et les progiciels,
dont la profitabilité est effectivement supérieure avec des moyennes couramment
supérieures à 15%. Mais cette simple différence de niveau prouve bien à elle seule qu’il
s’agit d’activités soumises à des dynamiques concurrentielles radicalement différentes.

Services en informatique et services informatisés

Même réduits au domaine de l’informatique, les services ne forment pas un


secteur au sens de Porter, c’est à dire, en transposant la définition classique, « un groupe
de firmes qui produisent des prestations étroitement substituables ». Entre l’assistance
technique, le développement de logiciel, la maintenance, le traitement d’applications,
l’intégration de systèmes, le secours informatique, … il existe une grande variété de
services répondant chacun à un besoin particulier, et qui forment autant d'offres non
substituables l'une à l'autre définissant des secteurs distincts.

Dans chacun de ces secteurs, les mécanismes de production et les forces


concurrentielles peuvent prendre une forme spécifique, conduisant à des logiques
sectorielles différentes. Le degré de concentration et le niveau de profitabilité potentielle
varient suivant la nature des services. Les facteurs de réussite et les stratégies
appropriées diffèrent d'un secteur à l'autre et appellent des personnalités d'entreprise,
c’est à dire des organisations et des cultures, différentes. Ces variations sont assez
significatives pour que, contrairement par exemple à l’assemblage de matériels ou à la
production de progiciels, les services ne constituent pas non plus un métier au sens que
nous avons introduit au chapitre 6, c’est à dire un ensemble de secteurs obéissant à la
même forme de dynamique concurrentielle.

Hétérogène par la nature des prestations offertes et par la dynamique


concurrentielle qui structure chacun des secteurs, le domaine des services l’est aussi par

cclxi
la diversité des acteurs qui y sont présents, et qui mettent en œuvre des stratégies
diversifiées. Les acteurs spécialisés sont nombreux ; dans l’échantillon de 110 grandes
entreprises que nous avons étudié au chapitre 4, on compte 26 firmes spécialistes des
services, mais il existe en outre, aux USA comme en Europe, une multitude
d’entreprises de service trop petites pour figurer dans cet échantillon. De plus, de
nombreuses firmes sont présentes dans les services sans y être spécialisées. C’est le cas
de presque tous les généralistes et de près de 40% des autres spécialistes.

Il est d’ailleurs probable que ce tableau lui-même ne représente qu’imparfaitement


la réalité. De nombreuses formes de service ont traditionnellement été offertes par les
fournisseurs de produits en complément de leurs productions principales sans donner
nécessairement lieu à facturation séparée, et la littérature continue à présenter souvent
les services comme des attributs des produits destinés à conférer à ces derniers un
avantage concurrentiel, et non à produire par eux-mêmes un revenu profitable. La
facturation séparée des services, inaugurée par IBM en 1969, est loin de constituer une
règle absolue pour tous les constructeurs. Le même type de service peut être offert
gratuitement par une firme et sous forme payante par une autre, spécialisée ou non.

Ces motivations et ces modalités divergentes contribuent à rendre encore plus


flous les contours du domaine des services, déjà incertains par nature. Nous avons vu
que la vision habituelle d’un monde des services opposé à un monde des produits est
une dichotomie tout à fait artificielle par rapport à la réalité. L’ensemble formé par les
services est trop hétérogène pour qu’il soit possible de leur attacher des caractéristiques
communes qui les différencieraient globalement des produits. Bien au contraire, certains
services sont plus facilement substituables à des produits qu’à d’autres services, par
exemple le Service Bureau que nous étudierons dans la suite.

Au total, la diversité des services est comparable à celle de l’ensemble des


produits, et nous devrons pour les comprendre faire appel à l’ensemble des outils
conceptuels d’analyse que nous avons présentés jusque là : analyse concurrentielle des
facteurs de concentration et de dispersion, inventaire des stratégies disponibles,
chronologie des décisions, personnalités d’entreprise et compatibilité des organisations.
Le monde des services nous apparaîtra alors comme un monde varié et instable,
parallèle à celui des produits, auquel il est lié par des relations complexes de
complémentarité et de concurrence.

Pour entreprendre cette analyse, nous devons d’abord structurer le domaine des
services en secteurs concurrentiels au sens de Porter, chaque secteur regroupant des
prestations « étroitement substituables » parce que destinées à satisfaire un même
besoin. Or, au niveau le plus élevé, nous pouvons déjà classer les services informatiques
selon trois types principaux de finalités.

La plupart des services traditionnellement offerts par les Sociétés de Service en


Informatique sont destinés à faciliter ou à accompagner la mise en œuvre de systèmes
56

informatiques. Il s’agit par exemple des activités de conseil, d’assistance, de


développement de programmes, d’intégration de systèmes, … dont les clients sont le

56 généralement désignées par le sigle SSII, pour « Sociétés de Service et d’Ingénierie


Informatique », qui a remplacé le sigle SSCI (Sociétés de Service et de Conseil en Informatique).

cclxii
plus souvent des responsables informatiques. Le marché de ces services est créé par
celui des produits informatiques, et est en première analyse d’autant plus vaste que le
marché des produits est lui-même en expansion. Les différentes prestations de ce type
peuvent être en concurrence entre elles, mais elles forment globalement un ensemble
spécifique auquel ne peuvent pas se substituer des prestations extérieures à l’industrie
informatique. Nous appellerons cette catégorie « services de support ».

Un cas un peu différent est celui des services qui se présentent comme une
alternative à l’acquisition de produits informatiques, comme le service bureau et
certaines formes de « facilities management » reposant sur le partage de ressources
matérielles entre clients. Du point de vue du marché, ces services sont en concurrence
directe avec les produits informatiques. Même si in fine le prestataire est client des
constructeurs et des fournisseurs de progiciel, son intervention réduit par définition leur
marché. Nous appellerons cette catégorie « services de substitution ».

Une troisième catégorie est formée par des services dont l’utilité est extérieure à
l’informatique, mais qui s’appuient sur l’informatique dans leur mise en œuvre afin
d’obtenir un avantage concurrentiel. Par exemple la comptabilité et la gestion du
personnel, même informatisées, conservent une finalité extérieure à l’informatique et
sont en concurrence avec d’autres formes de comptabilité ou de gestion du personnel, et
non avec d’autres prestations informatiques. Leur marché est celui des comptables et
des responsables de relations humaines. Nous appellerons cette catégorie « services
informatisés » ou « services applicatifs ».

Ces services informatisés résultent de l’introduction de la technologie


informatique dans la réalisation de services de nature non-informatique souvent
préexistants dont le marché est défini par les utilisateurs de ces services, quel que soit
leur degré d’informatisation. Même si l’utilisation de l’informatique peut permettre la
création de nouveaux services ou modifier profondément les conditions d’exercice de
l’activité et les avantages concurrentiels respectifs des offreurs, le jeu concurrentiel se
joue dans une arène distincte de celle où se joue la concurrence entre produits
informatiques. C’est pourquoi nous considérerons que les services applicatifs
informatisés n’appartiennent pas à l’industrie informatique. La problématique des
services informatisés est un cas particulier de l’envahissement par l’informatique de
toutes les activités humaines et sera abordée dans le dernier chapitre consacré aux
frontières de l’informatique.

Au contraire, la dynamique concurrentielle des services de support et de


substitution est directement liée à celle des autres secteurs de l’industrie informatique.
En ce sens, ces services font partie intégrante de l’industrie informatique et sont
examinés dans le présent chapitre. Encore faut-il noter que de nombreux services de
nature générale sont utilisés en tant que support de l’activité informatique sans prendre
dans ce contexte un caractère significativement différent de celui qu’ils ont par ailleurs.
C’est le cas par exemple de services de financement, de transport des ordinateurs, de
fourniture d’électricité, etc.. Il faut des camions pour livrer les ordinateurs, des banques
pour les financer et du courant pour les alimenter, mais on ne range pas pour autant les
transports routiers, la banque et la fourniture d’électricité dans l’industrie informatique.
Nous restreindrons la discussion ce chapitre aux services de support spécifiques à
l’informatique, ce qui exclut entre autres les distributeurs, les brokers, les leasers, dont

cclxiii
l’activité n’est pas fondamentalement différente selon qu’elle porte sur des produits
informatiques ou sur d’autres produits.

Par ailleurs, la distinction que nous venons d’introduire entre services de support,
services de substitution et services applicatifs n’a pas toujours été aussi nette. Aux
premiers temps de l’informatique, un service de comptabilité informatisée était
considéré d’abord comme un service informatique ; il était offert par des firmes
spécialisées en informatique et non par les cabinets d’experts comptables. Maintenant
que tous les comptables utilisent l’informatique, la comptabilité informatisée est
devenue la norme et n’appartient plus à l’industrie informatique. Nous verrons que ce
phénomène de migration a caractérisé l’évolution des services de traitement. De plus,
les mêmes prestations de support peuvent accompagner la fourniture de produits et les
services de substitution, ou être intégrés à ces derniers.

Enfin, des services de support non spécifiquement informatiques peuvent devenir


des systèmes informatisés et inviter ainsi doublement à la confusion. L’exemple le plus
significatif est celui des services de télécommunications, dont nombre de
commentateurs s’ingénient à décrire la fusion avec l’informatique. Pour nous, les
relations entre ces deux industries relèvent essentiellement de l’utilisation croissante de
l’informatique dans les communications, de même que dans la banque, les transports, la
musique ou toutes les autres industries, dont nous examinerons les incidences au
chapitre 16. De l’autre côté, il est vrai que les services de télécommunications forment
un constituant de plus en plus vital des systèmes informatiques, mais sans que cette
forme d’utilisation définisse pour les entreprises de télécommunications un type de
prestations radicalement différent de leur activité classique, qui reste de transmettre des
informations sans modification entre des points distants. L’utilisation de ses services par
l’informatique ne conduit pas non plus l’industrie des télécommunications à se
structurer différemment ou à obéir à une logique économique différente. Nous
reviendrons sur ce sujet à la mode dans le dernier chapitre de cet ouvrage.

Les services de substitution et l’histoire du Service Bureau

Dans les premières années de l’industrie informatique, la formation des clients, la


maintenance du matériel et l’assistance technique, qui comprenait une part importante
d’écriture de logiciel, étaient fournies avec le matériel sans facturation séparée. Mais le
coût des premiers ordinateurs et la rareté des compétences nécessaires à leur mise en
œuvre les réservait à un petit nombre de grandes entreprises. Les constructeurs
d’ordinateurs, en particulier, voyaient un marché important pour une offre de centres
informatiques partagés qui serviraient les besoins de la majorité des utilisateurs, trop
modestes pour justifier l’acquisition de moyens de traitement propres. Ainsi se créa le
« Service Bureau », qui est par essence une offre de service conçue comme une
alternative à l’acquisition de produits informatiques.

Notons au passage que le même raisonnement avait conduit à l’ouverture de


centres de « service bureau » sur matériels mécanographiques à cartes perforées. Les
premiers services informatiques résultaient simplement de l'équipement en ordinateurs
du Service Bureau mécanographique classique, qui existait déjà depuis plusieurs
décennies avant même l’introduction des ordinateurs. A l’origine, ce service était le seul

cclxiv
à faire l’objet d’une offre commerciale et d’une facturation indépendante, qu’il soit
offert par les constructeurs de matériel ou par les premières sociétés de services
indépendantes.

L’offre de service bureau initiale était une alternative globale à l’utilisation de


moyens propres. De même que les vendeurs de matériels fournissaient les services
annexes sans facturation séparée, les fournisseurs de service bureau intégraient le
développement de programmes, le personnel d’exploitation et l’assistance éventuelle à
l’utilisateur dans le prix du traitement. Dans les deux cas, la ressource rare et chère était
le matériel, tandis que le coût du personnel était relativement secondaire.

L’offre de service bureau apparaît ainsi comme une autre modalité d’accès aux
matériels informatiques et aux services associés, qui s'adresse principalement aux petits
et moyens clients, ainsi qu’à des projets occasionnels ou demandant des compétences
spéciales. Dans l’absolu, le service bureau est en concurrence avec l’acquisition de
moyens propres, mais dans les faits cette concurrence est au départ restreinte par le coût
élevé des matériels et la nouveauté de leurs applications. En 1957, IBM pensait que le
marché du calcul scientifique en Europe serait satisfait par un tout petit nombre
d’ordinateurs acquis par quelques grands organismes comme le CEA pour leurs besoins
propres, le reste étant servi par un centre de calcul exploité par IBM en service bureau.
Même pour les constructeurs de matériel, la concurrence potentielle entre les deux
offres restait théorique.

Le service bureau formait ainsi un secteur relativement bien délimité et isolé des
matériels, surtout depuis que le plus gros fournisseur, IBM, avait confié cette activité à
une filiale spécialisée dans le cadre du Consent Decree de 1956. Même si cette mesure
ne touchait que les USA, une tradition de gestion séparée s’étendit aux activités de
Service Bureau d’IBM dans le monde entier.

Pour offrir une bonne qualité de service, les centres de traitement devaient être
physiquement proches de leurs clients, ce qui découpait le marché (et le secteur) en
zones de concurrence géographiques, deux centres trop éloignés n’étant pas réellement
concurrents. Chacun des sous-secteurs ainsi constitués, comme d’ailleurs l’ensemble de
l’industrie, était initialement concentré, comme le prédit la théorie pour les industries
naissantes. En effet, les coûts d’acquisition d’un ordinateur et la rareté des compétences
nécessaires pour l’exploiter constituaient des obstacles à l’entrée suffisants pour
décourager les candidats sur un marché encore perçu comme étroit. Pour les mêmes
raisons, l’offre la plus naturelle était une offre intégrée associant aux produits (ou
pseudo-produits) nouveaux les services permettant leur utilisation, la facturation de
l’ensemble étant assise sur les produits qui en formaient la part rare et chère, donc le
support de la valeur.

Eclatement du Service Bureau

A partir de cette situation initiale, le coût des matériels n’a cessé de diminuer, et
avec lui le prix des ordinateurs d’entrée de gamme. Cette manifestation du progrès
technologique a entraîné pour le service bureau deux séries de conséquences qui ont
contribué à modeler le domaine des services informatiques.

cclxv
Premièrement, la part du matériel dans la prestation globale de service n’a cessé
de décroître, contraignant les offreurs à restructurer leurs tarifs en dissociant les
différentes prestations, ce qui prélude à l’éclatement du secteur lui-même en sous-
secteurs spécialisés. Deuxièmement, la partie du marché où le service bureau et le
matériel sont réellement en concurrence n’a cessé de s’étendre et l’avantage
économique de l’acquisition de matériel en propre n’a cessé de s’amplifier. Ceci a
conduit au déclin puis à la disparition quasi-totale du marché du traitement partagé, et
donc du secteur d’industrie correspondant.

Dès le début des années 60, et singulièrement après l’introduction des matériels de
la génération des 360, la part du personnel et du progiciel pèse de plus en plus lourd
dans les coûts du service bureau et dans la facture de ses utilisateurs. Parallèlement, la
diffusion des compétences et la disponibilité croissante de progiciels fait apparaître des
clients qui programment eux-mêmes ou utilisent des programmes existants, et ne
demandent aux sociétés de services que l’accès à la machine et une assistance minimale
à son exploitation. Pour ajuster leur offre et leur facture à cette diversité de la demande,
les entreprises de service sont amenées à distinguer et à tarifer séparément des
prestations distinctes telles que l’assistance technique, l’écriture de programmes,
l’utilisation des matériels ou celle des logiciels. A l’intérieur même du traitement, la
variété des utilisations conduit à distinguer des unités d’œuvre comme le temps de
traitement, l’occupation des différents niveaux de mémoire, les interventions manuelles
ou l’utilisation d’unités particulières.

Dans la deuxième moitié des années 60 et au début des années 70 interviennent


deux phénomènes jouant en sens opposé. D’une part certains grands utilisateurs qui se
sont équipés de matériels informatiques se présentent sur le marché des services de
traitement pour revendre leurs excédents de temps machine en formant quelquefois à cet
effet des filiales spécialisées. Cette offre nouvelle de temps de calcul brut, souvent à des
tarifs marginaux, pousse à la baisse du prix du temps de calcul « nu ».

En même temps, les développements techniques liés à la multiprogrammation et à


l’utilisation des télécommunications et du « time-sharing » donnent naissance vers la fin
des années 60 à l’idée de « computer utility » ou « distribution d’énergie informatique ».
L’économie du traitement sur ordinateur obéit encore à cette époque à la « loi de
Grosch » selon laquelle il revient moins cher d’exécuter un même travail sur un gros
ordinateur partagé que sur un petit ordinateur dédié. De nombreux observateurs en
concluent que l’informatique évoluera vers un réseau mondial dans lequel quelques très
gros ordinateurs fourniront l’« énergie informatique » aux utilisateurs à travers un
réseau de télécommunications. Les fournisseurs existants accélèrent alors leur
conversion vers le « télétraitement », en même temps qu’apparaissent de nouveaux
entrants spécialisés en « time-sharing » (Tymshare, General Electric, McDonnell, …).

Ces mutations techniques modifient la dynamique concurrentielle du traitement.


D’une part le recours au télétraitement efface les distances et mondialise le marché.
Certains offreurs pensent même pouvoir tirer un avantage concurrentiel du décalage
horaire en commercialisant sur un continent du traitement produit aux heures creuses
sur un autre continent, et donc moins cher que le traitement local durant les heures
ouvrables. Sur le marché élargi ainsi créé par l’utilisation des télécommunications, la loi
de Grosch et les économies d’échelle qu’elle implique donnent un avantage

cclxvi
concurrentiel aux plus grands offreurs et favorise l’essor d’entreprises de taille
mondiale.

Toutes ces évolutions poussent à séparer de plus en plus les prestations de


traitement sur ordinateur proprement dites des prestations dites « intellectuelles » de
développement et d’assistance. Parallèlement, tout au début des années 1970, une
séparation analogue entre en vigueur du côté des produits sur l’initiative d’IBM (voir
chapitre 2). Nous avons vu que l’ambition stratégique d’IBM à cette occasion n’est pas
de dominer le nouveau marché des services qu’elle vient de créer, mais bien plutôt de se
décharger de la masse des tâches de support aux clients en les transférant sur des
entreprises de service. Un nouveau secteur des services « intellectuels », portant
essentiellement sur le développement de programmes d'application et la mise en place
de systèmes complets, se met ainsi en place aussi bien comme une évolution naturelle
des Sociétés de Service Bureau que par apparition de nouvelles firmes spécialisées.

Pour ce dernier type de services, la proximité physique du prestataire et du client


reste souhaitable et l’échelle optimale de production est rapidement atteinte même sur
un marché local. Ce secteur conserve donc une structure dispersée tant sur le plan
géographique qu’à l’intérieur même de chaque marché local.

Les années 70 voient l’essor des Sociétés de Service en Informatique, en même


temps que leur diversification. De nouveaux acteurs, souvent en provenance d’autres
secteurs industriels comme les banques, l’industrie ou les télécommunications, adoptent
des stratégies de spécialisation selon deux directions principales : assistance technique
et développement d’applications d’une part, distribution d’énergie informatique et accès
à des bibliothèques de programmes d’application d’autre part. De leur côté, les grandes
entreprises traditionnelles de service bureau tentent pour la plupart de conserver leur
statut de généralistes en offrant l’ensemble des prestations, tout en se structurant
souvent en unités spécialisées dans chacun des grands types de prestations ci-dessus.

Déclin et disparition

Mais dans la deuxième moitié des années 70, le marché du traitement sur moyens
partagés, qui avait été à l’origine de tout le secteur des services, va progressivement
s’étioler jusqu’à disparaître au milieu des années 80. Cette érosion progressive est la
conséquence directe de l’amélioration continue du rapport performances-prix des
matériels et en particulier de la puissance croissante des matériels d’entrée de gamme
tels que les mini-ordinateurs, et plus tard les micros. De plus, partager un gros
ordinateur entre des utilisateurs indépendants implique des coûts de coordination et de
protection qui s’ajoutent aux coûts de transmission inhérents au télétraitement, si bien
que la célèbre « loi de Grosch » se renverse : il devient plus économique d’exécuter un
programme sur la plus petite machine qui puisse l’accueillir que sur un gros ordinateur
partagé. Au fur et à mesure qu’un plus grand nombre d’utilisateurs s'équipe de moyens
propres adaptés à leurs besoins, le marché du traitement partagé se réduit pour finir par
disparaître vers la fin des années 80.

Les entreprises qui opéraient dans ce secteur sont condamnées à se reconvertir


sous peine de disparition. Celles qui avaient su anticiper en séparant à temps leurs tarifs

cclxvii
et leurs prestations peuvent purement et simplement abandonner le secteur sans trop de
dommages, surtout si le traitement ne représente qu’une part marginale de leur revenu.
Les autres entreprises, dont la profitabilité repose sur la vente de services de traitement,
doivent faire face à la régression de leur chiffre d’affaires tout en réorientant leur
personnel d’exploitation vers des activités nouvelles. Elles empruntent pour cela
plusieurs voies selon leur situation et leur vision de l’avenir, en cherchant à tirer
avantage d’un au moins de leurs actifs liés au traitement :
–possession de moyens de calcul et de stockage puissants,
–maîtrise d’un réseau de transmission de données,
–compétences en ingénierie et en exploitation de grands systèmes,
–compétences et logiciels concernant des applications ou des clientèles spécifiques.

Pour un petit nombre d’entreprises, le traitement informatique sur moyens


partagés n’est que le support d’un savoir-faire applicatif concernant les besoins d’une
clientèle particulière comme les experts-comptables (CCMC) ou les agents d’assurances
(Policy Management), ou encore des opérations qui sont par nature communes à
plusieurs entreprises comme le traitement des cartes bancaires (Sligos en France, First
Data aux USA). Tant que leur marché particulier résiste à la démocratisation des
moyens informatiques, ces entreprises peuvent persévérer dans leur activité de
traitement partagé, mais leur avantage concurrentiel est de plus en plus lié à leur
connaissance des besoins applicatifs et de moins en moins à leur compétence
informatique. De ce fait, même si le recours à des moyens partagés reste une alternative
viable, ces entreprises sont de plus en plus menacées par la concurrence de firmes en
provenance de l’industrie cliente, tandis que leurs possibilités d’évolution sont de plus
en plus limitées au secteur client. Au total, leur comportement devient dicté par leurs
interactions avec l’industrie cliente plus que le secteur des autres services informatiques.
Pour ce qui concerne leur comportement concurrentiel et la dynamique industrielle qui
en résulte, ces firmes quittent l’industrie informatique pour se lier de plus en plus
étroitement à l’industrie cliente.

Certaines retardent l’échéance en se concentrant sur les super-ordinateurs, mais le


haut de gamme lui-même finit par succomber à la démocratisation des matériels.
D’autres pensent pouvoir exploiter leur réseau et leurs moyens centralisés en offrant
l’accès à des bases de données. Mais elles s’aperçoivent rapidement que c’est dans la
création et la tenue à jour des informations que résident l’essentiel de la valeur de la
prestation ainsi que de ses coûts, ce qui transfère le pouvoir relatif aux producteurs de
ces informations. Les sociétés de services informatiques qui s’engagent dans cette voie
sont rapidement réduites à un rôle d’ingénieristes et d’opérateurs pour le compte des
producteurs d’informations.

D’autres encore comme General Electric, Tymshare ou IBM se replient sur des
offres directement liées à la gestion des télécommunications comme la messagerie ou le
transfert de fichiers. Tout comme dans le cas des services informatisés, elles quittent
alors l’arène concurrentielle de l’informatique pour entrer dans celle des
télécommunications en se posant en concurrents des grands opérateurs traditionnels.

cclxviii
C’est dans ce contexte qu’intervient le débat sur les « services à valeur ajoutée »,
lancé aux USA dans le cadre des projets de nouvelle réglementation des
télécommunications (appelés à tort « déréglementation »). La question est de savoir
dans quelle mesure l’utilisation des lignes louées doit être réservée au locataire, ou si ce
dernier doit être autorisé à permettre à des tiers d’accéder à ces lignes, et si oui à quelles
conditions. Les opérateurs de télécommunications voient dans cette possibilité de
cession à des tiers une grave menace pour leur structure tarifaire et leur équilibre
financier. Ils cherchent donc à la limiter, alors que l’ensemble des utilisateurs de
télécommunications, et au premier chef les grandes entreprises de toutes les branches,
souhaitent la plus grande liberté.

Dans ce débat, les Sociétés de Service en informatique vont jouer un rôle


inattendu. Le repli de certaines sociétés de traitement sur des prestations très liées à leur
réseau existant est interprété par les opérateurs de télécommunications comme le
prélude à une concurrence dans leur propre secteur. Les manœuvres d’IBM dans ce
même domaine raniment même les vieux fantasmes du réseau informatique mondial.
Sur l’utilisation des lignes louées, les Sociétés de service adoptent naturellement une
position très libérale qui reflète soit le désir de ne pas compliquer encore leur
désengagement du traitement, soit leur communauté d’intérêts avec leurs clients dans le
cas des entreprises d’ingénierie. Mais cette position renforce la conviction des
télécommunicants que les Sociétés de service informatique (et IBM) n’attendent que la
libéralisation des communications pour s’engager dans une stratégie agressive de mise
en place de « réseaux à valeur ajoutée ». Il n’est pas certain que la controverse
surréaliste qui suivit ne resurgisse pas à propos des « autoroutes de l’information »...

Ce résumé d’une trentaine d’années d’histoire des services de traitement sur


ordinateur montre sur une période relativement courte tout un cycle de vie et de mort
d’un secteur industriel, comme dans un film accéléré. Conformément à la théorie, le
secteur naît intégré et concentré, puis les firmes se spécialisent et le secteur se
fragmente avec la croissance du marché. La phase de maturité puis de régression du
marché provoque le retour d’une structure concentrée quand le nombre de firmes
opérant dans le secteur diminue. Mais en parallèle, quelques entreprises qui opéraient
dans des niches particulières survivent en s’intégrant aux secteurs d’industrie avec
lesquels elles entretenaient des relations privilégiées. En volant en éclats devant la
concurrence des matériels, le secteur disparu du traitement laisse derrière lui des
fragments qui s’agrègent en quelque sorte avec d’autres industries.

Actuellement, les statistiques font encore apparaître dans les services


informatiques un peu plus de 15% de traitement, en baisse régulière au rythme de 1 à
2% par an. D’après l’identité des firmes concernées, il s’agit en réalité de services
d’application informatisés comme la gestion des transactions par cartes de paiement, ou
les services aux experts-comptables ou aux agents d’assurances. Ces prestations figurent
dans les statistiques relatives à l’industrie informatique dans la mesure où elles sont
fournies par des entreprises cataloguées comme sociétés de services en informatique,
alors que d’autres services applicatifs comparables tout aussi informatisés
n’apparaissent pas car ils sont fournis par d’autres entreprises. On pourrait en citer de
nombreux exemples dans le domaine des messageries, des bases de données, du
commerce électronique, ne serait ce qu’Internet ou Compuserve. Autrement dit, la

cclxix
présence du traitement dans les services en informatique est essentiellement un
archaïsme statistique.

L’exemple des services de traitement illustre aussi les relations de dépendance


étroite qui unissent le secteur des services à celui des produits. D’une part le marché des
services est créé par celui des produits, et d’autre part c’est la concurrence entre
produits et services pour la satisfaction du même besoin qui mène certains services à la
régression et à la disparition. Notons que dans cette concurrence, contrairement aux
thèses « post-industrielles » que nous avons évoquées au chapitre 10, c’est la modalité
« produits » qui l’emporte sur la modalité « services ».

Peut-on dire pour autant que le progrès technologique, en mettant les produits
informatiques à la portée de tous les utilisateurs potentiels et en éliminant les économies
d’échelle, a définitivement rendu obsolètes les services de substitution comme le service
bureau ? C’est une des façons d’aborder la question des nouvelles formes de service
apparues – ou réapparues – récemment sous le titre générique de « facilities
management » ou infogérance. Ces prestations se rattachent aux services de substitution
dans la mesure où c’est le prestataire et non l’utilisateur qui possède les moyens
informatiques et en assume la responsabilité permanente d’exploitation pour le compte
de ses clients. Comme le traitement partagé, ce service est pour le client une alternative
à l’acquisition de produits, et la firme de services a (sous certaines réserves) la
possibilité de partager certains moyens entre plusieurs de ses clients.

Considérés sous ce seul angle, les services de « facilities management »


pourraient difficilement trouver une justification économique, et les mêmes raisons qui
ont conduit à la disparition du service bureau devraient en limiter le marché à des niches
extrêmement étroites. Mais le « facilities management » peut également se présenter
comme une tentative de réintégrer en une prestation globale non seulement les services
d’exploitation, mais aussi des services de nature différente comme le développement de
logiciel, la maintenance, l’aide à l’exploitation, etc. Pour cette raison, nous différerons
la discussion sur ces formes de service, qui font l’objet de vives controverses, pour y
revenir après avoir examiné les services de support.

Les services de support

Après la quasi-disparition des services de traitement, les services en informatique


sont pour l’essentiel des services dits « intellectuels » : conseil, assistance, formation,
développement de logiciel, ingénierie de systèmes, intégration de systèmes. Rappelons
que le présent chapitre se limite aux services utilisés pour la mise en œuvre de systèmes
informatiques, à l’exclusion des services applicatifs informatisés.

Les grandes entreprises spécialisées dans le service, comme d’ailleurs les


constructeurs de matériel présents dans ce secteur, ont cherché à offrir toutes ces
prestations ou à évoluer de l’une à l’autre en réponse aux demandes du marché. Or
même les formes de services « intellectuels » présentent entre elles suffisamment de
différences pour exiger des structures, des systèmes de management et des cultures
d’entreprise différentes. De plus, la nature même des activités de services met
l’ensemble de l’entreprise au contact direct du marché et rend sa performance

cclxx
étroitement dépendante de l’adéquation de sa personnalité d’entreprise aux attentes du
marché.

Les différences culturelles prennent donc une importance plus grande que pour
des activités de production classique où l’appareil de production est isolé du marché.
Elles expliquent les difficultés que rencontrent les entreprises qui cherchent à faire
coexister des activités de nature différente, où à entreprendre des activités nouvelles
étrangères à leur personnalité de base. Elles contribuent à structurer le domaine des
services en secteurs distincts entre lesquels il est difficile d’évoluer, et à dessiner
l’évolution probable du secteur.

Nous avons présenté au chapitre 9 les racines de ces problèmes de compatibilité.


Examinons-les plus en détail sur les exemples caractéristiques de l’assistance technique
d’une part, du développement d’autre part.

Caractéristiques et économie

Pour le développement comme pour l’assistance, les coûts de production sont


constitués presque exclusivement de coûts de personnel ou de coûts directement liés au
personnel (locaux, équipement individuel, fournitures, …). Les investissements sont
faibles et peuvent pratiquement être réduits à zéro grâce à des formules de location pour
les locaux et les équipements. Les obstacles à l’entrée se limitent à l’acquisition
individuelle des compétences nécessaires, il est possible à une petite entreprise d’être
compétitive, et les économies d'échelle potentielles sont limitées. On a donc affaire à
des secteurs dispersés où il faut s’attendre à des marges faibles.

Les activités de conseil s’assimilent à l’assistance en termes de structures de


production. La différence fondamentale entre assistance et conseil d’une part,
développement de logiciel, ingénierie de systèmes, et intégration de systèmes d’autre
part réside dans la nature des engagements contractuels pris par le prestataire :
engagement de moyens dans le premier cas, engagement de résultats dans le second.

L’ingénierie de systèmes diffère du développement de logiciel par le fait qu’elle


aboutit à la fourniture d’un système complet comprenant du matériel, et est
communément appelée « intégration de systèmes » si le matériel comprend des
éléments hétérogènes en provenance de constructeurs différents. Mais nous verrons que
ces activités ne sont pas fondamentalement différentes au plan des personnalités
d’entreprise.

L’assistance technique se résume à mettre à la disposition du client des personnes


possédant la compétence souhaitée. Ces personnes sont intégrées dans les équipes du
client qui assume la direction de leur travail. La prestation est facturée
proportionnellement au temps passé selon un tarif horaire lié au niveau de compétence.
Autrement dit, les recettes du prestataire sont directement proportionnelles au temps
passé par chacun des intervenants, quels que soient la nature, la qualité et les résultats
de leur travail. Dans le cas du développement au contraire, la facturation est assise sur
l’obtention de résultats spécifiés dans le contrat, le plus souvent indépendamment de
l’effort réellement dépensé pour les atteindre.

cclxxi
Il en découle que les tactiques et les stratégies qui doivent être adoptées pour
réussir face à la concurrence sont radicalement différentes pour les deux catégories de
prestations, ainsi que les organisations et les cultures d’entreprise qui doivent être
implantées pour sous-tendre ces stratégies.

L’activité d’assistance peut opérer à très petite échelle, même celle de l’individu
isolé. La structure de ce secteur est donc extrêmement dispersée et le jeu de la
concurrence se rapproche du modèle « pur et parfait ». En particulier, les prix de marché
résultent de la confrontation de l’offre globale et de la demande globale et s’imposent à
chaque offreur. De plus, la nature même de l’activité impose une proximité physique
entre les fournisseurs et leurs clients. Toutes les firmes en concurrence sur un marché
donné opèrent donc dans la même région et supportent des coûts de personnel
identiques. Des firmes compétitives, c’est à dire qui respectent une même rigueur de
gestion, sont amenées à pratiquer des tarifs presque identiques et ne peuvent donc guère
se différencier que par les compétences individuelles de leurs collaborateurs. Exploiter
une telle différenciation peut supposer que l’entreprise choisisse un créneau particulier
pour s’y spécialiser afin de bénéficier d’effets d’apprentissage. En tout état de cause, les
firmes même efficaces ne réaliseront que des marges faibles dont elles peuvent limiter
les variations à l'intérieur d'une fourchette étroite en gérant convenablement leurs
ressources en personnel.

Dans le cas de l’assistance technique, la seule tactique consiste à maximiser le


temps facturé pour chaque personne et à réduire au minimum les effectifs
« improductifs » comme l’encadrement et l’administration. Au plan stratégique, il faut
prévoir correctement la demande future probable et lui ajuster les effectifs en nombre,
en compétence et en qualité. Cette prévision peut être facilitée si l’entreprise se limite à
un créneau particulier. De toute façon, une erreur éventuelle peut être corrigée assez
rapidement si l’entreprise conserve une souplesse suffisante dans la gestion de ses
effectifs. Le cycle de fonctionnement de l’activité d’assistance est donc court.

Dans l’activité de développement, il faut d’abord gagner des affaires en proposant


une offre plus attractive que celle des concurrents, puis satisfaire les engagements
contractuels sans dépasser les coûts prévus. En règle générale, le client pose un
problème pour lequel l’offreur doit proposer une solution technique dont il estime les
coûts et les performances, et un projet de réalisation dont il estime les coûts et les délais.
Par cette proposition, l’offreur s’engage à atteindre certains résultats explicitement
spécifiés dans des délais et pour un prix qui peuvent être soit estimatifs et sujets à
révision selon des procédures contractuelles, soit fixés de façon définitive par le contrat.
Le client choisit son fournisseur en comparant les propositions concurrentes, ce qui
poussera souvent à proposer un service maximum pour un prix minimum, surtout si le
client est une administration où le contrat est adjugé au moins disant.

Une fois le contrat obtenu, le revenu repose sur le respect des engagements et sur
les résultats obtenus, tandis que les coûts dépendent des ressources réellement
consommées pour atteindre ces résultats. Obtenir en fin de compte que le solde des deux
fasse ressortir un profit positif exige de grandes compétences à la fois en conception de
systèmes informatiques, en estimation de projets, et en conduite de chantiers.

cclxxii
Toutes ces compétences sont normalement le fruit de l’expérience, mais elles
doivent souvent être acquises et entretenues au prix d’investissements spécifiques. Ces
investissements peuvent impliquer l’acquisition ou le développement de matériels ou de
logiciels qui incarneront cette compétence et autoriseront à présenter des propositions
plus attractives et plus crédibles que la concurrence. Les obstacles à l’entrée sont donc
plus sérieux que pour la simple assistance.

La préparation des propositions exige elle-même un travail non négligeable, qui


peut devenir important dans le cas de problèmes complexes. Les dépenses
correspondantes doivent bien entendu être engagées par l’entreprise avant de savoir si la
proposition sera acceptée, et constituent donc un investissement au plein sens du mot,
qui doit être financé par la facturation des affaires effectivement réalisées.

Enfin, les nombreux facteurs d’incertitude font peser un risque sur la profitabilité
de chaque projet, qui ne peut être supporté que par des entreprises de taille suffisante
pour absorber les échecs éventuels en mutualisant ces risques sur l’ensemble de leur
activité. Au total, le secteur du développement, et a fortiori de l’intégration de systèmes,
est un secteur plus concentré où la taille représente un avantage concurrentiel. En
revanche, la probabilité statistique d’échec ou de réussite de chacun des projets
maintient la profitabilité moyenne probable du secteur au même niveau modeste que
pour l’assistance, avec toutefois une plage de variation plus ouverte allant de la faillite
rapide pour les uns à l’espoir de marges confortables pour les firmes les plus
compétentes ou les plus chanceuses.

La relation client-fournisseur

Nous avons vu au chapitre 11 que les modalités de la relation client-fournisseur


constituent l’une des dimensions suivant lesquelles les services se distinguent des
produits, et les divers types de services entre eux. Les prestations d’assistance
représentent un service typique dans la mesure où elles consistent simplement à mettre
une ressource de production à la disposition du client sans aucun engagement de
résultat, et pour une facturation proportionnelle au temps de mise à disposition.

Au contraire, un contrat de développement ou d’intégration repose sur la


définition du résultat recherché, et prévoit le transfert définitif au client d’un bien dont
la définition a été négociée entre lui et le prestataire. Cette définition pourrait en
principe servir de base à l’établissement d’un prix convenu d’avance et transférer au
prestataire les risques positifs et négatifs liés à la bonne fin du projet. La concurrence
entre offreurs porterait alors d’une part sur le prix proposé, au moment de la lutte pour
l’obtention de contrats, et d’autre part sur la gestion des projets, pour assurer la
profitabilité et donc la survie de l’entreprise. Or la réalité est moins simple, et ce type de
contrats forfaitaires est loin d’être la pratique courante du secteur.

La réalisation d’un projet de développement informatique de quelque envergure,


et a fortiori d’un projet d’intégration de systèmes, peut durer plusieurs années au cours
desquelles il faut répondre de façon concrète à une multitude de questions qui n’avaient
pas été traitées au moment de la conception d’ensemble. Chacune de ces décisions
pratiques peut avoir des conséquences importantes en termes d’utilité, de facilité

cclxxiii
d’emploi, de fiabilité, de performances ou de coût d’utilisation pour le client, mais aussi
de coût et de délai de réalisation. De plus, la conception détaillée et la réalisation du
système font intervenir un nombre croissant de personnes qui étaient absentes de la
phase initiale de conception générale, qui ne se considèrent pas comme engagées par les
spécifications et le contrat d’origine et dont les desiderata peuvent d’autant moins être
ignorés qu’il s’agit en particulier des véritables utilisateurs du système.

Beaucoup ont cru, et certains croient encore, que la solution consiste à pousser
l’étude initiale suffisamment loin pour que toutes les décisions de réalisation
susceptibles d’avoir une incidence sur le coût ou les délais aient été prises avant la
signature du contrat. Cette approche est doublement illusoire : elle entraîne des délais et
des coûts prohibitifs pour l’étude préliminaire et risque de ce fait de conduire à
l’élimination des offreurs les plus honnêtes. De plus, les conclusions d’une telle étude
seront de toute façon remises en question. D’une part l’environnement évolue pendant
le projet, et avec lui les besoins fonctionnels, les moyens et les technologies disponibles
et les idées de solution. D’autre part les utilisateurs ne peuvent souvent pas expliciter
leurs demandes au niveau de détail nécessaire avant d’avoir vu une première réalisation,
qui provoquera tout à fait légitimement des demandes nouvelles ou des modifications
par rapport aux demandes précédentes. La nature même des applications informatiques
veut que la complexité du produit final interdise toute spécification exhaustive et fiable
a priori, et que les besoins réels ne se révèlent que progressivement dans le cours même
du développement.

Dans ces conditions, mettre en place des dispositions visant à empêcher toute
déviation par rapport aux spécifications initiales, quelle que soit la qualité de celles-ci,
ne peut aboutit qu’à un produit final inadapté aux besoins réels et aux préférences de ses
utilisateurs et donc voué à un échec certain. Il faut accepter l’idée que la définition du
système ne peut être que progressive et qu’il n’existe pas de moyen de déterminer
d’avance avec certitude les coûts et les délais. La proposition initiale ne peut être
qu’indicative et le contrat doit être conçu avant tout comme un cadre pour
l’établissement progressif des spécifications réelles et des avenants financiers.

Pour les sociétés de service, il ne suffit plus d’ajuster correctement les moyens à la
demande probable en réduisant au minimum les effectifs « non-productifs » par nature
ou par défaut de charge, tout en faisant preuve de modération dans les coûts de
personnel. Il faut en plus estimer les coûts des projets de façon raisonnable non
seulement lors de la proposition initiale, mais aussi tout au long de leur vie en fonctions
d’attentes changeantes du client. Il faut aussi savoir négocier l’ajustement réciproque
des coûts contractuels et des spécifications, tout en respectant les engagements pris tant
envers le client sur les résultats qu’envers l’entreprise sur les coûts, et ne pas être amené
à fournir une prestation étendue sans facturation supplémentaire. La profitabilité finale
d’une affaire dépendra donc à la fois des compétences de l’entreprise dans les domaines
de l’estimation et de la gestion de projets, de la bonne affectation des personnes au
projet, de leur savoir-faire technologique et de leur productivité.

Cette situation est génératrice de conflits entre le client et le fournisseur, mais


également entre motivations différentes à l’intérieur même de l’organisation cliente.
Toutes les modifications de la demande qui interviennent dans la vie du projet doivent
faire l’objet d’un arbitrage entre leur coût et leur intérêt afin de décider de la suite à leur

cclxxiv
donner. Or seul le client peut valablement prendre cette décision puisque c’est lui qui en
reçoit in fine le bénéfice et doit donc en supporter le coût. Il conserve ainsi une
responsabilité importante de maîtrise d’ouvrage quels que soient les termes du contrat.
Mais si le client n’est pas préparé à exercer cette responsabilité dont il a cru se
décharger sur son fournisseur, ou si le conflit d’intérêts interne est trop vif, la tentation
est grande de l’évacuer en rejetant la responsabilité sur le fournisseur.

Dans leur ensemble, ni les clients ni les prestataires ne savent vraiment concilier
la réalité de situations où le projet réel se définit en cours de réalisation avec les cadres
contractuels applicables à d’autres formes de réalisation. Les sociétés de service qui
s’engagent sérieusement dans cette voie apprennent assez vite qu’une gestion évolutive
des spécifications et du contrat est la seule approche réaliste, mais il leur est difficile de
présenter sur cette base des offres compétitives. Pour ne pas perdre systématiquement
les affaires, elles doivent s’aligner sur les pratiques de leurs concurrents moins
expérimentés ou moins scrupuleux. Au total, le marché n’est pas mûr pour des offres de
développement au forfait et continue à chercher des voies de solution à ce problème.

Structure et système de management

Dans l’activité d’assistance technique, chaque individu est facturé


indépendamment des autres et constitue donc l’unité de base de la gestion (la « business
unit »). Il existe d’ailleurs dans ce secteur un grand nombre de travailleurs indépendants
et de micro-entreprises qui fonctionnent de fait comme des associations de quelques
travailleurs indépendants. Dans les entreprises assez importantes pour justifier une
véritable organisation hiérarchique, seules quelques tâches administratives et
commerciales sont centralisées au niveau de l’encadrement de chaque équipe ou à celui
de l’entreprise tout entière. Pour l’essentiel chacun gère ses propres activités, et
l’encadrement n’intervient qu’en cas de problème, par exemple de rupture de charge.

Chaque équipe de base regroupe une certaine panoplie de compétences


généralement adaptée aux besoins d’un groupe de clients. La base de la différenciation
est donc à la fois la spécialisation des compétences et la structure du marché. A
l’intérieur de chaque équipe, chacun se vend aussi bien qu’il produit. L’activité
commerciale est indistincte de l’activité de production, même si elle est un peu plus
importante chez les chefs de groupe. Mais le rôle spécifique de ces derniers est
essentiellement administratif et ils n’ont aucune part à la définition et à l’affectation des
tâches des personnes qui leur sont rattachées. De la même façon, les services centraux
de l’entreprise sont réduits au minimum. Tous y compris les dirigeants rejettent les
structures centrales « improductives », et chaque unité a le sentiment qu'elle
fonctionnerait mieux seule.

La gestion opérationnelle se réduit à vérifier que tous les collaborateurs sont


engagés dans des activités facturées au tarif normal, et que l’ensemble dégage une
marge positive. A chaque unité de quelque niveau qu’elle soit, voire à chaque individu,
peut être valablement associé un compte d’exploitation homologue à celui d’une
entreprise. Le système de gestion le plus efficace consiste à décentraliser au maximum
tous les actes de gestion courante tout en suivant au jour le jour le compte d'exploitation
de chaque unité. Au total, l'entreprise fonctionne comme un conglomérat de petites

cclxxv
unités autonomes, chacune gérant son propre compte d'exploitation comparable à celui
d’une entreprise indépendante et homogène à celui de l'entreprise tout entière.

Dans une entreprise qui se consacre entièrement à l’assistance, le rôle de la


Direction n’est pas fondamentalement différent de celui de l’encadrement intermédiaire.
La structure même de l’entreprise est stable et les dirigeants n’ont pas à régler de
problèmes d’organisation. L’ajustement des ressources à l’orientation du marché peut
largement être décentralisé au niveau des unités de base, qui ont tout intérêt à rester en
phase avec les besoins prévisibles de leurs clients. A cause de l’ambiguïté de
l’organisation, la Direction peut avoir à intervenir dans des conflits potentiels entre
unités, soit lorsque l’une d’entre elles cherche à vendre ses compétences à des clients
traditionnels d’une autre, soit au contraire lorsqu’elle doit faire appel à d’autres unités
pour satisfaire certains besoins de ses clients. Au total, pour reprendre les concepts que
nous avons présentés dans le chapitre 9, la firme d’assistance se caractérise par une
organisation homogène à tous les niveaux, très peu différenciée et donc peu intégrée.

Pour l’activité de développement ou d’intégration, l’unité de gestion est le projet


et non plus l’individu. Ceci impose une structure beaucoup plus complexe que pour
l’assistance.

Tout d’abord, l’activité commerciale et l’activité de réalisation sont beaucoup plus


distinctes. Alors que la réalisation peut mettre en jeu un grand nombre de personnes de
qualifications très diverses sur une longue durée, la préparation d’une proposition et la
vente proprement dite font intervenir un nombre limité de personnes, généralement de
plus grande compétence et expérience, pendant un temps relativement bref. De plus, les
propositions ne sont pas toutes suivies d’une commande et de la mise en place du projet
de réalisation, si bien que l’activité commerciale doit pouvoir être menée dans une
structure différente de la structure de réalisation des projets.

Quand une proposition est couronnée de succès et que la réalisation est lancée,
l’équipe de réalisation doit être composée selon les besoins spécifiques du projet et peut
varier au cours du temps. Les personnes nécessaires doivent pouvoir être puisées dans
un réservoir de compétences et y retourner quand leur participation au projet est
terminée. Certaines ressources (compétences ou autres moyens) peuvent être partagées
entre plusieurs projets et donc appartenir à des unités de support distinctes des projets.
La structure de l’entreprise doit donc faire coexister une structure de projets, variable au
cours du temps selon les projets en cours et leur degré d’avancement, et une structure de
centres de ressources qui représente la permanence de l’entreprise et le rattachement de
base des personnes. De plus, il est courant que les projets en cours de réalisation et les
projets en phase de proposition commerciale soient traités dans deux structures
différentes. Enfin, le besoin de compétences critiques, de savoir-faire particuliers ou
d’investissements d’utilité générale peut justifier l’existence de services de support
centralisés.

La gestion opérationnelle doit viser simultanément plusieurs objectifs : au niveau


de chaque projet en cours de réalisation, respecter les engagements pris envers le client,
qu’il s’agisse des fonctions ou des performances du système, des délais de réalisation ou
des coûts induits pour l’utilisateur, et par ailleurs maintenir la consommation de
ressources dans le cadre des estimations qui ont servi à la fixation du prix. Au niveau de

cclxxvi
l’ensemble de l’entreprise, l’objectif est d’assurer le plein emploi des ressources en les
affectant judicieusement aux projets et en disposant d’un volant de propositions en
cours cohérent avec la disponibilité actuelle et prévue des ressources. Le système
d’information doit donc porter aussi bien sur l’avancement des réalisations et la
probabilité d’atteindre les objectifs techniques et de respecter les délais que sur la
comptabilisation des ressources consommées, l’identification des ressources disponibles
et le suivi des propositions en cours.

Contrairement à l’entreprise d’assistance où le rôle de l’encadrement est de même


nature dans tous les postes et à tous les niveaux, les unités et donc leurs responsables
jouent ici des rôles différenciés qui supposent un dispositif et des efforts d’intégration
aux niveaux supérieurs. Aux niveaux le plus bas, les tâches, les ressources et les délais
sont définis et le responsable doit faire en sorte que les tâches assignées soient exécutées
dans les délais avec les moyens affectés. Le chef de projet, quant à lui, a pour
responsabilité principale d’affecter correctement les tâches et les ressources de façon à
atteindre les résultats contractuels dans les délais et au moindre coût, et cela de façon
dynamique selon la situation réelle du projet. Le rôle de ces responsables d’exécution
est donc principalement technique. Les rôles commercial et administratif qu’ils jouent
dans les relations respectives avec le client et le reste de l’entreprise sont assis sur ce
rôle technique.

Dans l’entreprise d’assistance, aucun exécutant n’est amené à prendre


d’engagements importants au nom de toute l’entreprise. Dans le développement au
contraire, chaque individu peut engager lourdement toute l’entreprise, par exemple en
concevant une architecture de système ou en chiffrant le coût et le délai d’une
réalisation. A cause de leurs conséquences potentielles pour l’entreprise tout entière,
certaines de ces décisions devront être réservées au niveau de responsabilité approprié,
ce qui suppose un système explicite de limitations et de délégation de pouvoir, complété
par un système de contrôle et d’approbation formalisé. Chaque échelon de la hiérarchie
n’est plus libre de ses décisions, mais doit solliciter des approbations et se soumettre à
des contrôles extérieurs qui amènent souvent les Dirigeants à intervenir dans le détail
des affaires.

L’intervention directe des échelons supérieurs et des dirigeants est également


nécessaire pour apprécier les risques commerciaux et techniques pris dans les
propositions, pour arbitrer les conflits entre unités dans l’affectation des ressources, et
pour gérer les désaccords avec les clients. Pour la direction de l’entreprise, ces
responsabilités opérationnelles s’ajoutent à ses responsabilités stratégiques.

Au total, la firme de développement ou d’intégration possède une organisation


différenciée au sens de Lawrence et Lorsch , qui nécessite des mécanismes
57

d’intégration assez forts.

Valeurs et culture

Dans les entreprises de services à forte composante humaine, chaque


collaborateur intervient dans la relation avec le client et contribue donc à l’image de

57 voir Chapitre 9

cclxxvii
l’entreprise. De plus, chacun des collaborateurs, même à des échelons modestes, est à
l’origine de décisions vitales pour le succès de l’entreprise, pour lesquelles il est seul à
détenir l’information ou la compétence nécessaires. Enfin, il opère souvent loin du
cadre de son entreprise, sans supervision étroite ni en sens inverse possibilité de recours
à son encadrement en cas de difficulté. Chaque collaborateur doit donc régler son
comportement personnel sur un certain nombre de normes, de principes et de valeurs
qui constituent la culture de l’entreprise.

Pour l’assistance technique, l’objectif de chacun doit être de posséder des


compétences suffisamment reconnues pour faire l’objet d’une forte demande du marché,
donc être vendues à un prix élevé et en grande quantité. La réussite est mesurée
directement par le pourcentage de temps facturé, qui résume le jugement des clients sur
l’adéquation des compétences, l’utilité et la qualité du travail fourni. Mais ces derniers
critères ne sont pas des objectifs indépendants ou des valeurs en soi. A la limite, peu
importe que le travail soit inutile, de mauvaise qualité ou médiocrement productif tant
que le client paie de bonne grâce. Il est recommandé de rester le plus longtemps
possible chez chaque client, ce qui suffit à prouver l’utilité du travail et la satisfaction
du client, tout en évitant les temps morts non facturés et les frais commerciaux de
recherche de nouveaux contrats. Chacun s’attachera donc à susciter de nouveaux
besoins qui justifient de prolonger son séjour. Le temps passé est une valeur positive, et
doit être maximisé.

Dans l’assistance technique, chaque employé est détaché auprès d’un client et
intégré à une des ses équipes. Par rapport à l’entreprise à laquelle il appartient, il
travaille de façon individuelle et n’a que peu de relations professionnelles avec ses
collègues dont il ne se sent pas fortement solidaire. La culture dominante de la firme est
individualiste. Tout au plus chaque individu se sent-il proche de la petite équipe dont il
fait partie, mais à son tour cette équipe et son chef se sentent et se veulent indépendants
et ressentent plus l’entreprise comme une source de contraintes et de servitudes que
comme un environnement favorable. En revanche, la notion de compte d’exploitation et
le souci de l’équilibrer sont communs à tous. Bien que l’identification à l’entreprise soit
faible, la culture est homogène dans toute l'entreprise.

Il peut arriver que l’employé d’une entreprise d’assistance technique s’identifie à


son client plutôt qu'à l'entreprise qui l’emploie, ce qui peut créer un risque potentiel sur
la gestion du temps et sur la facturation. Ce lien très lâche entre la firme et ses employés
entraîne une faible fidélité et une mobilité importante du personnel. A l’inverse, aucun
des individus n’est critique pour l’entreprise et leur fidélité n’est pas vitale. L’entreprise
peut sans grand risque adopter une politique sociale et une gestion du personnel très
contraignantes afin de conserver des prix de revient modérés et la souplesse nécessaire
dans la gestion des effectifs.

Dans le développement, les tâches de chacun sont affectées et contrôlées par un


supérieur hiérarchique appartenant à l’entreprise, et le travail a souvent lieu dans les
locaux de l’entreprise. Chacun est jugé par ses patrons et non par le client, sur ses
résultats et non sur sa compétence. Contrairement au cas de l’assistance, l’appartenance
à l’entreprise est opérationnelle et sans équivoque. L’activité peut s’accommoder d’une
autonomie moindre que pour l’assistance technique, mais en contrepartie les décisions
individuelles sont plus complexes et d’une portée plus générale.

cclxxviii
L’activité de réalisation occupe la majorité des collaborateurs de l’entreprise et en
détermine la culture de base, d’autant plus que l’activité commerciale repose sur une
forte compétence en réalisation et que les personnes qui en sont chargées sont issues de
la réalisation et y restent la plupart du temps impliquées. L’objectif de chacun est
d’accomplir les tâches qui lui sont confiées aussi rapidement que possible et aux
moindres frais tout en respectant les objectifs de fonctionnalité et de qualité.
Contrairement au cas de l’assistance, le temps passé doit être minimisé et constitue donc
une valeur négative. Quand une extension semble souhaitable ou est demandée par le
client, il faut savoir refuser de s’y engager sans que soit proposée et acceptée une
extension correspondante du contrat.

Le développement est un travail d’équipe qui nécessite un esprit d’équipe d’autant


plus fort que les rôles de chacun sont différenciés. Cet esprit d’équipe doit également
accepter les contraintes extérieures, les contrôles et les jugements dont nous avons vu
plus haut la nécessité et l’importance. Enfin, la solidarité avec le projet doit se doubler
d’une identification à l’entreprise suffisamment forte pour accepter des affectations et
des rattachements variables dans le temps, et qui peuvent demander une certaine
mobilité physique.

Parmi les conflits d’intérêts inhérents à l’activité de développement, l’un des plus
cruciaux concerne l’activité commerciale. Pour gagner un contrat en situation
concurrentielle, il faut promettre beaucoup pour le prix le plus faible possible, et donc
souvent prendre le risque que le coût de réalisation dépasse le coût prévu et ne laisse
aucune marge à l’entreprise. A l’inverse, ne pas prendre ce risque peut avoir pour
conséquence la perte du contrat et donc un effet encore plus négatif sur le profit.
L’activité commerciale liée au développement nécessite donc un rare sens des affaires et
une grande maturité. D’une certaine façon, les qualités qui sont nécessaires pour réussir
dans l’exécution d’un projet (lucidité, prudence, honnêteté, ...) sont autant de raisons
potentielles de ne pas emporter les contrats.

En même temps, des solutions originales dans la conception des systèmes ou dans
les méthodes de réalisation peuvent constituer un avantage concurrentiel déterminant. A
côté du réalisme dans les estimations et de la rigueur dans la gestion, il convient donc de
favoriser également la créativité dans la définition des solutions.

Le panorama des années 90

Les pièges de l’évolution

Avec le déclin du service bureau, l’assistance technique est devenue la modalité


principale du service informatique. Jusqu'aux années 90, ce secteur se développera
rapidement en profitant en particulier de la pénurie de personnel compétent.

Un certain nombre d’entreprises se rapprochent du progiciel en essayant de


réutiliser des programmes écrits antérieurement pour d’autres clients, et en construisant
une partie de leur publicité et de leur réputation sur ces développements antérieurs,
présentés comme des progiciels. En réalité, ces programmes ou morceaux de
programmes ont été réalisés de façon spécifique pour des clients particuliers et sont le

cclxxix
plus souvent inutilisables pour d’autres clients sans des adaptations considérables. Ils
témoignent d’une compétence réelle dans le secteur d’applications concerné, peuvent
permettre des économies de développement et donc autoriser des estimations plus
attractives pour le client. Mais en règle générale, le logiciel existant n’est que le prétexte
à la facturation de développements spécifiques et son rôle principal est de procurer un
avantage concurrentiel dans la vente de prestations d’assistance.

Pour aller plus loin, il faudrait que l’entreprise se dote d’une organisation adaptée
au métier radicalement différent du progiciel, qui exige des investissements, qui
fonctionne selon un cycle long et doit commercialiser des produits. Même réduite au
départ, cette organisation devrait être adaptée aux cycles longs, c’est à dire être
différenciée sur une base fonctionnelle et dotée des mécanismes d’intégration
appropriés. De plus, la culture dominante dans cette organisation devrait être
radicalement différente de celle du reste de l’entreprise : valoriser la vision à long terme
plutôt que la rentabilité immédiate, la persévérance plutôt que la rapidité de réaction, et
surtout se fixer pour objectif de minimiser le besoin d’assistance lié à la mise en œuvre
des produits au lieu de la maximiser.

Une autre voie où s’engagent de nombreuses firmes de service est celui des
systèmes « clés en mains », aussi appelés « ingénierie de solutions ». Cette prestation
consiste à proposer, pour une application donnée, une solution complète comprenant à
la fois le matériel, le logiciel et l’assistance nécessaire. En ce qui concerne le logiciel et
l’assistance, cette forme de prestation pose les mêmes problèmes que le pseudo-
progiciel que nous venons d’évoquer, mais l’inclusion du matériel ajoute un piège
subtil. En effet, les constructeurs de matériel sont à juste titre intéressés et offrent des
conditions préférentielles aux firmes de service qui deviennent ainsi leurs revendeurs.
La réduction que consentent les constructeurs sur l’achat du matériel est généralement
supérieure à la marge réalisée sur la partie services, si bien que l’offreur de systèmes
« clés en mains » est tenté de donner la priorité à la revente du matériel, en oubliant de
gagner sa vie sur la part de services. Au pire, la société de services risque de se
transformer en détaillant de matériel et de fournir à perte ses prestations propres, tout en
négligeant souvent les activités associées au matériel telles que la logistique
d’approvisionnement, la maintenance, etc. Une telle politique devient catastrophique
quand la marge sur le matériel se réduit ou quand les clients préfèrent acheter le
matériel séparément.

D’une façon analogue, certaines entreprises tentent de répondre à la demande des


clients qui souhaitent sous-traiter des projets complets sur la base d’engagements de
résultats. Mais là encore, comme nous l’avons vu plus haut dans ce chapitre, réussir
dans cette activité exige des compétences, une organisation et une culture très
différentes de celles qui conviennent à l’assistance. Il faut non seulement disposer de
chefs de projets compétents, mais leur transférer une part importante du pouvoir au
détriment des chefs de groupe traditionnels, insuffler à l’entreprise une culture de
coopération dont elle était jusque là totalement dépourvue, transformer les motivations
des exécutants et trouver un nouvel équilibre entre centralisation et délégation. Les
dirigeants doivent pouvoir s’impliquer personnellement dans le contrôle commercial et
technique des affaires, ce à quoi ils ne sont pas préparés et dont ils sont le plus souvent
incapables.

cclxxx
Ces exemples illustrent l’importance des facteurs organisationnels et culturels
dans la réussite ou l’échec en matière de services. Pour l’entreprise d’assistance, réussir
dans le progiciel ou le développement impose de mettre en place quelque part dans
l’entreprise une organisation et une culture étrangères, que le reste de l’entreprise et
singulièrement sa Direction auront d’autant plus de mal à tolérer que la structure et la
culture sont par ailleurs homogènes.

Entreprendre cette greffe exigerait une clairvoyance exceptionnelle de la Direction


quant aux conditions de réussite, et lui permettre de survivre le temps nécessaire
exigerait une volonté opiniâtre. Or, quand un dirigeant a réussi dans un certain type
d’activités, il est bien rare qu’il admette que des activités nouvelles exigent une
organisation et un management différents ce qui lui a permis de réussir jusque là. Tous
croient avoir trouvé la clef du management, sans comprendre que leur clef n’ouvre que
certaines serrures, et sans imaginer que tenter d’utiliser leur clef habituelle dans d’autres
serrures ne peut aboutir qu’à fracturer l’une ou l’autre.

Pour toutes ces raisons, et malgré leur discours promotionnel, les sociétés de
services sont généralement réticentes à sortir de leurs activités traditionnelles
d’assistance pour s’engager véritablement dans des activités qui exigent une plus forte
prise de responsabilité. Le plus souvent, elles en méconnaissent ou sous-estiment les
conditions de réussite, et donc échouent, ou bien elles se contentent de déguiser leurs
prestations classiques sous le vocabulaire d’activités nouvelles. C’est pourquoi aucune
société de services n’a jamais joué un rôle important dans le secteur du progiciel, et
pourquoi rares sont les entreprises qui travaillent réellement sur la base de contrats de
résultats forfaitaires.

La demande de services de support

Une croyance répandue et persistante est que le besoin de services de support


augmente inéluctablement. Cette idée repose sur l’hypothèse implicite que les services
nécessaires à la mise en œuvre d’une capacité informatique donnée resteraient à peu
près constants dans le temps. Le besoin de services serait alors proportionnel à la
puissance installée et croîtrait donc beaucoup plus vite que les dépenses en matériel,
alors même que les nouveaux produits et les nouveaux usages font apparaître de
nouveaux besoins de support. Parallèlement, la capacité des utilisateurs à assurer eux-
mêmes les tâches correspondantes sur le mode du « self-service » deviendrait de plus en
plus insuffisante, ce qui provoquerait une explosion du marché des services.

Il se trouve que si ce raisonnement est aussi ancien que l’informatique elle-même,


ses conséquences annoncées n’ont jamais été constatées. En 1972, alors qu’IBM lançait
son projet « Future Systems », les coûts informatiques des entreprises se répartissaient
en 40% pour le matériel, 40% pour le personnel et 20% pour les divers autres postes, ce
qui n’était pas sensiblement différent de la répartition des années 60. Compte-tenu de
ses projets pour le matériel, IBM prévoyait alors qu’en l’absence de changements
radicaux dans les méthodes et les moyens de développement et d’exploitation, la part
des dépenses du marché consacrée au matériel tendrait vers zéro et la part personnel
deviendrait prépondérante, induisant une forte demande de services mais aussi une
restriction sévère des revenus des fournisseurs de matériel.

cclxxxi
IBM, et à sa suite tous les constructeurs, entreprirent alors des développements
visant à automatiser ou à alléger les tâches du personnel en les reportant partiellement
sur le matériel, principalement à travers des logiciels appropriés : aides à la
programmation, aides à l’installation, aides à l’exploitation, etc. Même si le projet FS
n’a jamais vu le jour, cette politique a porté ses fruits puisque plus de vingt ans plus
tard, la répartition des dépenses informatiques est toujours à peu près la même alors que
la puissance installée est considérablement plus élevée. Les besoins en personnel (ou en
prestation de service) nécessaires pour accompagner une puissance de traitement donnée
ont donc diminué à peu près dans les mêmes proportions.

Schématiquement, on assiste à une migration permanente de fonctions de support


depuis des services ad hoc vers des logiciels ou des produits spécifiques, puis souvent
vers des fonctions incorporées dans le produit même qu’il s’agit de supporter. Par
exemple, tous les grands progiciels pour micro-ordinateurs incorporent des moyens de
formation et d’aide à l’utilisation qui rendent inutile de suivre des cours, voire de lire la
documentation avant de commencer à les utiliser. Seuls les utilisateurs élevés dans la
tradition de la « grande » informatique demandent encore à suivre des cours ou lisent la
documentation ; les vrais utilisateurs d’informatique personnelle considéreraient cette
obligation comme rédhibitoire et jugent au contraire la qualité d’un produit à la
possibilité de l’utiliser sans formation préalable. L’explosion de l’informatique
personnelle n’a d’ailleurs pas entraîné une explosion parallèle de la demande de
services. L’utilisateur non-professionnel n’a pas besoin d’aide à l’exploitation, n’a pas
les moyens de s’offrir des développements spécifiques et s’attend donc à ce que les
produits qu’il achète soient directement utilisables. Il est probable que cette attitude se
généralisera à toute l’informatique en même temps que la culture micro-informatique
gagnera toute la société.

Le même processus est en cours dans d’autres domaines. Il est bien avancé pour le
développement de programmes avec la panoplie des outils de génie logiciel, qui se
perfectionne et s’enrichit pratiquement de jour en jour. Il est également en cours pour la
maintenance et la gestion des systèmes y compris les réseaux les plus complexes. Dans
une première étape apparaissent des aides informatiques à l’exécution de certaines
tâches, que ce soit par l’utilisateur ou sous forme de prestation de service, le plus
souvent sous la forme de progiciels innovants réalisés par des laboratoires universitaires
ou des petites entreprises du logiciel. A ces développements exploratoires succèdent des
produits industriels ou des services informatisés assurant le service, ou la reprise de ces
fonctions par des grands intégrateurs pour les incorporer dans leurs produits majeurs, ou
encore des modification de ces produits pour éliminer ou réduire le besoin de service,
par exemple en matière de formation ou de maintenance.

Cette démarche de « productisation » des services a été constamment suivie par


les constructeurs de produits, à l’origine dans le but d’éliminer des obstacles à la
diffusion des produits en les rendant plus conviviaux et plus intuitifs et en simplifiant
les tâches de mise en œuvre. Elle est accélérée par l’éclatement de l’industrie et ses
effets favorables sur l’innovation, et par la dynamique propre du secteur du progiciel,
qui d’une part autorise des innovations ponctuelles, et d’autre part permet à
l’enrichissement des produits et à l’accumulation d'expérience de se réaliser sans
supplément de prix au niveau du produit fini, pour autant que les volumes soient
suffisants. Elle répond de plus à la demande dominante du marché de la micro-

cclxxxii
informatique où les utilisateurs se débrouillent eux-mêmes par tradition, et dont
l’attitude se généralisera progressivement à toute l’informatique en même temps que les
structures et les pratiques du monde PC.

C’est ce phénomène qui, depuis l’origine de l’informatique, maintient les besoins


en personnel et en services à un niveau à peu près constant par rapport à la dépense
informatique totale, et qui a empêché l’explosion des services sempiternellement prévue
par les augures. Nous avons vu qu’il n’existe aucune raison de penser que ce
phénomène va s’arrêter dans les prochaines années, bien au contraire.

Les nouvelles demandes

A partir de 1990, la demande de services de support a été impactée négativement


par le ralentissement général de la croissance et par la démocratisation de la compétence
informatique. Dans la plupart des domaines de compétence, le personnel disponible est
devenu suffisant pour qu’à la situation de rareté sur laquelle les Sociétés de service
avaient prospéré succède une économie d’abondance favorable aux acheteurs et
entraînant une stagnation de la demande et une baisse des prix de marché. Cette
situation a été aggravée par l’irruption sur le marché des constructeurs traditionnels et
des collaborateurs dont ils se sont séparés.

L’activité dominante d’assistance technique, qui représente environ la moitié du


chiffre d’affaires des services en informatique (hors progiciels et maintenance), est une
activité à cycles courts. Les entreprises ont donc la possibilité d’ajuster rapidement leurs
effectifs et leurs dépenses à la demande, pour autant qu’elles soient autorisées à se
séparer des personnes dont la compétence est devenue obsolète, ou de leur trouver des
voies de reconversion. L’impact sur les profits peut donc être limité. De plus, le marché
reste demandeur de compétences spécifiques rares, et les entreprises qui en disposent
peuvent maintenir des taux d’activité et des profits supérieurs.

Le besoin du marché pour des services d’intégration croît de façon régulière avec
l’éclatement de l’industrie des matériels et des progiciels. Mais nous avons vu combien
il est difficile à ce besoin latent de se transformer en une demande solvable, et à l’offre
de répondre à cette demande de façon efficace et profitable. Malgré cela, on peut
s’attendre à de nombreuses tentatives et donc à de nombreux échecs dans ce secteur. Le
nombre de firmes effectivement et durablement présentes dans l’intégration de
systèmes, faible au départ, ne devrait pas croître très rapidement tans que le marché
n’aura pas atteint une maturité suffisante pour juger sainement la qualité d’une
proposition et accepter de rémunérer la responsabilité des fournisseurs à sa juste valeur.

En termes de structure industrielle, assistance et intégration restent deux secteurs


différents, même si certaines grandes firmes sont présentes dans les deux. L’assistance
s’accommode d’échelles de production très faibles et forme donc un secteur très
dispersé peuplé d’une multitude de petites entreprises. Comme nous l’avons vu,
l’intégration exige une taille d'entreprise supérieure et présente de nombreux et sévères
obstacles à l’entrée. C’est donc un secteur plus concentré, mais où les marges, qui
devraient théoriquement être supérieures, sont en pratique limitées par l’immaturité du
marché. C’est probablement ce qui explique l’évolution des plages de profitabilité que

cclxxxiii
nous avons présentée au début de ce chapitre. Sous l’effet de la récession, les minima
passent sous zéro, mais les maxima et les moyennes restent en gros au même niveau,
l’écart maximum restant relativement faible.

Même progressive, la montée en régime de l’intégration de systèmes a une


influence sur le secteur de l’assistance. Chaque projet d’intégration utilise une
combinaison de compétences diverses et différentes suivant les projets, que l’intégrateur
ne peut pas toutes posséder en permanence. Pour satisfaire ces besoins variables dans le
temps, il devra faire appel aux fournisseurs spécialisés que sont les firmes d’assistance.
Ses responsabilités d’intégrateur les conduiront à se montrer très exigeant sur le niveau
et la qualité. Il pourra de plus avoir tendance à préférer les petites entreprises très
spécialisées pour ne pas risquer de devoir partager son leadership avec un sous-traitant
trop puissant.

La coexistence avec un secteur d’intégration tend donc à conserver ou à accentuer


la fragmentation du secteur d’assistance en firmes spécialisées par domaine de
compétence ou d’applications, opérant dans des niches relativement étroites. En
revanche, si leurs compétences deviennent obsolètes, ces firmes spécialisées ne seront
pas toujours capables de se convertir à d’autres compétences. On peut donc s’attendre à
ce que l’évolution du secteur se fasse surtout par disparition d’entreprises et naissance
de nouvelles, plutôt que par évolution d’une population à peu près fixe.

A côté des prestations majeures traditionnelles que sont l’assistance, le


développement de logiciel et l’intégration de systèmes, et des prestations en voie de
disparition que sont le traitement partagé et les systèmes « clés en mains », on a vu
récemment apparaître et prospérer de nouvelles offres de « facilities management » ou
« infogérance » dans lesquelles le prestataire assure des responsabilités d’exploitation.

L’offre introduite au départ par la firme américaine EDS consiste pour le


prestataire à reprendre la totalité de l’informatique du client pour une durée
indéterminée. La société de services rachète au client les matériels installés, embauche
son personnel et s’engage à fournir un niveau de service spécifié par contrat moyennant
une redevance périodique forfaitaire. Présentée comme une voie d’évolution naturelle,
avantageuse pour le client et inéluctable à terme, cette forme d’infogérance globale est
restée à ce jour limitée à un petit nombre de cas spectaculaires et fortement médiatisés,
mais n’a pas connu le développement annoncé.

On a vu apparaître en son lieu et place toute une gamme de prestations moins


radicales, comme l’infogérance dite « de transition » parce que de durée limitée, ou
l’infogérance partielle limitée à l’exploitation du site central ou du réseau, ou encore de
simples services de support à l’exploitation comme la gestion de parc ou la maintenance
des applications. Conçue à l’origine comme une tentative de réintégration de prestations
éclatées en une offre unique, l’infogérance suit déjà la dynamique d’éclatement et de
spécialisation qui domine toute l’industrie informatique.

La définition de l’infogérance devient de plus en plus floue au fur et à mesure


qu’elle se résout en prestations distinctes dont certaines sont d’ailleurs anciennes.
L’utilisation de plus en plus fréquente du terme « outsourcing », qui peut désigner toutes
les formes de sous-traitance, en fait de plus en plus un vocable à la mode dont on pare

cclxxxiv
aussi bien des prestations construites sur des compétences existantes que des prestations
anciennes dont on espère ainsi prolonger la vie.

Comme toujours lorsqu’un terme à la mode est défini d’une façon aussi
incertaine, il devient l’occasion de discussions passionnées dont les intérêts
commerciaux ne sont évidemment pas absents. L’infogérance est-elle, comme
l’affirment ses partisans, une alternative globale économiquement préférable à la
possession d’un système informatique, comme en témoignent les arguments
habituellement avancés en sa faveur : « se concentrer sur son métier », « transformer
des coûts fixes en coûts variables », « confier la gestion à de vrais spécialistes », … ? Si
oui, l’informatique s’orienterait vers une prééminence des entreprises de services,
contrairement à la tendance constatée tout au long de ses 40 ans d’histoire. Pour les
services eux-mêmes, l’avenir est-il à une prestation globale comme l’affirment les
partisans du « FM de systèmes », en sens inverse du mouvement général de l’industrie ?
Nous reviendrons sur ces questions dans le chapitre 15.

Conclusions

Même après qu’on en a extrait le progiciel, les services forment un complexe


d’activités très hétérogène par leur nature et par leur relation avec les autres secteurs de
l’informatique. Il n’est pas toujours évident de séparer les services en informatique
proprement dits, qui appartiennent sans conteste à l’industrie informatique, des services
dont le seul lien avec l’industrie informatique est d’en utiliser les produits, comme le
font pratiquement toutes les autres activités industrielles. Pour les services en
informatique proprement dits, l’interaction entre la demande de services et l’évolution
des produits est complexe : a priori, la diffusion des produits devrait faire croître la
demande de services, mais d’une part les produits évoluent de façon à réduire le besoin
de services de support, et d’autre part certaines formes de service pourraient avoir un
effet négatif sur le besoin de produits.

Les services sont également hétérogènes par l’économie de leur production. La


plupart sont faiblement capitalistes et s’accommodent d’une échelle de production très
réduite, alors que d’autres, comme le traitement ou certaines formes d’infogérance,
exigent des investissements assez importants pour s’apparenter à des activités de
production industrielle. Il en résulte des configurations sectorielles allant de l’extrême
dispersion à une certaine concentration, et surtout la nécessité de personnalités
d’entreprise adaptées à chaque type d’activité, d’autant plus que si les activités de
service ont quelque chose en commun, c’est bien d’être extrêmement sensibles à
l’adéquation de l’organisation et de la culture d’entreprise aux spécificités de l’activité.

Le macro-secteur des services contient donc une grande partie de la diversité et de


la problématique de l’industrie informatique tout entière. On y rencontre des
généralistes du service à côté de firmes spécialisées dans une forme particulière de
prestation. Nous traiterons au chapitre 14 du conflit entre généralistes et spécialistes, et
nous conclurons à la domination inéluctable de ces derniers, ce qui est également
valable à l’intérieur même du domaine des services. Mais la demande de services est
particulièrement mouvante et volatile, si bien que des firmes trop étroitement
spécialisées courent le risque de disparaître avec la demande qui leur a donné naissance.

cclxxxv
Une des clés de l’évolution du secteur des services est cette recherche permanente
d’adaptation des firmes à la demande, qu’il s’agisse de se convertir d’une spécialité à
une autre pour les plus modestes ou de maintenir une position de généraliste pour les
plus ambitieuses. Considérer que toutes les entreprises de services se ressemblent,
fonctionnent de la même façon et obéissent aux mêmes mécanismes concurrentiels, ou
encore que toutes les entreprises de services sont également capables d’aborder toutes
les formes de service, serait se condamner à ne pas comprendre la dynamique propre à
ce secteur. L’histoire et l’avenir des Sociétés de Service sont faits de leurs efforts pour
se définir à l’intérieur de ce monde diversifié et se transformer pour suivre la demande,
de leurs nombreux échecs et de leurs quelques réussites.

cclxxxvi
Quatrième partie
Vers un nouvel ordre industriel
Unifier, c’est nouer mieux les diversités particulières,
non les effacer pour un ordre vain.
Saint-Exupéry

Jusqu’ici, notre démarche a été essentiellement analytique. A partir d’un premier


grand découpage de l’industrie sur la base des principaux critères économiques de
structuration des secteurs industriels, nous avons pu analyser chacun des quatre
domaines des composants, du matériel, du progiciel et des services, et les décomposer à
leur tour en secteurs distincts dont la structure se caractérise par une plus ou moins
grande concentration.

La production des composants est soumise à une dynamique de concentration très


forte qui ne laisse subsister qu’un petit nombre de producteurs de tailles très inégales,
qui se distinguent entre fondeurs et concepteurs « fabless ». Le domaine des matériels
est formé d’un grand nombre de secteurs spécialisés par nature d’unité, tous dominés
par une dynamique de dispersion plus ou moins accentuée selon le niveau d’assemblage
où opère la firme (cartes, unités, etc.), et la stratégie qu’elle a choisie (matériels
originaux, matériels standard). On retrouve pour les progiciels une logique générale de
concentration analogue à celle qui prévaut pour les composants, mais qui agit dans un
grand nombre de secteurs spécialisés comme pour le matériel. Les spécificités de la
production de progiciel introduisent des différences considérables d’échelle de
production entre ces secteurs, et induisent un mouvement global d’absorption des
secteurs périphériques par les secteurs les plus concentrés, compensé par la naissance
permanente de nouveaux secteurs pour de nouveaux domaines d’application. Les
services comprennent également plusieurs secteurs spécialisés allant d’une extrême
dispersion pour l’assistance spécialisée à une certaine concentration pour les services
d’intégration.

Nous avons également vu que pour réussir dans un secteur donné, une entreprise
doit posséder une structure et une culture adaptées aux règles particulières de la
concurrence dans ce secteur. A chaque secteur peut donc être associée une personnalité
d’entreprise spécifique, de telle sorte qu’il est pratiquement impossible à une même
entreprise de réussir dans deux secteurs demandant des personnalités différentes et
relevant donc de deux métiers distincts. Ce phénomène d’incompatibilité,
particulièrement sensible dans les services, joue de façon d’autant plus forte que
l’environnement concurrentiel est plus vif. Il contribue au maintien des spécialisations
et de la structure sectorielle acquises, et pousse à l’éclatement les firmes qui ne sont pas
spécialisées dans un métier unique.

Les analyses sectorielles des chapitres précédents reposent sur les entreprises
spécialisées de chaque secteur. Elles s’appliquent donc principalement au monde PC,
dominé par des spécialistes, alors que les généralistes dominent encore le monde

cclxxxvii
traditionnel et le monde ouvert. Dans la dernière partie, nous allons examiner l’industrie
informatique dans son ensemble et synthétiser les conclusions des chapitres précédents
pour proposer une vue globale de l’industrie, de son devenir et de sa place dans
l’ensemble de l’économie. Nous aborderons deux questions principales : comment
chaque entreprise détermine ses activités et comment les entreprises s’organisent entre
elles pour satisfaire le marché. Notre fil directeur sera l’analyse concurrentielle
présentée tout au long de cet ouvrage.

Dans le Chapitre 14, nous verrons comment les forces concurrentielles poussent
les entreprises à séparer leurs activités selon les frontières de ces mêmes secteurs, et les
problèmes difficiles que cet éclatement pose aux généralistes. C’est donc l’ensemble de
l’industrie informatique qui éclate en secteurs spécialisés, à l’intérieur desquels les
représentants des trois mondes se retrouvent en concurrence. Dans chacun de ces
secteurs spécialisés, la concurrence fait disparaître les frontières entre les trois mondes
du PC, des ordinateurs traditionnels et des systèmes ouverts, et a pour effet d’unifier
globalement l’informatique.

Mais dans cette industrie éclatée, les produits des différents spécialistes doivent
pouvoir s’intégrer dans des systèmes pour répondre aux besoins des utilisateurs. Le
chapitre 15 examine ce problème de l’intégration et les opportunités qu’il présente pour
les offreurs, en particulier dans le domaine des services. Il montre aussi comment les
acteurs peuvent pallier leur spécialisation en tissant entre eux des alliances plus ou
moins formelles, allant de la définition de standards à des alliances industrielles, et qui
peuvent se révéler plus ou moins efficaces.

Enfin le chapitre 16 reprendra le thème des frontières de l’informatique, que nous


avons maintes fois évoqué pour en repousser l’examen. A partir des forces qui
structurent l’industrie informatique, et qui régissent aussi les industries connexes, nous
examinerons les interférences entre l’informatique et les autres industries, en particulier
les télécommunications. Cette analyse complétera notre scénario d’évolution globale de
l’industrie informatique.

cclxxxviii
Chapitre 14
L’informatique éclatée

Généralistes et spécialistes. Dés-intégration et spécialisation contre intégration et


diversification. L’éclatement des généralistes. Fusion et homogénéisation des trois
mondes de l’informatique. Microprocesseurs, client-serveur et multiprocesseurs. Les
mécanismes de la dés-intégration. Les affres de la transition et le destin des
généralistes.

L’analyse des différentes formes de production, que nous avons développée dans
les deux parties précédentes, repose sur les spécialisations apparues dans le monde PC
depuis 1981. Mais cette spécialisation n’a pas toujours été la règle. Comme nous
l’avons vu dans la première partie (chapitres 1 et 2), la première moitié des 40 ans
d’histoire de l’industrie informatique a vu la domination sans partage des généralistes
intégrés. Encore actuellement, ces généralistes ou leurs successeurs continuent à
dominer un certain nombre de segments de marché comme les grands et moyens
systèmes ou la maintenance. Ils sont aussi très présents dans les autres segments, y
compris ceux de la micro-informatique où ils coexistent et entrent en concurrence avec
les firmes spécialisées.

Le modèle des généralistes intégrés avait subi ses premières attaques à la fin des
années 60 avec la séparation des tarifs décidée par IBM, puis un peu plus tard avec
l’apparition des unités compatibles. Mais ces événements, s’ils ont permis l’essor d’un
grand nombre de firmes spécialisées, n’ont eu qu’un impact mineur sur la structure et le
mode de fonctionnement des grandes firmes, dont la gamme de prestations est restée
aussi vaste. De même, au moment où naissait avec la micro-informatique un monde PC
éclaté dès l’origine et qui l’est resté, c’est en adoptant une stratégie de généraliste et en
offrant un matériel et des logiciels intégrés qu’Apple prenait le leadership de
l’informatique personnelle. Un peu plus tard, IBM tentait de remettre en vigueur ce
même modèle avec le PS/2 pour le matériel et l’OS/2 pour le système d’exploitation.
Plus tard encore, c’est toujours en adoptant le modèle intégré que se développèrent les
pionniers des stations de travail comme Sun ou Silicon Graphics, en offrant non
seulement des matériels et un système d’exploitation spécifiques, mais en fabriquant
leurs propres microprocesseurs et en offrant leurs propres logiciels d’application.
Contrairement aux grands généralistes traditionnels, toutes ces entreprises se sont choisi
un segment de marché spécifique, mais comme eux elles offrent aux clients de ce
segment un système réunissant la totalité des produits et services nécessaires.

Est-ce à dire que firmes spécialisées et firmes généralistes sont destinées à


coexister de façon durable dans un grand nombre de secteurs, et si oui quelles sont les
modalités de la concurrence entre elles ? Que se passe-t-il quand des spécialistes et des
généralistes sont en concurrence sur un même segment, c’est à dire pour des produits
étroitement substituables ? Plus précisément, quels avantages et quels désavantages
concurrentiels résultent respectivement d’une stratégie de généraliste et d’une stratégie

cclxxxix
de spécialisation ? Leur comparaison permet-elle de prévoir l’effacement ou
l’éclatement progressif des généralistes, ou au contraire le regroupement des
spécialistes ?

Une première indication peut être trouvée dans les indicateurs de performance que
nous avons examinés au chapitre 5. Les généralistes connaissent depuis 1989 un
ralentissement de leur croissance et une baisse de leur rentabilité qui les poussent à des
restructurations, des réductions d’effectifs et pour certains d’entre eux à des abandons
d’activités. Nous avons vu également que les quelques firmes mixtes qui se positionnent
entre les généralistes et les spécialistes réussissent généralement moins bien que les
firmes spécialisées dans les prestations individuelles qui composent leur offre. Il semble
bien que le simple fait d’offrir une gamme étendue de prestations, que ce soit par leur
nature ou par le marché qu’elles visent à couvrir, est devenu un handicap. Si tel est bien
le cas, la concurrence entre firmes diversifiées et firmes spécialisées avantage ces
dernières et pousse inéluctablement à la spécialisation.

Cela étant dit, il nous faut maintenant regarder de plus près les mécanismes et les
avantages respectifs de la désintégration et de l’intégration pour rendre compte de
l’évolution actuelle des grands généralistes et pour identifier les tendances de fond qui
modèleront le devenir de l’industrie.

Intégration et dés-intégration des entreprises

Pour une entreprise, la spécialisation s’oppose à la fois à l’intégration et à la


diversification. Une entreprise diversifiée produit plusieurs biens différents qui peuvent
être sans relation entre eux, ou qui peuvent être liés soit par le marché soit par le
processus de production. Nous ne citerons que pour mémoire le cas de biens totalement
indépendants et celui de biens liés par le processus de production mais indépendants sur
le marché (par exemple la viande de mouton et la laine), qui sont sans importance en
informatique. Dans le domaine de l’informatique, les firmes diversifiées produisent des
biens liés, en ce sens qu’ils sont utilisés conjointement et qu’une variation de la quantité
vendue de l’un des produits entraîne une variation de la demande pour l’autre,
généralement dans le même sens. On parle alors de productions (de produits ou de
services) complémentaires.

Pour un produit donné, la firme est plus ou moins intégrée verticalement selon
qu’elle exécute toutes les étapes successives de production qui conduisent au produit
fini. Par exemple, pour la majorité de ses ordinateurs, IBM fabrique les composants
mémoire et les microprocesseurs, les intègre sur les cartes et dans les boîtiers et
assemble les unités complètes, alors que de nombreux offreurs de micro-ordinateurs se
contentent de réaliser l’assemblage final à partir d’éléments acquis sur le marché.

Une firme qui produit des biens liés peut procéder à une intégration horizontale de
son offre en proposant des produits composites regroupant plusieurs produits liés. Cette
pratique est appelée « bundling » en anglais (« bottelage » en français). Elle peut aussi
introduire des formes plus subtiles d’interdépendance entre ses produits, par exemple
pratiquer pour un produit A des tarifs et des conditions différentes selon que le client
achète ou non un autre produit B, ou encore fixer ses prix de vente pour chaque produit

ccxc
de façon à maximiser son profit global plutôt qu’à réaliser un profit sur chaque produit
séparément, en acceptant le principe de subventions croisées entre produits.

D’une façon générale, la littérature économique et managériale, ainsi d’ailleurs


que la pratique dominante des entreprises, privilégient la diversification et l’intégration
en les considérant comme le comportement le plus normal de la firme. Comme toutes
les décisions de la firme, la diversification et l’intégration présentent des inconvénients
et des avantages, mais ceux-ci sont généralement mieux connus et mieux acceptés que
ceux-là. Il est admis que les entreprises cherchent toutes à grandir et à étendre leur
champ d’influence, donc à se diversifier horizontalement et à s’intégrer verticalement.

Grâce à la diversification, on espère obtenir des avantages compétitifs en offrant


des produits complémentaires plus compatibles entre eux, en exploitant plus
complètement l’implantation commerciale et en offrant aux clients une gamme
complète qui permet un « one stop shopping » et peut les fidéliser. En ce qui concerne
les coûts, la diversification peut permettre des économies d’échelle ou des économies
« d’envergure » par mise en commun d’activités au stade de la production, de la
commercialisation ou dans la logistique. Ces avantages peuvent être à la base d’une
stratégie de différenciation et créer des obstacles à l’entrée de concurrents dans le
secteur composite correspondant à l’ensemble de produits offerts par la firme. Une
diversification judicieuse est également considérée comme une protection contre les
aléas et les variations saisonnières. Elle peut enfin donner la possibilité de ventes
groupées, de bottelage et de subventions croisées.

L’intégration verticale a été étudiée par plusieurs économistes, en particulier dans


le cadre des théories de la firme, qui cherchent à expliquer pourquoi les activités de
production donnent naissance à des organisations structurées où les relations sont régies
par une discipline interne plus ou moins hiérarchique, plutôt que par les règles du
marché qui forment la base même de l’économie. L’idée principale, proposée par
Williamson , est que toute transaction, qu’elle ait lieu entre deux agents économiques
58

indépendants ou entre deux parties d’une même firme, a un coût qui dépend en
particulier des modalités de la relation entre les parties à la transaction. Recourir au
marché implique des coûts d’exploration et de sélection, des coûts pour la négociation,
l’établissement et la gestion du contrat ainsi que pour la résolution des désaccords
éventuels. Ces coûts peuvent être réduits ou éliminés en remplaçant le recours au
marché par le recours à un organe de production interne à la firme et soumis à la même
autorité.

Dans le schéma de Williamson, la tendance à internaliser une activité, c’est à dire


à l’intégrer, augmente avec trois facteurs : la spécificité et le coût des actifs nécessaires
à l’activité qui fait l’objet de la transaction, le degré d’incertitude quant au marché et à
la bonne exécution de la transaction, et enfin la fréquence de la transaction. Cette
analyse explique la formation des firmes et autres organisations hiérarchiques, qui
permettent de remplacer le recours au marché par une coordination directe des
différentes activités. Elle constitue aussi la justification théorique implicite des fusions
et acquisitions, dont nous reparlerons plus loin. Mais elle forme aussi la base d’un
examen critique de l’intégration. De même que celle-ci est justifiée quand les coûts de

58 O. Williamson, Markets and Hierarchies ; The Free Press, 1975

ccxci
transaction internes sont inférieurs aux coûts de recours au marché, elle devra être évitée
dans le cas contraire.

La critique de l'intégration

Quels sont donc les coûts et les inconvénients de l’intégration et pourquoi les
néglige-t-on si souvent, alors que, dans l’industrie informatique, la réalité prouve qu’ils
sont suffisamment élevés pour que le mouvement d’ensemble prédominant aille vers
l’éclatement ?

Une liste assez exhaustive d’inconvénients potentiels figure dans Porter , qui les 59

recense pour inciter à un examen préalable des opportunités en pesant correctement le


pour et le contre de l’intégration. Il en présente les risques comme autant de questions à
traiter pour réaliser une intégration efficace, mais ne va pas jusqu'à les présenter comme
des motivations pour « dés-intégrer » une firme intégrée. Ces facteurs négatifs, qui
prolongent en partie l’analyse des coûts de transaction, peuvent se résumer sous trois
grandes rubriques.

Premièrement, les économies d’échelle ou d’envergure attendues de la mise en


commun d’activités n’ont d’intérêt que si ces activités précises sont sujettes à
économies d’échelle, et si elles forment une part importante du coût des produits. Si tel
n’est pas le cas, les avantages sont de faible importance. Par ailleurs, une interconnexion
entre activités ne procure pas nécessairement un avantage concurrentiel. Exploiter les
interconnections potentielles exige de mettre en place dans la firme une stratégie
explicite et des efforts particuliers, ce qui implique un coût de coordination. De plus, les
activités à rapprocher peuvent avoir des exigences de gestion différentes et les mettre en
commun entraîne des coûts de compromis et des coûts de rigidité dus à la perte de
souplesse. Enfin, une gestion efficace de l’intégration va à l’encontre des principes de
décentralisation et peut affaiblir les incitations à la rentabilité. Ce dernier ordre de
considérations nous renvoie à la discussion du chapitre 9 où nous avons mis en lumière
le fait que des productions de nature différentes demandent des personnalités
d’entreprise différentes, qui ne peuvent souvent pas coexister dans la même firme.

Les tendances les plus récentes de l’analyse stratégique et du management de


l'entreprise remettent d’ailleurs en question les dogmes établis de la diversification, de
l’intégration et de la croissance. L’école dite « de l’excellence » invite l’entreprise à se
60

concentrer sur ce qu’elle sait faire mieux que les autres, quitte à faire moins de choses.
Elle met l’accent sur la réactivité et sur l’adaptabilité, et remet en question la croissance
en tant qu’objectif suprême en proposant le slogan « small is beautiful ».

Pour l’école dite « de la valeur » , l’objectif de l’entreprise est de faire croître sa


61

valeur économique, c’est à dire son cash-flow actualisé net, plus que ses marges ou son
chiffre d’affaires. La taille n'est plus un avantage déterminant, car les petites structures

59 M.Porter, The Competitive Advantage ; The Free Press, New York, 1985 publié en français sous le
titre « L'Avantage Concurrentiel » (InterEditions, 1986).
60 Peters TJ, Waterman RH : In Search of Excellence (Harper & Row, 1982)
61 Alfred Rappaport : Creating Shareholder Value (The Free Press, 1986)

ccxcii
peuvent maintenant accéder au capital, au talent et à l'information aussi facilement que
les grandes. Les changements de plus en plus fréquents dans le cycle de vie, le coût des
facteurs, la concurrence globale, les taux d'intérêt, … remettent en question les
économies d'échelle et les synergies, et des actionnaires plus interventionnistes voire des
raiders obligent les chefs d’entreprise à examiner de façon critique et en permanence
chacune de leurs activités. Dans cette logique, une réduction de l'activité peut
augmenter la valeur de l'entreprise si l'activité cédée est destructrice de valeur, c’est à
dire consommatrice nette de liquidités. Les filialisations et les cessions d’activités
deviennent des actions de management normales, facilitées par le développement du
marché des entreprises.

L’intégration ne présente donc pas que des avantages, et il est possible de


concevoir des cas où la dés-intégration est au contraire le comportement optimal de
l’entreprise, comme l’étude de l’industrie informatique semble en donner de nombreux
exemples.

Dés-intégration contre intégration

La prédilection de la littérature et de nombreux chefs d’entreprise pour les


stratégies d’intégration peut s’expliquer par différents facteurs.

D’une part, il se trouve que les arguments favorables à l’intégration se traduisent


assez facilement en parts de marché ou en économies d’échelle ou d’envergure, alors
que les arguments défavorables sont moins facilement quantifiables et se rattachent soit
à des considérations de culture, soit à des théories très récentes et encore peu connues.
Dans de nombreux cas réels, le poids relatif des facteurs quantifiables positifs peut être
très inférieur à celui des facteurs négatifs non quantifiables, mais la littérature
économique tend à privilégier ce qui est facilement quantifiable, donc à surestimer les
facteurs qui militent pour l’intégration. On accrédite ainsi l’idée que le mouvement
naturel de l’économie est vers une intégration croissante, contrairement à ce que nous
constatons pour l’informatique. C’est un exemple d’effet pervers de la mathématisation
de l’économie, qui peut conduire à des conclusions opposées à la réalité observable.

Il faut aussi faire la part des effets de mode, qui sont eux-mêmes en relation avec
la conjoncture économique. Une période de croissance met au premier plan les objectifs
de chiffre d’affaires et renforce tous les facteurs favorables à l’intégration, alors qu’en
période difficile, c’est l’objectif de résultat qui devient prioritaire et renforce les facteurs
favorables à la spécialisation. Comme grandir est beaucoup plus agréable que se battre
pour rester profitable, les chefs d’entreprise adhèrent facilement aux arguments en
faveur de l’intégration, et n’acceptent ceux qui poussent à la dés-intégration qu’en leur
prêtant un caractère exceptionnel.

D’une façon plus générale, plusieurs économistes ont proposé l’idée que le
phénomène d’intégration ou de désintégration est en relation avec le cycle de chaque
industrie ou secteur. Dans un schéma proposé par Stigler et repris par Porter, une
62

industrie nouvelle apparaît nécessairement sous une forme intégrée et le demeure tant
que la taille du marché est insuffisante pour supporter des firmes spécialisées dans les

62 George J.Stigler : The Organization of Industry (Richard Irwin, 1968)

ccxciii
différents composants ou les différentes étapes de production. De plus, les besoins du
marché ne sont pas encore diversifiés et les processus de production sont encore
instables, ce qui rend difficile aussi bien la spécialisation horizontale que la dés-
intégration verticale. La croissance et la maturité favorisent la spécialisation par niche,
par nature de produit ou par étape de production, en accord avec la remarque d’Adam
Smith selon laquelle « la division du travail est limitée par la taille du marché ». Avec le
déclin de l’industrie et le retrait de nombreux acteurs commence un processus de ré-
intégration progressive.

Dés-intégration et homogénéisation de l’industrie

L’évolution des généralistes

Ce sont bien ces mécanismes que nous avons vus à l’œuvre pour l’informatique
dans la première partie de cet ouvrage. Le produit intégré « ordinateur » apparu en 1951
sur le marché s’est progressivement décomposé, à partir de la deuxième moitié des
années 60, selon trois dimensions : par nature de prestation (matériel, logiciel, différents
types de services), par type de matériel et par niche de marché. Cette dissociation s’est
effectuée à la fois par apparition de nouvelles entreprises spécialisées et par séparation
plus ou moins nette des prestations à l’intérieur des entreprises généralistes, chacun de
ces mouvements appelant et favorisant l’autre.

Les généralistes traditionnels construisent et tarifent leur offre de façon globale.


Certaines prestations sont gratuites, par exemple des services, et les prix de celles qui
sont facturées séparément sont fixés afin de procurer le revenu total le plus élevé
possible compte tenu des complémentarités, des effets d’entraînement et des
substitutions possibles. Au niveau des coûts de revient, chaque prestation facturée doit
supporter une part du coût des services et autres prestations gratuites, et la profitabilité
individuelle de chaque élément peut varier dans de larges proportions depuis des valeurs
négatives jusqu’à des valeurs fortement positives.

Chaque affaire, considérée séparément, utilise les différents éléments en


proportions différentes qui peuvent conduire à des niveaux de profit différents. La
profitabilité globale de la firme généraliste met ainsi en jeu des phénomènes de
compensation entre affaires et entre produits. L’action commerciale essaiera d’éviter les
cas trop défavorables, par exemple fournir beaucoup d’assistance gratuite pour un
logiciel isolé peu profitable, même si la demande du client est légitime. Une partie de la
demande ne sera donc pas satisfaite. A l’opposé, il existe aussi des cas favorables à
l’offreur où la demande sera satisfaite de façon particulièrement profitable.

L’élargissement du marché et la diversification des besoins multiplient ces cas


particuliers, où la composition prévisible de la demande est atypique par rapport à la
demande moyenne sur laquelle est construite l’offre des généralistes. Une entreprise
peut alors acquérir un avantage concurrentiel en se spécialisant sur ces niches de marché
et en y adaptant son offre et sa tarification, ce qui implique le plus souvent de
rapprocher ses prix de vente des coûts de revient réels propres à cette niche. Par
exemple, à partir du moment où le marché comporte une part importante de

ccxciv
renouvellement ou d’installation de systèmes identiques en multiples exemplaires, la
demande de matériel « nu » devient suffisante pour ouvrir un marché à des fournisseurs
qui pratiquent des prix concurrentiels en faisant l’économie du personnel d’assistance.

Parallèlement, des entreprises existantes (principalement de services) peuvent


étendre leurs prestations à l’informatique. Prenons l’exemple du financement du
matériel. Au début, les organismes financiers restent à l’écart de l’informatique, et le
service correspondant est fourni par les constructeurs généralistes qui offrent pour leurs
matériels la possibilité de location ou de location-vente. Avec le temps, les organismes
financiers s’intéressent à ce nouveau marché, d’abord à travers des firmes spécialisées
où ils sont présents, pour finalement intégrer entièrement le financement d’ordinateurs
dans leur activité générale de financement. Comme ce sont les firmes financières qui
détiennent pour ce service l’avantage concurrentiel le plus fort, l’activité de financement
d’ordinateurs finit par passer entièrement du secteur informatique au secteur financier.
Si au début, l’originalité de l’objet l’emporte sur la nature de l’activité, c’est à la fin la
nature de l’activité qui l’emporte et l’objet est devenu banal. On pourrait en dire autant
de services comme la distribution, l’installation, l’entretien ou la mise à disposition de
personnel.

Pour faire face à cette concurrence spécialisée dans les segments où ils sont
vulnérables, les généralistes doivent suivre ce mouvement des prix, ou peuvent le
prévenir comme IBM avec l’unbundling. Mais pour maintenir leur profitabilité globale,
ils doivent augmenter l’écart entre coûts et prix de vente pour les prestations
caractéristiques des segments où ils restent dominants, ce qui les y rend plus vulnérables
et tend à faciliter l’entrée de nouveaux concurrents. Plus les segments attaqués par les
spécialistes se multiplient, plus les segments relativement protégés se raréfient et
deviennent vulnérables. Au total et sur le long terme, ce sont tous les prix de vente qui
se rapprochent des coûts de revient, y compris pour certaines prestations jusque là
fournies gratuitement et qui deviennent facturées séparément.

A travers cette dissociation de leur offre, les généralistes renoncent de fait à


certaines synergies et à certains avantages concurrentiels dus à l’étendue même de leur
offre, ce qui tend à faciliter encore plus le développement d’une concurrence
spécialisée. L’éclatement de l’offre des généralistes et le foisonnement des spécialistes
se nourrissent donc l’un de l’autre et gagnent de proche en proche la totalité du spectre
des produits et services. Tôt ou tard, la concurrence de plus en plus vive entre
généralistes et spécialistes sur chacun des segments de marché posera de façon critique
la question de l’adéquation organisationnelle et culturelle de la firme à ses productions,
et conduira les généralistes à remettre en cause leur structure : doivent-ils conserver
toutes leurs prestations au sein d’une organisation intégrée ou segmenter leur
organisation en entreprises plus ou moins indépendantes afin de laisser chacune d’entre
elles se doter de l’organisation et de la culture qui lui donneront les meilleurs atouts
pour réussir dans son secteur ?

Une condition fondamentale pour que ce processus d’éclatement ait lieu est que
les niches où existent des opportunités de spécialisation soient assez visibles et assez
vastes pour justifier les investissements des spécialistes. Or l’industrie informatique
était dominée au départ par quelques généralistes qui se différenciaient par
l’architecture de leurs systèmes et en particulier les conventions qui permettent de relier

ccxcv
entre eux leurs éléments. Ces généralistes formaient un secteur concentré où les parts de
marché étaient par nature inégales. Il est évident que les spécialistes avaient intérêt à
faire porter leurs attaques en priorité sur le fournisseur qui leur procurait le marché
potentiel le plus vaste, en l’occurrence IBM. Le processus d’érosion et d’éclatement
décrit ci-dessus a touché les généralistes dans l’ordre de part de marché décroissante. Il
a été particulièrement rapide pour les secteurs où les investissements étaient les plus
faibles et le cycle le plus court, c’est à dire les secteurs les plus dispersés par nature.

C’est ainsi que s’est développée autour d’IBM, dans les années 70, une
constellation de firmes qui offraient des produits et des services spécifiques,
substituables individuellement aux offres correspondantes d’IBM tout en restant
compatibles au sein d’un système. Tout en respectant les standards de fait définis par
IBM, ces firmes et IBM étaient en concurrence sur de nombreux secteurs, ce qui a eu
pour effet global de faire baisser les prix, d’éliminer les subventions croisées entre
produits, d’améliorer la qualité et la diversité sous toutes leurs formes et de faire
apparaître des produits et services nouveaux.

Pour les clients, cette concurrence interne au « monde IBM » a offert de


nombreux avantages par rapport à l’offre des autres constructeurs : élévation de la
qualité et de la diversité des produits, apports des fournisseurs complémentaires, prix
plus compétitifs. Les autres généralistes ont peiné à rester concurrentiels devant cette
vitalité et n’ont été protégés que par l’importance des coûts de transfert entre leurs
produits et ceux du monde IBM. Au total, même si la firme IBM a été éprouvée par
cette concurrence d’un type nouveau, le monde IBM dans son ensemble est resté de plus
en plus dominant et les autres généralistes sont devenus marginaux. Il en résulte que les
spécialistes n’ont trouvé que peu d’intérêt à attaquer d’autres généralistes, et que le
processus d’éclatement s’est pratiquement arrêté à IBM.

En revanche, pour le leader IBM, la concurrence avec des spécialistes de chacune


de ses prestations a entraîné une érosion de sa propre part du marché, ainsi que de son
lien privilégié avec les clients, et de l'influence qu'il peut exercer sur le marché, et in
fine de ses marges bénéficiaires. Mais, s’il sait rester concurrentiel sur une gamme
suffisante de produits et services, les avantages globaux du « monde » auquel il
appartient sur les autres généralistes peuvent compenser sa propre régression au sein de
ce monde.

Ce processus d’éclatement de l’offre tend à séparer progressivement tous les


éléments dont le besoin peut être exprimé et satisfait de façon indépendante : services et
produits, parmi les produits ceux qui peuvent être physiquement séparés et qui
fournissent des fonctions distinctes, parmi les services ceux qui satisfont des besoins
spécifiques, et d’une façon générale les éléments dont le processus de production peut
être isolé.

Par contre, on n’observe pas de désintégration verticale jusqu’en 1981, sauf à


considérer l’intégration de systèmes comme l’étape ultime de la production. Les
constructeurs d’ordinateurs continuent à produire leurs propres composants et à réaliser
eux-mêmes tous les niveaux d’assemblage. Mais comme l’évolution technologique
concentre de plus en plus de valeur ajoutée dans les composants et rend la production de
composants de plus en plus capitaliste donc concentrée, les constructeurs d’unités

ccxcvi
centrales sont contraints de se rapprocher des grands producteurs de semi-conducteurs,
ce qui ne laisse subsister dans ce secteur que des firmes comme Fujitsu (et sa filiale
Amdahl), Hitachi ou NEC. On observe ainsi une certaine tendance à la reconcentration
pour les ordinateurs (et les systèmes d’exploitation), à coté d’une poursuite de
l’éclatement pour les périphériques, les services et les progiciels d’application.

La fusion des trois mondes

Si l’évolution structurelle du monde de l’informatique traditionnelle résulte


principalement de l’accroissement de la taille du marché et de l’élévation de la
compétence moyenne des clients, l’apparition du monde de la micro-informatique est la
conséquence directe du franchissement d’une étape technologique critique : l’apparition
de microprocesseurs sur le marché au début des années 70. L’industrie de la micro-
informatique se construit d’emblée sur un modèle dés-intégré verticalement entre des
fournisseurs indépendants de microprocesseurs (Motorola et Intel), des fabricants de
matériels, des producteurs de logiciel et des distributeurs. Des firmes comme Atari,
Commodore et surtout Apple se conforment partiellement au modèle traditionnel en
combinant matériel et logiciel, alors qu’IBM inaugure avec le PC, à partir de 1981, une
structure totalement éclatée y compris pour le système d’exploitation avec Microsoft.

Comme nous l’avons vu au chapitre 3, l’explosion du monde PC n’a pas eu


d’incidence directe immédiate sur la structure du monde traditionnel, car les marchés
sont restés longtemps disjoints. La micro-informatique a privé l’informatique
traditionnelle d’une grande partie de son potentiel de croissance. Mais tant qu’il n’a pas
été pratiquement possible de remplacer massivement des systèmes traditionnels par des
systèmes à base de micro-ordinateurs, les deux mondes ne sont pas véritablement entrés
en concurrence et leurs structures ne se sont ni confrontées ni rapprochées.

De même, le monde Risc/Unix apparu dans les années 80 est resté longtemps
séparé aussi bien du monde traditionnel que du monde PC. Il offre en effet deux types
principaux de systèmes. D’une part des « stations », c’est à dire des ordinateurs
personnels adaptés à un usage scientifique et à des présentations soignées, ce qui
demande des processeurs puissants, de grands écrans, des possibilités graphiques
évoluées, sans équivalent au niveau des PC comme des ordinateurs traditionnels.
D’autre part des « serveurs », c’est à dire des ordinateurs de taille moyenne destinés à
être partagés entre différents utilisateurs dans le cadre d’un réseau de stations ou de
micro-ordinateurs. Ces serveurs sont en concurrence directe avec les ordinateurs
traditionnels, mais ne peuvent être exploités que dans le cadre d’une architecture de
systèmes nouvelle appelée « client-serveur ». Tant que cette architecture n’aura pas
atteint une certaine maturité, la concurrence réelle des serveurs est limitée aux mini-
ordinateurs.

Mais, comme nous l’avons vu au chapitre 7, les microprocesseurs vont continuer à


progresser pendant encore au moins 10 ans, et ils vont rattraper, puis dépasser en
performances les grands ordinateurs actuels. Grâce à la dynamique concurrentielle
propre à ce secteur, on trouvera en permanence sur le marché un choix de
microprocesseurs du dernier niveau technologique pour des prix de quelques centaines
de $ l’unité. Même si ce choix est limité et se restreint progressivement à 2 ou 3 par

ccxcvii
génération, il permettra à des assembleurs, en utilisant ces puces du commerce, d’offrir
pour une part croissante du marché informatique total des matériels offrant un meilleur
rapport prix/performances que ceux des firmes intégrées.

A lui seul, ce phénomène suffirait à augmenter de façon constante la part de


marché globale des spécialistes et à diminuer celle des généralistes. Mais d’autres
développements technologiques en cours vont accélérer l’envahissement de toute
l’informatique par les technologies et les structures industrielles issues du monde de la
micro-informatique. Ce sont d’une part les techniques d’interconnexion et de mise en
réseau de systèmes et l’architecture « client-serveur », qui permettent de remplacer un
grand système par un complexe de systèmes interconnectés travaillant en harmonie, et
d’autre part les techniques des multiprocesseurs, qui permettent de construire une
machine puissante en juxtaposant des microprocesseurs qui travaillent en parallèle.

Les développements nécessaires à la mise en œuvre du concept client-serveur se


traduisent uniquement par du logiciel, qui traite les problèmes de communication entre
systèmes, de gestion de bases de données distribuées, de gestion de systèmes distribués,
etc. Dans chacun des domaines concernés, il existe déjà de nombreuses offres
concurrentes, généralement incorporées dans les systèmes d’exploitation standard ou
compatibles avec eux, et les développements nouveaux comme les perfectionnements
de logiciels existants vont bon train. Le marché offre ou offrira prochainement tous les
ingrédients nécessaires à la mise en place de systèmes complets utilisant l’architecture
client-serveur. Mais l’adoption de cette approche par les utilisateurs suppose une refonte
des applications existantes, voire de toute l’organisation informatique, de sorte que le
remplacement des grands systèmes intégrés par des réseaux de systèmes plus modestes
est cadencé par la capacité propre d’évolution des utilisateurs plus que par le progrès
des technologies.

Les technologies des multiprocesseurs posent à la fois des problèmes de matériel


pour les dispositifs d’interconnexion et de communication entre processeurs et
mémoire, et de logiciel pour la gestion de l’ensemble. Ces problèmes sont d’autant plus
complexes que le nombre de processeurs est élevé. Pour un petit nombre de processeurs
(entre 2 et 4), ils sont déjà suffisamment bien maîtrisés pour qu’il existe sur le marché
de nombreuses machines de type SMP (pour « symmetric multiprocessing ») et que les
fonctions logicielles nécessaires soient incluses dans des systèmes standard comme
Windows NT. Les mêmes technologies sont présentes dans les serveurs Unix de haut de
gamme, qui peuvent comporter jusqu’à 64 processeurs. Il est hors de doute que le
parallélisme modéré deviendra à court terme une possibilité standard offerte par un
grand nombre de fournisseurs de micro-ordinateurs et de progiciels de niveau industriel.

Dans le cas des machines dites « massivement parallèles », où on cherche à faire


fonctionner ensemble plusieurs centaines, voire des milliers de processeurs, ces mêmes
problèmes sont encore imparfaitement résolus. Ces matériels n’ont actuellement
d’avantage concurrentiel que pour des problèmes particuliers se prêtant à un degré élevé
de parallélisme, et à condition d’être programmés spécifiquement pour cette
architecture. Ces systèmes ne sont encore offerts que par des spécialistes de grands
systèmes comme Cray ou Convex, ou de grands généralistes comme IBM ou Fujitsu.
Mais dans ce domaine peut-être plus que dans d’autres, il faut compter avec le
foisonnement d’innovations issues du monde Unix et des laboratoires universitaires, qui

ccxcviii
aboutira un jour à l’incorporation du parallélisme massif dans des systèmes standard de
niveau industriel, selon un mécanisme évoqué au chapitre 12.

Au total, en même temps que les microprocesseurs standard du commerce


atteindront les niveaux de puissance des plus grands systèmes tout en conservant leur
prix modeste, des assembleurs de matériels mettront sur le marché des multiprocesseurs
dépassant encore ces performances. Parallèlement, les progiciels issus du monde micro
et offerts par les spécialistes comme Microsoft incorporeront les fonctions nécessaires à
la construction de systèmes complets sur la base de ces matériels. Les assembleurs de
matériel et les spécialistes des progiciels, en s’appuyant sur les spécialistes des
composants, entreront ainsi progressivement en concurrence à tous les niveaux avec les
généralistes ou les firmes moins étroitement spécialisées.

Dans une telle concurrence, ce sont les mondes les plus éclatés qui jouissent de
l’avantage concurrentiel maximal, comme nous l’avons vu précédemment à propos du
monde IBM. On constate qu’il existe actuellement dans l’ensemble de l’informatique
plusieurs niveaux de rapport prix/performances. Par exemple, le prix du Mips pour un63

PC est environ un millième de ce qu’il est pour les grands ordinateurs de structure
traditionnelle, le coût d’un même travail est 10 fois plus élevé sur un grand ordinateur
traditionnel que sur une station, ou encore un PC est 3 fois moins cher qu’une station de
configuration et de puissance équivalentes. De même, les prix pratiqués pour les
progiciels dans le domaine des PC sont sans commune mesure avec ceux des progiciels
pour grands systèmes. Ces différences n’avaient pas de très grandes conséquences en
termes de concurrence tant que les possibilités de substitution restaient limitées par les
gammes de puissance ou de fonctions couvertes, mais elles vont devenir déterminantes
au fur et à mesure que s’étendent les domaines de concurrence.

Le mouvement d’ensemble se fera naturellement du bas de gamme vers le haut, et


touchera donc d’abord le monde Unix/Risc et ce qui reste des mini-ordinateurs
conventionnels, avant de se propager vers le haut dans le monde des grands systèmes.

Toute une partie du monde Unix s’est construit sur le modèle intégré traditionnel
où chaque constructeur produit à la fois son microprocesseur, ses matériels et ses
logiciels, chaque élément s’appuyant sur les autres. Il a été jusque là individualisé par
l’utilisation de processeurs Risc et de systèmes Unix. Mais il est certain que les offreurs
de progiciels spécialisés du monde PC, comme Microsoft, Santa Cruz Operation, Novell
ou le complexe IBM/Apple/Taligent, vont offrir des systèmes d’exploitation
concurrents, et que parmi les nombreux assembleurs de matériel du monde PC, certains
vont offrir l’équivalent des stations et des serveurs actuels.

Les offreurs Unix intégrés, comme Sun ou Silicon Graphics, seront ainsi
concurrencés pour chacun des éléments par des spécialistes qui jouiront d’avantages
concurrentiels par les prix, la diversité, la qualité, etc. Maintenir une offre intégrée serait
pour eux suicidaire car une insuffisance relative dans un seul des secteurs pourrait
condamner l’ensemble. Ils seront donc conduits à séparer leurs prestations et lutter pour
chacune séparément, leur avenir dans chacun des secteurs dépendant de leur capacité à
conserver ou acquérir des avantages concurrentiels spécifiques dans chacun des secteurs

63 million d’instructions par seconde

ccxcix
où ils restent présents. En tout état de cause, ils devront faire face aux problèmes de dés-
intégration verticale que nous allons aborder dans la suite.

A travers cette fusion du monde micro et du monde Risc/Unix, les serveurs


s’aligneront sur les standard de prix/performance du monde micro et deviendront
d’autant plus concurrentiels par rapport à l’informatique traditionnelle, renforçant ainsi
les avantages concurrentiels des systèmes client/serveur. Un mouvement analogue bien
que probablement un peu plus tardif accentuera les avantages des grands systèmes
massivement parallèles sur les systèmes conventionnels. A terme, les technologies, les
standards de performance et la structure industrielle éclatée du monde PC
s’appliqueront à toute l’industrie informatique, en forçant les généralistes à réexaminer
leur offre, leurs tarifs et leur organisation. Tel est l'enjeu industriel réel des
développements technologiques en cours sur les architectures client/serveur et les
multiprocesseurs.

Structure sectorielle et innovation

Entre autres avantages concurrentiels, une organisation fragmentée présente celui


d’être globalement plus favorable à l’innovation et donc de faire bénéficier plus
rapidement et plus complètement les utilisateurs de tous les progrès rendus possibles par
l’évolution des technologies.

Les produits nouveaux qui résultent potentiellement du progrès technologique ont


avec les produits existants des relations variées. Ils peuvent s’adresser à des besoins
nouveaux, et donc n’entrer en concurrence avec aucun produit existant, ou au contraire
constituer un remplacement possible pour des produits existants et donc entrer en
concurrence avec eux sur le marché.

Dans une firme diversifiée ou intégrée, ces conflits sont généralement résolus par
la Direction Générale. D’une part les différents projets de développement sont en
concurrence et les ressources leur sont allouées en fonction de la politique générale de
l’entreprise, d’autre part la recherche alimente un réservoir de produits potentiels dont
l’introduction éventuelle sur le marché est planifiée globalement sur le long terme en
tenant compte de leur impact réciproque.

Une telle attitude planificatrice est d'autant plus nécessaire que la firme occupe
une large partie du marché global, et d'autant plus facile à mettre en œuvre qu'elle
exerce le leadership. C’est ainsi qu’IBM a traditionnellement disposé d’un portefeuille
impressionnant de technologies de pointe et de produits innovants, mais ne les a
généralement introduits sur le marché que sous la pression de la concurrence, donnant
ainsi l’image d’une firme retardataire sur le plan technique. Si ce mode de gestion
améliore probablement la qualité et la cohérence des produits, il entraîne par contre un
retard des produits commercialisés par rapport aux possibilités de la technologie, et rend
la firme vulnérable aux attaques ponctuelles de concurrents qui en exploiteraient les
toutes dernières possibilités.

Au contraire, dans une industrie fragmentée, chaque acteur n’agit qu’en fonction
de ses produits propres. Plus une firme est spécialisée, et moins elle aura de choix pour
l’allocation de ses ressources de développement et de contraintes à respecter pour

ccc
l’introduction de ses nouveaux produits. En quelque sorte, la sélection des produits
commercialisés, qui dans un monde intégré relevait largement du management des
firmes, est maintenant externalisée et confiée au verdict du marché. En conséquence,
tout se passe comme si le progrès technologique était devenu une force autonome :
chaque firme doit penser qu’il se trouvera toujours quelqu'un pour en exploiter les
dernières possibilités. Aucun acteur ne peut contrôler le processus, et il faut s'organiser
pour réagir au progrès et non plus tenter de le contrôler.

Ajoutons que l'avènement de la micro-informatique permet une explosion de


nombreux projets d’ampleur très variable, et donne la possibilité de poursuivre en
parallèle plusieurs voies de recherche tout en limitant le coût et les risques de chaque
projet. Le monde fragmenté de la micro-informatique et des stations de travail est donc
doublement le lieu privilégié de l’innovation. Il faut donc s’attendre à une accélération
globale de l’innovation en informatique au fur et à mesure que la structure du monde
micro gagnera toute l’industrie.

Le processus de dés-intégration verticale

L’éclatement de l’offre pose des problèmes particulièrement difficiles aux


fournisseurs dont l’offre couvre des secteurs obéissant à des dynamiques
concurrentielles très différentes, et implique à la fois des activités très capitalistes
relevant d’un secteur concentré monopoliste comme les composants et le progiciel, à
côté d’activités à faible échelle de production donc relevant d’un secteur dispersé
comme l’assemblage de matériel ou la majorité des services. C’est le cas des
généralistes traditionnels, mais aussi de firmes spécialisées sur un segment de marché et
dont la stratégie est d’offrir sur ce segment l’ensemble des produits et services
nécessaires.

Dans le schéma traditionnel, chacune des activités de la firme opère à une même
échelle, déterminée par la part de marché de la firme tout entière. Cette échelle de
production peut, selon les activités, se situer au voisinage ou au-dessus de l’échelle
économique propre à cette activité, ou au contraire lui être inférieure. Dans ce dernier
cas, le coût de revient unitaire des produits est supérieur à celui que permettrait un
volume de production plus élevé.

Tant qu’il n’existe pas de spécialistes dans les secteurs correspondant aux activités
de la firme, celle-ci n’est en concurrence qu’avec des généralistes comme elle, au
niveau d’une offre intégrée dont le prix de vente couvre l’ensemble des coûts. Les
règles du jeu concurrentiel de ce secteur et la structure industrielle qui en résulte sont
celles de l’activité la plus capitaliste, et relèvent donc du type monopoliste concentré.
Pour y réussir, les firmes doivent adopter la structure et la culture caractéristiques des
activités à cycle long.

Si par contre il existe des spécialistes dans ces secteurs et qu’ils en occupent une
part non négligeable, la firme généraliste opère de fait dans des secteurs concurrentiels
distincts où les règles du jeu et les critères de réussite sont différents, et elle doit lutter
dans chaque secteur contre des entreprises spécifiquement adaptées. Comme il est peu
vraisemblable qu’un généraliste puisse être aussi performant que les spécialistes dans

ccci
tous les secteurs, il est probable que les généralistes perdront des parts de marché dans
certains domaines au bénéfice des spécialistes de ces domaines. En particulier, les coûts
excessifs des composants et des progiciels se traduisent par des prix élevés pour les
matériels qui constituent la source principale de revenu. De plus, l’organisation et la
culture adaptées aux cycles longs deviennent un handicap concurrentiel dans le secteur
des matériels et des services.

Le caractère intégré de l’offre peut-il procurer des avantages concurrentiels de


nature à compenser ces handicaps ? Cela pourrait être le cas tant que les avantages des
spécialistes sont modestes, ou si certains besoins importants ne sont pas couverts par les
spécialistes, ou si les clients ne sont pas assez compétents pour s’adresser à des
fournisseurs distincts. Mais ces avantages potentiels ne sauraient être durables, surtout
lorsque la concurrence résulte de l’évolution technologique des produits d’un monde
éclaté déjà fortement compétitif, qui les fait entrer en concurrence avec les produits de
la firme intégrée, comme c’est le cas pour la micro-informatique. Le monde éclaté
concurrent est déjà alors constitué, et seul le délai d’adaptation des nouveaux clients
peut retarder l’éclatement horizontal du secteur et le déclin des généralistes.

Reste le problème du matériel, pour lequel une production de composants propres


trop faible en volume signifie un coût unitaire excessif et donc un handicap
concurrentiel par rapport au matériel à base de composants du marché. Ce handicap est
d’autant plus élevé que les volumes sont faibles et qu’une proportion élevée du coût du
matériel se trouve dans les composants. S’il entraîne une perte de part de marché pour le
matériel, ce handicap augmente fortement au fur et à mesure que le niveau de
production s’écarte de l’échelle économique, et peut entraîner la firme dans une spirale
descendante fatale.

La firme a deux solutions pour réduire les coûts des composants : ou bien
abandonner son activité de production et utiliser des composants du marché, ou bien
rapprocher ses volumes de production de l'échelle économique, ce qu’elle ne peut faire
qu’en fournissant ses composants à d’autres entreprises d’assemblage. Dans cette
deuxième approche, elle deviendrait concurrente des autres fournisseurs dans le secteur
des composants, et entrerait de ce fait dans la dynamique de concentration
caractéristique que nous avons étudiée au chapitre 7. Ce secteur est déjà fortement
constitué, et donc l’entrée y est extrêmement difficile et la survie problématique.

Si néanmoins la firme continue à fabriquer des composants, elle doit les vendre à
des assembleurs qui les utiliseront dans leurs propres produits, en concurrence avec
ceux de la firme elle-même. Les avantages concurrentiels dont jouissent éventuellement
ces composants ne peuvent alors suffire à assurer un avantage aux produits qui les
utilisent. L’activité aval de la firme qu’est l’assemblage de matériels ne peut rester
concurrentielle qu’en se différenciant par d’autres caractéristiques propres au matériel
lui-même.

De plus, la production de matériels, maintenant isolée de celle des composants, est


une activité à cycles courts où l’agilité et la liberté de manœuvre sont des atouts
concurrentiels décisifs. Contraindre le secteur aval à n’utiliser que les composants de la
maison-mère limite ses options et peut avoir le même effet que de conserver une offre
intégrée. Autoriser l’amont de la firme à vendre à d’autres que l’aval a pour contrepartie

cccii
naturelle d’autoriser l’aval à acheter à d'autres que l'amont. Par ailleurs, les facteurs
organisationnels et culturels deviennent de plus en plus critiques dans la concurrence
entre firmes spécialisées, et chaque segment de la firme doit pouvoir adapter sa
personnalité au secteur où il opère. Sous peine d’échouer, l’activité amont et l’activité
aval doivent devenir autonomes non seulement dans leur comportement concurrentiel à
l’extérieur de la firme, mais aussi à l'intérieur même de la firme éclatée, qui tend à se
décomposer en entreprises indépendantes.

Un raisonnement analogue vaut, mutatis mutandis, pour les systèmes


d’exploitation, dont nous avons vu aux chapitres 11 et 12 qu’ils constituent un secteur
fortement concentré. Si le coût de leur développement ne peut plus être en partie
subventionné par le prix des matériels, la firme généraliste n’a pas d’autre moyen de
faire face à la concurrence des grands spécialistes que d’étendre le marché de ses
progiciels à la clientèle des autres constructeurs. Elle rend ainsi son activité de
développement de systèmes d’exploitation indépendante comme celle de production de
composants, privant du même coup ses autres activités des avantages concurrentiels
propres à ces systèmes. Comme pour les composants, la dynamique monopoliste des
grands progiciels peut pousser la firme à abandonner ce secteur plus ou moins
rapidement.

La mutation des grands industriels

Les considérations qui précèdent permettent d’expliquer les difficultés récentes,


largement médiatisées, des grandes entreprises généralistes qui ont fait l’informatique et
dominé les 30 premières années de son histoire. Ces firmes sont maintenant confrontées
à des problèmes graves, et qui ne feront que s’aggraver dans les prochaines années.
Comme nous venons de le décrire, elles ont déjà vu se réduire leurs parts de marché et
leurs profits, qui se sont transformés en pertes pour plusieurs d’entre elles, et ont dû
comprimer en conséquence leurs moyens et leur train de vie, au prix de douloureuses
restructurations internes et de l’abandon de certaines activités. Non seulement la
transition est difficile, et n’est pas terminée pour toutes les firmes, en particulier celles
qui n’ont encore été touchées que peu ou pas du tout, mais l’environnement dans lequel
se retrouvent les firmes après la transition est plus rude que l’ancien.

Quelques généralistes se sont retirés de la production de composants, comme


Unisys, NCR, Bull et plus récemment Hewlett-Packard. Ils se sont pour cela rapprochés
de fournisseurs comme Intel, PowerOpen ou NEC. Hewlett-Packard a même réussi à
présenter son retrait de façon positive comme une alliance entre égaux avec Intel. La
plupart de ceux qui poursuivent dans ce secteur ont donné à cette activité une
indépendance presque totale par rapport à leurs autres productions, comme les japonais
Toshiba ou Hitachi qui ne sont plus que fondeurs, tandis que NEC et Fujitsu continuent
à produire également des puces spécifiques pour leurs grands systèmes. IBM s’est
associé avec Motorola dans le consortium PowerOpen, qui fonctionne de façon
autonome par rapport à IBM.

A l’opposé, Digital Equipment, Sun et Silicon Graphics font encore reposer


l’ensemble de leur stratégie sur la possession d’un processeur spécifique et ne peuvent
donc donner à cette activité l’indépendance qui lui serait nécessaire pour atteindre

ccciii
l’échelle économique de production et lutter efficacement contre les autres fournisseurs
en réduisant leurs coûts unitaires. En tout état de cause, nous avons vu au chapitre 7 que
les années à venir verront des firmes abandonner ce secteur une à une, avec des
conséquences plus ou moins graves pour le reste de leurs activités et pour leur survie.
Les trois firmes susnommées sont les premiers candidats (involontaires) à cet abandon.

Le tableau est beaucoup plus flou dans les systèmes d’exploitation, qui forment
l’autre domaine dont l’échelle économique de production est élevée. Le caractère
intrinsèquement monopoliste du secteur, qui le soumet à une dynamique de
concentration en tout point parallèle à celle du secteur des composants, semble
nettement moins bien compris tant par les acteurs que par les commentateurs. Les
exigences spécifiques de la production de logiciel de qualité industrielle et leurs
implications économiques et stratégiques, que nous avons présentées au chapitre 12, ne
sont encore qu’imparfaitement perçues.

La plupart des fournisseurs de matériel de type traditionnel, y compris les


constructeurs de stations de travail, continuent d’offrir leurs systèmes spécifiques à leur
matériel. Pour les plus anciens, ce sont des systèmes entièrement spécifiques à leurs
grands ou moyens ordinateurs, pour les plus récents des versions locales d’Unix. Chez
les plus grands constructeurs, comme IBM ou Digital Equipment, coexistent des
systèmes Unix et des systèmes propres. On a encore à peine vu se dessiner avec
Windows NT le mouvement que nous avons annoncé, par lequel des systèmes issus du
monde micro se doteront progressivement de toutes les fonctions nécessaires pour
remplacer les systèmes issus du monde traditionnel ou les stations de travail, tout en
restant offerts à des prix cohérents avec les prix actuels des systèmes d’exploitation
pour micro-ordinateurs.

Néanmoins, plusieurs firmes généralistes s’engagent dans la voie qui tend à rendre
autonomes leurs activités de développement de systèmes d’exploitation, par exemple
Sun en portant son système sur d’autres processeurs que ses puces Sparc. IBM s’est
engagé dans une vaste opération de refonte de tous ses systèmes existants pour les
porter sur la base PowerPC et les rendre conforme aux normes Posix, tout en annonçant
le développement de systèmes nouveaux à travers des coopérations avec Apple dont la
géométrie semble variable, les objectifs fluctuants et la stratégie incertaine. Apple parle
de rendre disponible son futur système (Copland ou System/8) indépendamment du
matériel, mais il n’est pas évident qu’ils veulent le dissocier de la base PowerPC. La
stratégie d’Apple est ainsi liée à celle d’IBM et souffre du même flou. En tout état de
cause, même si de nombreuses firmes décident de rester dans le secteur devenu
autonome des systèmes d’exploitation, la concurrence monopoliste et la dynamique de
concentration restreindront progressivement ce nombre.

Au bout du compte, la plupart des généralistes devront se limiter à des activités à


plus faible échelle de production comme l’assemblage de matériel. Ceux qui survivront
dans les composants ou les systèmes d’exploitation devront pour cela avoir spécialisé
les différentes branches de leur organisation interne, avec comme conséquence d’isoler
leurs activités d’assemblage de matériel qui devront être capables de soutenir la
concurrence des spécialistes par leurs propres moyens.

ccciv
Or ces activités se situent dans des secteurs de structure dispersée, où les parts de
marché maximales sont de l'ordre de 15% et où la profitabilité est plus faible que dans
le secteur concentré qu'était l'informatique traditionnelle. Cette seule différence pose des
problèmes difficiles aux constructeurs généralistes qui avaient prospéré dans une
structure de type concentré où la récompense du plus performant est une part de marché
supérieure à 60%. Dans le nouvel environnement, la récompense du meilleur n’est plus
au maximum que 15% du marché, ce qui ne correspond pas du tout à une perte de
compétitivité mais à une structure sectorielle différente. Si le leader perdait réellement
sa compétitivité, ce n’est pas à 15% mais à moins de 5% qu’il verrait tomber sa part !

Quand le prix de la réussite passe ainsi de 70% de part de marché et 15% de


bénéfice net à 15% de part de marché et 5% de bénéfice net, et même si le marché est en
expansion, même les firmes qui sont présentes dans de nombreux secteurs devront
obligatoirement réduire leurs ressources, leurs effectifs et d’une façon générale leur
train de vie. Mais cette mutation remet également en cause le système de management
et l’unité de l’entreprise, sa stratégie de généraliste, ses politiques de personnel, etc. Elle
finit par exiger des modifications profondes d’organisation et de méthodes, et un
changement radical de style de vie et de culture.

C’est l’ensemble de ces difficultés qui est à l’origine de la crise des grands
généralistes traditionnels, au premier rang desquels IBM, et non telle ou telle
insuffisance ponctuelle évoquée par des commentateurs superficiels. On lit souvent que
les malheurs d’IBM sont dus au fait que cette firme aurait « manqué le tournant de la
micro-informatique ». Or d’une part IBM a été le premier des grands constructeurs à
pénétrer en force dans ce marché, en y établissant des standards durables, et y a
rapidement conquis des positions enviables dans les tout premiers rangs, qu’elle
conserve encore aujourd’hui. D’autre part, il était rigoureusement inimaginable que
l’activité micro-informatique se substitue rapidement et largement à l’activité
traditionnelle, car il s’agissait et il s’agit encore largement de marchés disjoints. Enfin, à
l’exception des secteurs minoritaires des composants et des progiciels, les activités
microinformatiques sont moins profitables que les activités traditionnelles. En réalité,
IBM s’est vite rangé parmi les pionniers de la micro-informatique et y a rapidement et
durablement réussi, mais cette réussite ne lui a pas épargné la crise de l’informatique
classique, et ne lui pas non plus évité de s’aligner sur des standards de part de marché et
de rentabilité différents.

La vie dans un monde fragmenté

Dans un secteur dispersé, les situations acquises sont continuellement remises en


question. Dans un environnement très dynamique où des réactions rapides sont
nécessaires, les firmes n'ont ni temps ni ressources pour de longues études préliminaires
au lancement de leurs produits. Elles doivent tenter leur chance si possible avant les
autres, et s'en remettre au jugement du marché. Ce faisant, elles doivent tenir compte de
la possibilité d'échecs, en limiter a priori les effets par une organisation cloisonnée,
savoir abandonner rapidement les projets sans avenir, et assumer sans états d'âme les
conséquences d'échecs désormais considérés comme une éventualité normale.

cccv
Pour réussir, il ne suffit plus de bien répondre aux besoins généraux du marché.
Encore faut-il répondre mieux que les concurrents aux besoins spécifiques du segment
ou de chacun des segments particuliers que l'on vise. La démarche marketing
traditionnelle d'analyse de la demande doit être complétée par une conscience aiguë des
atouts distinctifs de la firme, voire céder la place à une stratégie reposant d'abord sur ces
atouts plus que sur une demande exprimée. La firme doit se concentrer sur ce qu’elle
sait faire mieux que les autres, en espérant qu’un marché se révélera, et non produire
simplement ce que le marché demande sans se soucier de savoir si elle y dispose d’un
avantage. Elle doit avant tout exploiter ses atouts spécifiques, et en l’absence de tels
atouts savoir abandonner le secteur.

Enfin, dans l'action commerciale, chaque offreur doit savoir qu'il affrontera des
concurrents dont les stratégies, et donc les organisations et les démarches commerciales,
sont très diverses. Chacun d'eux, dans les domaines où il opère, rencontre une
concurrence multiforme et doit adapter en conséquence son propre comportement
commercial pour faire face à toutes les concurrences.

La convergence des trois mondes confronte ainsi les grands offreurs traditionnels
à de multiples défis : s'organiser pour opérer dans des secteurs dont les règles du jeu
sont fondamentalement différentes, peut-être abandonner certaines de leurs activités,
réduire la taille de l'entreprise et son train de vie pour suivre la réduction de la part de
marché et des marges. Elle leur impose également un bouleversement complet de leur
culture.

C’est dans ce contexte qu’il faut situer les ambitions affichées par de nombreux
constructeurs traditionnels en matière de services. Remarquons que cette attitude est à
l’opposé de celle qu’ils adoptaient dans les années 70 et 80. Après avoir fourni
gratuitement des services comme partie intégrante de leur offre, les constructeurs ont
utilisé la facturation séparée pour limiter leur implication dans les services et favoriser
la création d'entreprises spécialisées. Les années 70 et 80 ont en réalité vu un relatif
désengagement des constructeurs et une autonomisation progressive du secteur des
services par rapport à celui des matériels.

Le revirement que l'on constate depuis quelques années, et qui est surtout le fait
des grands constructeurs traditionnels, a certes pour but de conserver ou d’acquérir un
avantage concurrentiel pour les produits (qui serait encore plus grand si le service était
fourni gratuitement), et de répondre à une demande croissante des clients pour une prise
de responsabilité plus globale quant aux résultats. Mais sa motivation première est
probablement de tirer un revenu de ressources en personnel devenues excédentaires.
Point n'est besoin pour cela que les services soient particulièrement profitables. Tant
qu'on ne se résout pas à se séparer des personnels en question, mieux vaut encore les
facturer au taux du marché que les rétribuer à ne rien faire. En outre, cette offre
rencontre une demande accrue par l'éclatement et la complexité croissante de l'offre
informatique, qui pousse de nombreux clients à se reposer sur un intégrateur
professionnel, voire à exiger de leur fournisseur principal de matériel qu'il prenne une
responsabilité contractuelle dans sa mise en œuvre.

Il n'en reste pas moins que réussir dans les services exige des formes
d'organisation, des systèmes de management et des cultures d'entreprise très différentes

cccvi
de ce qui convient au secteur des matériels en général, et encore plus au secteur
traditionnel. L'avenir dira si les constructeurs sauront gérer leurs activités de services de
façon à se créer un avantage concurrentiel par rapport aux offreurs spécialisés, et
s'organiser pour que leur présence dans des secteurs aussi dissemblables ne présente pas
pour eux plus d'inconvénients que d'avantages.

Au total, la vie est plus dure pour les constructeurs de matériel dans un monde
fragmenté ou « ouvert ». On comprend que la plupart des constructeurs traditionnels
aient cherché à prolonger autant que possible les schémas antérieurs qui avaient présidé
à leur réussite, ne serait-ce que pour se donner plus de temps pour accomplir leur
transformation. Cette attitude contribue à expliquer pourquoi même les constructeurs
qui étaient présents dans les trois mondes ont peu fait pour favoriser leur
rapprochement, et pourquoi c'est dans le monde un peu marginal d’Unix que prennent
naissance les solutions techniques innovantes qui permettront la convergence des grands
et des petits systèmes.

Le nouvel ordre industriel

La discussion précédente décrit le mouvement général vers l’éclatement de


l’industrie comme résultant de la combinaison de deux mécanismes. D’une part, il
existe au niveau des firmes des motivations qui poussent les entreprises à des actions
allant dans le sens de l’éclatement. D’autre part il existe au niveau global des
mécanismes économiques ou concurrentiels qui favorisent et amplifient ces actions
d’éclatement, et en transmettent les conséquences à l’ensemble de l’industrie.

A l’intérieur des entreprises généralistes, les lignes de rupture passent entre les
activités dont les dynamiques concurrentielles et les exigences d’organisation et de
culture sont très différentes, chaque fragment détaché rejoignant le secteur spécialisé
correspondant. La structure d’ensemble de l’industrie informatique, qui était au départ
un secteur unique de type concentré peuplé de généralistes, se transforme en un
complexe de secteurs spécialisés autonomes, chacun obéissant à sa propre dynamique et
doté de sa propre structure, allant de la plus concentrée à la plus dispersée.

Dans chacun de ces secteurs se retrouvent des firmes issues du monde traditionnel
comme des firmes issues du monde PC. La concurrence interne au secteur tend à les
pousser toutes à émuler les plus performantes d’entre elles et à rendre plus homogènes
les organisations, les cultures et les comportements, quelle que soit l’origine de
l’entreprise. L’éclatement en secteurs s’accompagne ainsi d’une homogénéisation des
firmes dans chacun des secteurs.

Or les firmes les mieux adaptées à la forme de concurrence qui règne dans chaque
secteur sont celles qui y opèrent depuis le plus longtemps et ont fait ainsi la preuve de
leur compétitivité compte tenu des règles du jeu en vigueur localement. D’une façon
générale, ce sont celles qui sont issues du monde du PC, sauf pour les services où le
monde micro n’a pas produit de sociétés de services vraiment différentes de celles qui
existaient avant lui dans le monde traditionnel. La submersion de l’ensemble de
l’informatique par les technologies de la micro, dont nous avons parlé précédemment,

cccvii
se double d’une submersion de toute l’industrie par les pratiques et les cultures
industrielles issues du monde du PC.

Bien entendu, il n’est pas exclu que certains grands généralistes continuent à
opérer dans plusieurs secteurs, voire que certaines autres firmes réussissent à prendre
pied et à se maintenir dans des secteurs différents de leur secteur d’origine. Mais il est
probable que ces firmes adopteront pour cela un modèle interne plus voisin de celui du
conglomérat que de la firme intégrée, avec des entités autonomes qui mènent des
stratégies indépendantes en adoptant pour cela des structures et des cultures adaptées au
secteur. Lorsque l’entreprise sera présente dans des secteurs différents mais voisins par
leur dynamique concurrentielle, par exemple l’assemblage de différentes variétés de
matériels, elle pourra conserver les activités correspondantes dans une structure
commune et bénéficier éventuellement d’effets de synergie. Par contre, opérer dans des
secteurs radicalement opposés comme les composants et l’assemblage de matériel, ou
encore le progiciel d’une part, le matériel ou les services d’autre part, commandera de
séparer plus nettement les activités en les confiant à des entités juridiquement distinctes.

Conclusion

En observant la structure de l'industrie informatique et en analysant son histoire et


les événements en cours à la lumière de la dynamique concurrentielle, nous avons pu
isoler et caractériser les secteurs qui la composent, comprendre les phénomènes qui s'y
déroulent et les interactions entre les secteurs. Les apparents désordres actuels sont en
réalité la partie visible d'un profond mouvement de transition de l'industrie depuis une
structure homogène et concentrée vers une structure de secteurs spécialisés obéissant à
des lois économiques et concurrentielles différentes.

Cette transition va amener l'ensemble de l'industrie informatique vers une


structure et un mode de fonctionnement aujourd'hui caractéristiques du monde des
micro-ordinateurs et plus spécifiquement du PC, qui s'était mis en place depuis 1981 a
coté du monde de l'informatique traditionnelle. Les forces de convergence entre ces
mondes, longtemps insuffisantes pour contrebalancer les forces qui les maintenaient
séparés, commencent visiblement à l'emporter. Leurs effets vont s'accélérer grâce en
partie au rôle privilégié d'Unix, à la fois charnière entre les deux mondes principaux et
laboratoire d'innovations unificatrices.

Cette « grande unification » conduit à un monde où, comme dans le monde PC, il
existera des fournisseurs spécialisés pour chaque élément d'un système informatique,
qu'il s'agisse de matériels, de progiciels ou de services. Pour pouvoir être combinés
entre eux, ces éléments respecteront des standards, mais en règle générale le choix d'un
fournisseur pour un quelconque de ces éléments laissera un grand nombre de choix
possibles pour chacun des autres. Cette indépendance de choix des fournisseurs, liée à la
possibilité d'assembler les produits de fournisseurs indépendants, est caractéristique de
ce qu'on appelle un monde ouvert.

Ces bouleversements de l’industrie ont déjà commencé, mais ils sont loin d’être
terminés. On a largement surestimé jusqu’ici la concurrence entre l’informatique
traditionnelle et les micros. En réalité, cette concurrence ne fait que commencer, car les

cccviii
avantages concurrentiels théoriques ne jouent qu’à l’intérieur de segments de marché où
les offres sont réellement substituables, ce qui a jusqu’ici été exceptionnel entre la
grande informatique et la microinformatique. Mais il ne faudrait pas en conclure que la
coexistence actuelle va se perpétuer sur le même mode relativement pacifique. Les
arènes de concurrence réelle se multiplient et s’élargissent, et gagnent progressivement
tous les domaines et tous les niveaux de performances. Dans chacune d’elles, le monde
micro jouit des avantages concurrentiels les plus grands, grâce précisément à sa
structure éclatée spécialisée. Ce monde, avec sa structure industrielle et ses
technologies, va submerger progressivement toute l’informatique, amenant des
bouleversements pour l’ensemble des acteurs, et pour les clients de nouveaux standards
de prix, de performances et de facilité d’utilisation.

Pour les acteurs de l'industrie, la vie est au total plus dure dans un monde ouvert.
Si quelques-uns, opérant dans les secteurs monopolistes que sont les composants et les
progiciels, pourront exploiter une position dominante, c'est au prix d'une succession de
paris technologiques de plus en plus coûteux où ils risqueront à chaque fois leur
suprématie. Les autres opéreront dans des secteurs où les enjeux seront certes plus
raisonnables, mais où les positions sur le marché seront fragiles et où rien ne sera jamais
acquis. C'est précisément cet univers dangereux qui garantit aux clients les meilleures
offres possibles.

La transition vers le nouvel ordre industriel est particulièrement douloureuse pour


ceux des acteurs qui avaient le plus prospéré dans l'ordre ancien. Ce sont leurs
spectaculaires difficultés d'adaptation, s'ajoutant aux péripéties normales des acteurs du
monde ouvert proprement dit, qui amènent de nombreux observateurs à s'interroger sur
la santé de l'industrie informatique.

Pour porter un diagnostic d'ensemble, encore faut-il utiliser les bons critères. La
santé d'une industrie se mesure d'abord à sa vitalité, c'est à dire à sa capacité de
satisfaire les besoins de ses clients, et d'améliorer cette satisfaction sur tous les plans :
fonctions, performances, coûts, fiabilité, facilité d'utilisation, richesse des choix, etc. A
cette aune, l'industrie informatique « pète de santé ». Bien sûr, certains acteurs ont
disparu et d'autres disparaîtront encore. Mais il ne faut pas confondre la santé d'une
industrie tout entière avec celle de chacune des firmes qui la composent. L'élimination
des entreprises les moins performantes est précisément le principal mécanisme par
lequel l'industrie se maintient en bonne santé. Bien sûr, de nombreuses entreprises
« dégraissent », mais c'est justement afin d'être mieux armées pour la poursuite du
combat concurrentiel. Nous avons trop tendance à juger les entreprises d'après leur
capacité à créer des emplois, et à oublier que leur véritable mission première est de
fournir des produits.

cccix
Chapitre 15
Les mécanismes intégrateurs

L’utilisateur face au monde éclaté. Les rôles nouveaux du Directeur Informatique.


Le problème de l’intégration et les stratégies des offreurs. Services d’intégration et
produits intégrés. L’infogérance est-elle économiquement viable ? Partenariats,
alliances, participations et accords industriels. Le banquier, le vautour et
l’entrepreneur. Qu’est-ce qu’un bon accord ? Pourquoi les acquisitions échouent.
Comment interpréter les alliances. Fusions, acquisitions et structures sectorielles.
Pronostics par secteur.

Les analyses précédentes concluent à l’éclatement de l’industrie en secteurs


spécialisés et différenciés. Elles reposent essentiellement sur l’examen des intérêts, des
actions et de la dynamique propre aux acteurs de l’offre. Le marché est considéré
comme un organe externe qui sanctionne par ses achats les actions de chaque offreur et
les incite ainsi à se comporter de façon optimale, c’est à dire en cherchant à provoquer
des réactions du marché, en particulier un comportement d’achat, plus favorables
qu’envers les autres firmes concurrentes. Les besoins et la capacité d’achat étant limités,
les offreurs sont en concurrence pour chaque segment de cette demande. Les réactions
d’achat du marché aboutissent à sélectionner pour chaque segment les produits, les
comportements, les firmes et les modèles d’entreprise les mieux adaptés.

Par ce processus d’évolution naturelle, le marché sélectionne les structures de


production les mieux adaptées pour le satisfaire. Comme l’avait déjà pressenti Alfred
Marshall « une méthode d’organisation industrielle en remplace une autre quand elle
offre un service meilleur à un prix inférieur ». Mais si la structure fragmentée vers
laquelle tend l’industrie informatique est globalement porteuse d’avantages pour les
utilisateurs, elle n’en présente pas moins un certain nombre d’inconvénients qui peuvent
être perçus comme autant d’occasions de marché. Il est donc probable que certains
acteurs entreprendront des actions compensatrices qui, sans suffire à inverser le
mouvement général vers l’éclatement, tendront à le freiner ou à provoquer des
regroupements.

Comme toutes les forces de rappel, ces forces antagonistes se manifestent de


façon d’autant plus visible que la fragmentation de l’industrie devient plus poussée. A
l’objectif légitime d’apporter une solution aux problèmes que l’éclatement de l’offre
pose aux utilisateurs, et de construire sur cette demande du marché un secteur
profitable, peuvent alors s’ajouter des motivations plus ou moins rationnelles héritées
des tendances viscérales à l’intégration. C’est ainsi qu’apparaissent des mouvements de
coopération ou des alliances entre offreurs, qui peuvent se concrétiser par des opérations
de prise de participation, d’acquisition ou de fusion d’entreprises, potentiellement
susceptibles de conduire à des regroupements différents de ceux qui existaient dans
l’informatique ancienne et qui sont en cours de destruction. Ces mouvements de
réaction à l’éclatement de l’industrie font l’objet du présent chapitre.

cccx
Les systèmes et le problème de l’intégration

L’abondance et la diversité d’une offre fragmentée imposent aux utilisateurs de


savoir s’orienter parmi les nombreux produits complémentaires ou concurrents, de
savoir choisir judicieusement entre eux, et enfin de relier les produits pour les assembler
en systèmes. Les utilisateurs peuvent développer eux-mêmes pour leur propre usage les
compétences et les mécanismes d’information nécessaires, mais ces nouveaux besoins
constituent également une demande latente et donc une opportunité pour des entreprises
de service, spécialisées ou non.

Tant que cette structure fragmentée ne concernait que la micro-informatique, et en


particulier le grand public, ces besoins d’orientation et d’intégration ont été aisément
résolus par les distributeurs et les utilisateurs eux-mêmes, assistés par une abondante
presse spécialisée et à l’occasion par les fournisseurs. Les systèmes personnels sont en
effet plus simples et leurs configurations susceptibles d’un moins grand nombre de
variantes, du moins au départ. Leur gamme d’applications est plus limitée et largement
couverte par des progiciels qui dictent les standards de configuration. Plus
significativement, il semble que les utilisateurs d’informatique personnelle aient
développé leurs capacités de choix et d’intégration en synchronisme avec leurs besoins
applicatifs, et n’ont donc généralement pas dû affronter des problèmes d’intégration
qu’ils n’étaient pas capables de résoudre eux-mêmes. Cette hypothèse est cohérente
avec l’absence dans ce domaine d’une demande de services au sens traditionnel, qui en
tout état de cause aurait peu de chances d’être solvable.

L’attitude des utilisateurs de micro-informatique dans l’entreprise a toujours été


notablement différente. Ils attendent de l’entreprise qu’elle leur fournisse des services
de support dont les utilisateurs non professionnels se passent fort bien pour des usages
identiques, y compris même de services de maintenance. Ces attentes se traduisent par
une demande, solvable puisque provenant des entreprises, qui va de la formation, de
l’installation, de l’assistance ou de la gestion de parc à la conception, au développement
et à la mise en place de systèmes complexes construits à base de micro-informatique
mais propres à l’entreprise. Cette demande se généralise quand la structure fragmentée
du monde micro gagne progressivement toute l’offre informatique.

La suite de cette discussion concerne essentiellement les utilisateurs


« conventionnels » que sont les entreprises, qui ont acquis l’habitude et les moyens de
se doter de systèmes spécifiques en faisant appel si nécessaire à des sociétés
spécialisées. Il laisse de côté le grand public dont les besoins d’intégration sont limités
et le plus souvent satisfaits par les utilisateurs eux-mêmes.

Le nouveau rôle des Directions Informatiques

Pour les utilisateurs, un monde ouvert présente de nombreux avantages, en


particulier celui du choix et de l'indépendance par rapport aux fournisseurs.
Indirectement, par la dynamique concurrentielle qui le sous-tend, il entraîne aussi la
meilleure exploitation possible du potentiel technologique pour aboutir à la mise sur le
marché d'une grande variété de produits rivalisant de qualités et au prix le plus bas
possible.

cccxi
Mais l'abondance même des produits peut faire problème pour de nombreux
utilisateurs, vers qui se déplacent les responsabilités de choisir et d'assembler les
éléments disponibles sur le marché.

L'informatique est par nature une technologie invasive susceptible d’être


appliquée à d’innombrables usages par des utilisateurs très divers. A cette infinie variété
d’usages répond une infinie variété de configurations de matériels et de logiciels,
assemblés de façon personnalisée en systèmes adaptés à chaque utilisation particulière.
A l’inverse, chacune des composantes offertes par les différents fournisseurs spécialisés,
qu’il s’agisse de matériel, de logiciel ou de services, ne prend une utilité réelle et donc
une valeur qu’après cette opération d’intégration .64

Or dans un monde désintégré, ou ouvert, l’immense majorité des fournisseurs ne


propose qu’un seul élément ou quelques-uns des éléments nécessaires à la construction
du système. Les seuls à offrir des systèmes complets pré-intégrés sont des firmes
spécialisées dans un domaine d’application suffisamment étroit pour que le nombre de
configurations nécessaires pour satisfaire leur marché soit limité. En dehors de ces cas
particuliers, chaque utilisateur doit choisir et assembler les éléments du système qui
répondra à ses besoins.

De plus, dans le monde désintégré et ouvert vers lequel évolue l’informatique, les
choix relatifs à chacun des composants constitutifs d’un système sont indépendants des
choix relatifs aux autres composants. Contrairement à la situation qui prévaut encore
aujourd’hui, tous les systèmes d’exploitation majeurs fonctionneront sur tous les
microprocesseurs majeurs, et donc le choix d’un système d’exploitation n’entraînera ni
celui du microprocesseur ni celui d’une gamme de matériel. A l’inverse, un nombre
croissant de grands assembleurs de matériel, comme aujourd’hui IBM, Digital
Equipment ou Hewlett-Packard, offriront le choix entre plusieurs microprocesseurs. Le
choix d’un constructeur pour le matériel n’imposera donc pas le choix d’un
microprocesseur ou indirectement d’un système d’exploitation. De même, pour chaque
élément fonctionnel destiné à rendre un service donné (stockage, impression,
communication, entrée ou affichage d’informations, production de sons, …), qu’il
s’agisse de matériel ou de logiciel, on trouvera sur le marché plusieurs produits
concurrents compatibles avec le reste du système.

Remarquons au passage que l’existence de normes ou de standards tend à


compliquer ce problème de choix plutôt qu’à le simplifier. Les standards permettent en
effet de rendre homogènes les caractéristiques les plus visibles des produits
comparables, donc d’élargir le choix en augmentant le nombre de produits directement
substituables, tout en poussant les offreurs à se différencier par rapport à d’autres
critères plus subtils et donc plus difficiles à évaluer correctement. En l’absence de
standards, le choix se réduit souvent à un petit nombre de produits assez différents ;
dans un monde régi par des standards, il faut choisir entre de nombreux produits très
semblables.

64 On retrouve la définition classique d’un système comme un « ensemble de produits


complémentaires qui doivent être utilisés ensemble pour produire de la valeur »

cccxii
Une fois le choix effectué, les standards peuvent atténuer le problème
d’intégration mais certainement pas le faire totalement disparaître. De plus, les
standards ne seront jamais ni définitifs, ni universels, ni parfaits et continueront à
évoluer. Aussi longtemps que la concurrence existera et maintiendra le progrès
technique en avance sur la normalisation (c'est à dire toujours, souhaitons-le !), Il
existera des standards concurrents, et le choix d'un constructeur pour un élément ne sera
pas neutre par rapport aux autres.

Dans le monde traditionnel des années 70, un client avait le loisir de s'affranchir
de ces problèmes en optant une fois pour toutes pour un constructeur généraliste. Dans
un monde ouvert, il doit assumer lui-même ces choix, ou s'en remettre à une société de
services.

Dans une industrie intégrée, chaque constructeur généraliste gère un catalogue de


produits complémentaires et compatibles, où chaque produit nouveau n’est introduit sur
le marché que lorsque le reste de la gamme a été ajusté pour l’accueillir. En s’adressant
à un fournisseur privilégié, l’utilisateur peut donc se décharger d’une partie du travail de
sélection et d’intégration des produits qui composent son système. De plus, le discours
commercial de ce fournisseur met en avant la cohérence de sa gamme de produits et son
adéquation aux besoins spécifiques de chaque utilisateur, dont une relation privilégiée
lui donne une certaine connaissance. Dans cette relation, le fournisseur généraliste est
donc amené à jouer un rôle de formation et d’orientation de ses clients.

Au contraire, dans une industrie fragmentée, chaque acteur ne cherche à


développer et à promouvoir que ses produits propres. Il les introduit sur le marché dès
qu’il les estime prêts, et n’est ni désireux ni capable de s’assurer que les produits des
autres constructeurs sont rendus compatibles. Les argumentations commerciales se
bornent à présenter chaque produit comme le meilleur possible dans sa catégorie, alors
que, pour l’utilisateur, seules les caractéristiques du système global intégré ont un sens,
et que les relations de chaque produit avec les autres produits ont souvent autant
d’importance que ses caractéristiques propres.

A un petit nombre d’actions concurrentielles, se situant toutes au niveau du


système global et de ses avantages concrets pour l’utilisateur, succèdent ainsi de
multiples discours, le plus souvent incohérents entre eux lorsqu’ils concernent des
produits différents, et contradictoires par définition quand ils portent sur des produits
substituables. C’est maintenant l’utilisateur lui-même qui doit interpréter ces discours
dans le contexte de ses propres besoins et déterminer les contributions respectives des
produits concurrents à la valeur de son système applicatif.

Quand son choix se sera fixé et quand ses décisions seront prises, il ne pourra plus
compter sur la même assistance qu’un fournisseur généraliste privilégié pouvait lui
apporter au stade de l’intégration. Aucun fournisseur spécialisé ne sera capable ni
désireux d’apporter une autre aide que celle qui est strictement nécessaire à la mise en
place de ses produits. De plus, les fournisseurs de matériels, qui opèrent dans un secteur
dispersé très concurrentiel et peu profitable, chercheront à limiter leurs interventions
non facturées.

cccxiii
La fragmentation de l’offre confronte ainsi les utilisateurs à des problèmes accrus
dans deux domaines : la conception des systèmes et le choix des composants d’une part,
l’intégration d’autre part. La plupart des clients se reposaient pour cela, plus ou moins
délibérément, sur un fournisseur privilégié, et ce rôle sécurisant a fait beaucoup pour le
succès d’IBM et de ses suivants les plus importants. Un client avait toujours le loisir de
s’affranchir de cette tutelle, mais il découvrait alors le coût et les servitudes de
l’indépendance, si bien que seuls les plus grands se le permettaient de façon
systématique.

Résoudre maintenant eux-mêmes ces problèmes exige des utilisateurs des


compétences qu’ils n’ont pas nécessairement et implique des responsabilités auxquelles
ils ne sont pas toujours préparés. Nombre d’entre eux recherchent maintenant des
tuteurs capables de les décharger du fardeau du choix et de l’intégration. Cette demande
est à l’origine de la vogue des offres d’intégration de systèmes sous toutes leurs formes,
y compris l’infogérance, ainsi que de nombreux discours commerciaux sur le thème de
la « vente de solutions ». Elle représente un espoir et une argumentation pour des
généralistes survivants comme IBM, Digital Equipment, Unisys ou Bull.

Jadis, la Direction Informatique de chaque entreprise y était le seul dépositaire de


la compétence informatique. La Direction de l’entreprise et les utilisateurs lui faisaient
confiance et n’avaient pas réellement les moyens de contester ses décisions quand bien
même il leur arrivait de les critiquer. La Direction Informatique était aussi le point
d’entrée obligé pour tous les fournisseurs informatiques. Si l’un d’eux arrivait à capter
sa confiance, il pouvait alors s’instaurer une relation privilégiée où le fournisseur jouait
un rôle de conseil et de guide, et qui n’était remise en cause qu’en cas de catastrophe.

Dorénavant, la connaissance informatique se banalise. De nombreux utilisateurs


peuvent et souhaitent satisfaire leurs besoins seuls ou en traitant directement avec les
fournisseurs. La concurrence est d’ailleurs omniprésente et sollicite directement la
Direction et les utilisateurs, souvent pour contester ou remettre en question les choix de
la Direction Informatique. Dans ce nouveau contexte, si le Directeur Informatique veut
continuer à exercer un leadership sur les utilisateurs et conserver la confiance de sa
Direction, il doit le mériter chaque jour en prouvant à tous ces interlocuteurs que chacun
de ses choix est judicieux et conforme à l’intérêt de l’entreprise, alors que nombreux
sont ceux qui tentent en permanence de prouver le contraire. Il doit aussi rester une
source privilégiée d’information et de support, alors que chacun est soumis à une
avalanche d’informations plus ou moins exactes, plus ou moins pertinentes et plus ou
moins biaisées. Il doit enfin aller au-devant des besoins et non apparaître comme une
force retardatrice et retardataire, tout en respectant ses objectifs fondamentaux de
continuité et de sécurité du système d’information de l’entreprise.

Si certaines de ses responsabilités, dont les activités de développement et


d’intégration, peuvent être gérées comme des projets séparables avec une durée et des
objectifs définis, donc en particulier être sous-traitées à des tiers spécialisés, il n’en va
pas de même du suivi et de l’orientation de la politique informatique. En tout état de
cause, le Directeur Informatique reste responsable du choix de la méthode (faire ou faire
faire), de la sélection du sous-traitant éventuel et du suivi global des opérations.

cccxiv
Ce changement de contexte et de mode de travail représente une mutation délicate
dont tous ne sont pas immédiatement capables. La difficulté de cette transition explique
sans doute en grande partie le flottement et le ralentissement de l’évolution
informatique que l’on constate dans de nombreuses entreprises, ainsi que le retard
technologique qui affecte de plus en plus l’informatique d’entreprise par rapport à
l’informatique personnelle, voire l’informatique familiale. Il aboutit souvent à une
remise en cause de la position et du rôle du Directeur Informatique, voire de la place de
l’informatique dans l’entreprise, et pousse les instances dirigeantes à accorder une
oreille attentive aux sirènes de l’infogérance et du « facilities management ».

L’organisation de l’offre

Devant ces nouveaux problèmes des utilisateurs, une partie au moins de l’offre
cherche à s’organiser soit pour réduire les besoins d’orientation et d’intégration, à
travers des alliances ou des coopérations entre fournisseurs, soit pour répondre à ces
besoins en offrant des services appropriés, que nous désignerons d’une façon générale
par « services d’intégration ». Même si ces alliances constituent un phénomène de
second ordre par rapport à la tendance générale à la dés-intégration de l’industrie, et
même si les services d’intégration ne sont qu’une forme de services parmi d’autres, les
réponses apportées par les différents acteurs aux problèmes d’intégration ne sont pas
sans effet sur les structures d’ensemble de l’industrie et sur les stratégies des acteurs.

Fournir des services d’intégration est généralement considéré comme une source
d’avantages concurrentiels globaux. La situation d’intégrateur permet d’intervenir en
amont dans les choix des composants à intégrer, et donc de favoriser ses propres
productions ou de valoriser ce pouvoir de préconisation dans des relations avec les
autres fournisseurs. L’intégrateur se place ainsi dans une position privilégiée non
seulement par rapport au client, mais par rapport à tout le reste de l’industrie.

Dans une industrie éclatée, le rôle d’intégrateur peut être tenu de multiples façons
et par de multiples acteurs. On peut schématiquement distinguer deux approches :
l’intégrateur peut identifier un besoin et son marché, et intégrer à l’avance le ou les
systèmes nécessaires pour le satisfaire. Cette approche est du type « produit » car le
fournisseur définit unilatéralement les caractéristiques fonctionnelles et les conditions
financières et commerciales de son offre, et doit investir pour développer son produit
avant de le proposer sur le marché et de connaître les réactions de celui-ci. Dans une
deuxième approche, de type « services », l’intégrateur part des besoins spécifiques de
chaque client pour construire dans chaque cas un système sur mesure et unique.

Seule une approche de type « services » permet de facturer l’activité d’intégration


en tant que telle, et peut donc être adoptée par des intégrateurs spécialisés qui ne
produisent aucun des éléments des systèmes qu’ils intègrent. Au contraire, une approche
de type « produits » impose que les coûts de l’intégration soient couverts par la
facturation des éléments du système. Dans le cas où tout ou partie de ces éléments est
disponible séparément sur le marché, l’intégrateur est confronté au problème du choix
des éléments qui supporteront le supplément de prix et de la justification de ce
supplément par rapport à l’acquisition des éléments séparés. Sa position sera d’autant
plus facile qu’il produit lui-même certains éléments-clés du système.

cccxv
L’intégration de type « produits » rejoint l’ancienne offre de « systèmes clés en
mains » aujourd’hui en perte de vitesse, et constitue l’un des avatars de l’« offre de
solutions » actuellement à la mode. Pour les raisons ci-dessus, elle ne peut guère réussir
qu’à des fabricants de produits spécialisés comme des progiciels d’application ou des
périphériques particuliers, jouissant d’une bonne connaissance des besoins spécifiques
de leurs applications et d’un accès privilégié au marché correspondant. C’est d’ailleurs
probablement ce qui explique l’échec de presque toutes les sociétés de services qui ont
abordé ce domaine sans disposer d’une base de produits sur laquelle asseoir la
facturation de leur activité. Elle peut demander des coopérations permanentes entre
fournisseurs dans la mesure où l’intégrateur ne produit pas tous les éléments du système
et doit en acquérir certains auprès d’autres fournisseurs.

L’intégration de type « services » peut au contraire être facturée séparément et le


sera généralement dans un monde éclaté. Elle peut donc a priori être entreprise par de
nombreux acteurs, allant des constructeurs généralistes aux sociétés de service
spécialisées. Mais seuls réussiront ceux qui disposent d’avantages concurrentiels
suffisants pour cette activité considérée isolément, parmi lesquels figure la capacité de
traiter librement avec tous les fournisseurs de produits matériels et logiciels. Cette
dernière considération avantage les intégrateurs spécialisés indépendants et oblige les
constructeurs qui offrent des services d’intégration à les séparer nettement de leurs
activités de vente de produits, conformément à ce que nous avons vu au chapitre
précédent. Autrement dit, la réponse au problème de l’intégration n’est pas tellement un
regroupement de l’offre éclatée, mais l’apparition de services d’intégration qui forment
un secteur concurrentiel distinct et s’inscrivent dans la démarche générale d’éclatement
et de spécialisation de l’industrie informatique.

Les services de substitution

Les difficultés d’intégration liées à l’émergence du monde fragmenté ouvert


redonnent vie à la thèse de la prééminence des services sur les produits. Comme nous
l’avons vu au chapitre 13, les variantes anciennes de cette thèse que sont le service
bureau et plus tard le télétraitement ne se sont pas concrétisées, car leur justification
économique reposait sur le partage des ressources matérielles, dont le prix s’est
effondré. Aujourd’hui les coûts et les inconvénients de ce type de partage l’emportent de
loin sur ses avantages, et toutes les formes de service bureau, autres que des services
fortement applicatifs, sont pratiquement tombées en désuétude.

La variante nouvelle de cette thèse est que les clients veulent des résultats, c’est à
dire un service aux utilisateurs, et ne sont pas intéressés par le détail des technologies
informatiques. Ils préféreraient donc acheter un service global produit sous la
responsabilité d’un fournisseur, plutôt que se procurer les produits individuels
nécessaires et conserver la responsabilité de la production du service.

A cette logique peuvent répondre diverses formes de relation client-fournisseur.


La variante la plus complète implique que le client sous-traite l’ensemble des tâches de
conception, de construction et de mise en place du système ainsi que la gestion
quotidienne de son fonctionnement. Le prestataire est ainsi totalement responsable des
résultats obtenus et de leur conformité au cahier des charges établi par le client.

cccxvi
Dans des variantes plus limitées, le client peut sous-traiter la construction du
système et tout ou partie du choix de ses éléments. C’est l’activité d’intégration de
systèmes, où le prestataire remet au client un système en état de marche que ce dernier
aura la charge de faire fonctionner. A l’inverse, le prestataire peut prendre en charge la
gestion opérationnelle d’un système existant, dont il peut acquérir la propriété et dont il
peut assurer l’évolution ultérieure. On parle alors d’infogérance ou « facilities
management ».

La justification économique de ces formes de service repose sur le partage des


ressources intellectuelles nécessaires à la conception, à l’intégration et à la production
du service, sans exclure le partage éventuel de ressources matérielles, mais sans en faire
l’essentiel de la prestation. De nombreuses firmes de services et certains généralistes
déclarent fonder de grands espoirs sur une croissance spectaculaire du marché de
l’intégration de systèmes ou de l’infogérance, et certains commentateurs prédisent que
le futur de l’industrie informatique sera dominé par ces deux prestations.

N’est-ce que la résurgence d’un vieux mythe classique, ou au contraire un


pronostic cette fois raisonnable, ou plus simplement un discours commercial de
circonstance destiné à créer une mode profitable à certains offreurs ? Tentons d’y voir
clair en reprenant l’analyse des relations entre produits et services que nous avons
commencée au chapitre 13.

Observons tout d’abord que l’intégration de systèmes et l’infogérance sont de


natures très différentes par leur impact sur les structures industrielles. L’intégration de
systèmes est un service de support dans la mesure où elle consiste en une intervention
temporaire d’un prestataire spécialisé, le système et tous ses composants devenant
propriété de l’utilisateur à la fin de cette intervention, même s’ils ont transité par ce
prestataire pendant l’opération d’intégration. Elle ne remet pas vraiment en cause la
structure de l’industrie puisque le client final reste en relation avec l’ensemble des
fournisseurs et joue souvent un rôle décisif dans les choix concurrentiels, même si
l’intégrateur occupe une place privilégiée. Nous avons vu précédemment que cette
prestation relève de la dynamique normale du secteur des services. Son développement
est favorisé par l’éclatement de l’industrie, et les firmes ou les organisations qui s’y
spécialisent y jouissent d’un avantage concurrentiel sur les généralistes.

Dans l’infogérance au contraire, le client achète un service à un prestataire unique


au lieu d’acheter des produits aux différents fournisseurs spécialisés. C’est ce prestataire
qui sera responsable de l’essentiel des choix de produits nécessaires à la production du
service et des relations avec les autres fournisseurs pour le compte des utilisateurs. Nous
avons appelé ce type de service un service « de substitution » car il remplace la relation
normale du client avec les fournisseurs de produits, matériels et logiciels. Si, comme le
prédisent certains augures, ce type de services prend une place dominante sur le marché,
ses prestataires pourraient jouer un rôle clé dans l’évolution des structures industrielles.

L’économie de l'infogérance

Pour qu’une prestation existe de façon permanente, il faut qu’une firme au moins
l’offre et y réalise un profit de façon durable. Cela suppose d’une part qu’il existe des

cccxvii
clients pour lesquels cette prestation présente des avantages par rapport à d’autres
façons de satisfaire le même besoin. Dans ce cas précis, ceci implique que le coût du
contrat est inférieur au coût des ressources internes nécessaires pour produire le même
résultat en niveau et qualité de service.

Simultanément, il faut que le fournisseur réalise un profit, c’est à dire que le


montant du contrat soit supérieur à son coût pour le prestataire. Au total, le coût pour le
prestataire doit être très inférieur au coût que le client supporte ou devrait supporter
pour le même résultat. Si cet avantage de coûts résulte d’investissements consentis par
le prestataire, le marché doit de plus être de taille suffisante pour justifier les
investissements, autrement dit pour qu’une firme au moins atteigne l’échelle
économique de production.

Dans la comparaison du montant du contrat aux coûts internes, le client ne doit


évidemment faire entrer que le coût des ressources que le contrat lui permet
d’économiser. Ceci implique que, contrairement à une certaine orthodoxie comptable, la
valorisation des ressources internes se limite aux coûts directs. Raisonner en coûts
complets impliquerait en effet que, dans l’hypothèse où l’entreprise choisit la solution
d’infogérance, elle réaliserait effectivement les économies de ressources qui
correspondent à la part « répartie » du coût complet, c’est à dire la Direction Générale,
les services fonctionnels, … ce qui est extrêmement peu probable.

Pour qu’un contrat d’infogérance soit réellement intéressant sur le plan financier,
il faut que son montant soit inférieur au coût direct des ressources informatiques auquel
il se substitue. Cette règle est évidemment défavorable à l’infogérance, mais représente
la seule base de comparaison réaliste.

A l’opposé, pour que le contrat soit profitable pour le prestataire, son montant doit
couvrir le coût complet des ressources d’exécution qui lui sont consacrées, plus les frais
commerciaux découlant de l’établissement de la proposition et du contrat, ainsi que de
l’activité commerciale en général et des propositions non suivies d’effet. Il doit enfin
laisser à l’entreprise une marge suffisante. Or les coûts unitaires des ressources de base
sont en gros les mêmes pour l’entreprise de services et pour ses clients. Le prestataire
doit donc savoir réaliser une économie d’au moins 20% sur les ressources réelles
consacrées au contrat, par rapport à celles que le client utilise ou aurait utilisé. Cette
économie nécessaire monte à 40% si le prestataire veut faire bénéficier son client d’une
réduction de 20% de ses dépenses informatiques, comme certains n’hésitent pas à le
promettre.

On voit difficilement quelles économies réelles de cet ordre de grandeur un


prestataire pourrait réaliser, sans impacter le niveau et la qualité de service, que le client
ne pourrait pas réaliser lui-même s’il en avait la volonté. Le partage de ressources
matérielles entre clients ne peut plus être source d'économies substantielles et peut poser
des problèmes de sécurité, de performances et de gestion. La source d’économies
potentiellement la plus prometteuse est une pure et simple réduction des effectifs
d’exploitation, mais ces réductions pourraient la plupart du temps être effectuées aussi
bien par le client que par un prestataire.

cccxviii
Reste un potentiel limité de partage de compétences critiques. Mais s’il existe des
activités où le partage avec d’autres peut engendrer une économie substantielle, cela
peut justifier une offre de services limitée à cette activité, mais reste insuffisant pour
justifier une offre de services globale. Dans une concurrence entre une offre globale
dans laquelle la majorité des activités n’est pas profitable et des offres spécialisées
limitées aux activités profitables, ces dernières l’emportent nécessairement en forçant
les offreurs intégrés à dissocier leurs prestations, comme nous l’avons vu au chapitre
précédent.

En résumé, dans l’immense majorité des situations, il n’existe pas de base


économique justifiant que le prix d’une prestation d’infogérance globale soit
notablement inférieur au coût des mêmes prestations en interne. Il faut donc s’attendre à
beaucoup d’échecs et d’abandons du côté des fournisseurs, à de nombreuses
désillusions du côté des clients.

Dans un marché vaste et de plus en plus divers, il peut néanmoins exister un


nombre suffisant de cas, nécessairement atypiques, où la prestation est justifiée même si
les avantages financiers pour le client sont très ténus. Les slogans habituels nous
permettent-ils de caractériser ces cas ? Certainement pas « se concentrer sur son
métier » qui est un slogan d’autant plus creux qu’une informatique intelligente est
nécessairement intégrée à tous les métiers de l’entreprise. Pas non plus « transformer
des coûts fixes en coûts variables » car la plupart des contrats comportent des
engagements pluriannuels que n’importe quel auditeur compétent aura tôt fait de
réintégrer dans les engagements hors bilan. Ni même « confier la gestion à de vrais
spécialistes » car si l’entreprise en manque, elle a tout intérêt à en recruter, ne serait-ce
qu’à temps partiel.

La problématique de l’internalisation et de l’externalisation proposée par


Williamson et présentée au chapitre 14 peut-elle s’appliquer au choix entre faire et faire
faire, c’est à dire, pour utiliser la terminologie de Gershuny, au choix entre le self-
service et le service ? En l’absence d’avantages de coût déterminants, recourir à
l’organisation plutôt qu’au marché a pour effet d’économiser les coûts de transaction,
qui sont d’autant plus élevés que les actifs concernés sont plus spécifiques de
l’entreprise, que la transaction est plus fréquente et que sa réalisation est plus sujette à
incertitude.

Or la plupart des systèmes informatiques sont propres à l’entreprise utilisatrice, et


ce d’autant plus que l’informatique est intégrée à la vie courante de l’entreprise,
comporte un grand nombre de programmes et de transactions spécifiques, et doit
répondre à des contraintes locales de confidentialité, de sécurité et de fiabilité. De plus,
un système informatique bien intégré vit avec l’entreprise. Si sa définition doit faire
l’objet d’une transaction contractuelle, de telles transactions seront très fréquentes et
affectées d’un certain niveau de risque. Au total, pour des informatiques bien conçues et
efficaces, tout pousse à l’internalisation plutôt qu’au recours à un prestataire extérieur.
Les exceptions pourraient être des situations où le système informatique est peu intégré
à l’entreprise, où les transactions entre l’informatique et ses utilisateurs sont rares et
bien formalisables, à des systèmes stables et peu évolutifs, autrement dit à une
informatique ancienne et mal utilisée.

cccxix
Dans de tels cas, la priorité devrait être une refonte totale du système, qui peut
être facilitée en sous-traitant l'exploitation du système existant pour consacrer les
ressources de l’entreprise à développer le nouveau, ou au contraire en confiant à un
prestataire la totalité du développement et de l’exploitation du nouveau système. Mais
dans ce dernier cas, si le système nouveau est réellement un système moderne bien
adapté, il sera trop intégré à la vie de l’entreprise pour que son exploitation soit sous-
traitée, et celle-ci sera d’ailleurs assez peu coûteuse pour que cela en vaille la peine.
Dans un cas comme dans l’autre, la situation d’infogérance ne saurait être que
temporaire. C’est ce qu’on appelle le « FM de transition ».

Sous sa forme la plus complète, qui répondrait pourtant le mieux aux besoins
supposés du marché, où le prestataire aurait à la fois la responsabilité de l’intégration du
système et de la production permanente du service, l’infogérance est en réalité
extrêmement peu pratiquée. Le plus souvent, le prestataire reprend un système
préexistant déjà opérationnel chez le client, y compris souvent le personnel, en
promettant des économies sur les coûts d’exploitation. Cette approche élimine les
risques liés à la conception et au développement, mais limite par là même les
possibilités d’économies sur l’exploitation. Son effet le plus évident est de reporter sur
le prestataire les problèmes sociaux inhérents à la réduction des effectifs d’exploitation,
ce qui peut être un argument suffisant pour certains clients.

Au-delà des modes actuelles, qui ne touchent d’ailleurs qu’un petit nombre de
comptes, un contrat global d’exploitation à long terme ne peut satisfaire qu’un marché
de firmes « démissionnaires » ou de cas exceptionnels. La tendance actuelle est à
l’éclatement en prestations limitées dans le temps et répondant aux besoins précis d’une
étape particulière, ou différenciées par leur nature et définies par la sous-traitance de
tâches spécifiques. Un exemple actuellement populaire est la gestion du parc de micro-
ordinateurs, qui ne concerne que l’infrastructure et non la superstructure applicative.
Les tâches correspondantes sont génériques, relativement faciles à spécifier et à évaluer,
et peuvent être couvertes par un contrat standard, ce qui fait de ce service un quasi-
produit.

A côté de la variété de prestations et d’opportunités diverses liées à l’exploitation,


l’infogérance complète est donc une niche étroite répondant à des besoins précis et
exceptionnels. Sa vogue médiatique éphémère peut s’interpréter comme une tentative
promotionnelle des grandes sociétés de services informatiques, relayée par des
commentateurs complaisants, et visant plus ou mois consciemment à réintroduire dans
le secteur des services une logique de service complet intégré et une dynamique de
secteur concentré, où la taille et la diversification redeviendraient la source d’avantages
concurrentiels. Mais l’infogérance est en passe d’être rattrapée par la dynamique
dominante d’éclatement et de spécialisation avant d’avoir pu prendre sur le marché la
place que de nombreux gourous lui ont prédite et que certains offreurs ont espérée.

Partenariats et alliances

Devant les problèmes que pose au marché l’éclatement de l’offre informatique, les
offreurs peuvent trouver des avantages concurrentiels à nouer des alliances entre eux,
qui peuvent viser des objectifs très divers et prendre des formes juridiques et

cccxx
contractuelles variées. Mais de la même façon qu’il est vital pour une firme que sa
personnalité soit cohérente avec ses activités, il est important pour une alliance que sa
forme soit cohérente avec ses objectifs. Sinon, la sanction est la même : une alliance
inadaptée à son objet échouera comme une firme inadaptée à son secteur.

Examinons donc les différentes modalités de rapprochement entre entreprises, en


les comparant aux différentes motivations possibles, afin de mieux comprendre
comment les entreprises peuvent s’organiser entre elles pour satisfaire le marché, et
aussi pour mieux interpréter la signification industrielle réelle des alliances que la
presse rapporte presque chaque jour.

Participations en capital et coopérations industrielles

Les accords entre entreprises peuvent comporter des participations en capital


allant de la prise de participation symbolique à la prise de contrôle, mais peuvent aussi
se réduire à des accords contractuels, voire purement moraux. Examinons séparément
les aspects industriels, ou opérationnels, et les aspects capitalistiques que traduisent les
participations, afin de déterminer en particulier dans quelle mesure les deux sont liés.

Rappelons tout d’abord quelques évidences facilement oubliées dans l’ivresse de


la spéculation capitaliste. Premièrement, le pouvoir que donne une participation est a
priori proportionnel à la hauteur de cette participation. En règle générale, posséder 5%
du capital d’une entreprise donne droit, outre à 5% des bénéfices ou des pertes, à 5%
des droits de vote à l’assemblée générale des actionnaires. En termes de pouvoir, le
propriétaire de 5% du capital a tout juste l’occasion de donner son avis une fois par an
sur les orientations générales de l’entreprise, et s’il a la chance que ces 5% lui valent un
siège au Conseil d’Administration, la possibilité de participer aux délibérations de celui-
ci, avec un poids qui reste proportionnel à sa part du capital. Il faut franchir le seuil
magique de la « minorité de blocage » (33% en droit français) pour bénéficier du droit
purement négatif de s’opposer à certaines décisions, et celui de 50% pour obtenir la
certitude de pouvoir orienter les actions de l’entreprise.

A partir de cette arithmétique simple commence le jeu subtil des coalitions et des
luttes d’influence qui fait les délices des banquiers d’affaires et des administrateurs
professionnels, et qui donne à une participation donnée un poids différent selon la façon
dont est réparti le reste du capital, et selon la position active ou passive, amicale ou
hostile, des autres actionnaires. Une prise de participation minoritaire peut être un pied
dans la porte, une position d’attente ou un renfort à une coalition existante. Mais la
plupart du temps, quand un investisseur décide d’entrer au capital d’une entreprise, il ne
peut en général que faire abstraction des coalitions potentielles futures et agir en
fonction de ce qu’il acquiert dans l’immédiat. C’est le point de vue que nous adopterons
dans la suite de cette analyse.

Par elles-mêmes, les prises de participation peuvent répondre à des motivations


très diverses, auxquelles correspondent normalement des conduites tout aussi
différentes, et qui peuvent se schématiser comme suit :

La première motivation possible est de placer intelligemment des disponibilités


financières pour les faire fructifier. L’acquéreur recherchera une entreprise rentable et

cccxxi
solide où il peut faire confiance aux dirigeants en place. Il se gardera d’intervenir dans
sa gestion et se contentera donc d’une participation minoritaire, dont il peut facilement
se débarrasser si nécessaire. C’est la motivation « du banquier ».

Les motivations du « redresseur » et du « repreneur » ont un certain nombre de


points communs. Tous les deux rechercheront des entreprises bon marché, donc
probablement en difficulté, où ils pensent que leur intervention personnelle peut
restaurer une situation satisfaisante. Ils doivent pour cela détenir la majorité, se séparer
des dirigeants en place et prendre personnellement les rênes de l’entreprise. Mais alors
que le repreneur vise le long terme et entend rester longtemps à la tête de l’entreprise, le
redresseur a pour objectif de la céder rapidement en réalisant une plus-value.

Une variante de la stratégie du redresseur est celle du « vautour », où l’acquéreur


a déterminé que certaines activités de l’entreprise cible, prises isolément, ont une valeur
totale supérieure au prix auquel il pense pouvoir acheter l’entreprise. Son objectif est
donc de séparer les différentes activités de l’entreprise afin de les revendre une par une,
en éliminant les activités non vendables. A l’issue d’une telle intervention, l’entreprise
dans son périmètre originel n’existe plus.

Parmi les motivations ci-dessus, seule celle du repreneur correspond à une


véritable motivation industrielle par laquelle l’acquéreur s’implique pour contribuer à la
prospérité à long terme de l’entreprise, mais elle n’entraîne aucune modification
structurelle du secteur, comme d’ailleurs les actions des redresseurs. Les actions des
« vautours » tendent à faire éclater les firmes diversifiées en difficulté, et contribuent
donc à la spécialisation des firmes et à la fragmentation de l’industrie.

Les participations minoritaires ne donnent pas le pouvoir d’orienter


unilatéralement les actions de la firme, et ne peuvent pas par elles-mêmes permettre
d’atteindre des objectifs proprement industriels. Elles sont néanmoins souvent utilisées
pour symboliser une coopération entre firmes. Mais dans ce cas, seuls comptent
vraiment au plan industriel les accords industriels sous-jacents ou ceux qui résulteront
du dialogue noué à travers la prise de participation.

En général, ces accords pourraient aussi bien exister et fonctionner sans


participation au capital. En tout état de cause, les possibilités de coopération positives
entre firmes indépendantes sont limitées, et posent suffisamment de problèmes
opérationnels pour devoir être concrétisées de façon détaillée.

Non seulement une participation en capital ne suffit pas à instaurer une


coopération opérationnelle, mais quand cette coopération fait l’objet d’accords
spécifiques et explicites, elle ne peut être suivie d’effet qu’à l’issue d’actions en
profondeur sur l’organisation et la gestion.

A l’intérieur d’une entreprise, la volonté de la Direction n’est pas exécutée sans


une organisation appropriée, ou si elle est contraire à la culture de l’entreprise, comme
nous l’avons vu au chapitre 9. De la même façon, il ne suffit pas de signer un accord
entre les Directions de deux entreprises pour que cet accord soit automatiquement suivi
d’effet. Encore faut-il que les personnes concernées dans l’entreprise agissent
conformément aux termes et aux objectifs de l’accord, ce qui demande des dispositions

cccxxii
de management spécifiques, voire des modifications de la structure et des systèmes de
gestion. Même après ces actions de direction, les objectifs ne seront atteints que si le
comportement attendu n’est pas en contradiction avec les objectifs propres et la
personnalité de l’entreprise. Ceci implique une certaine parenté entre les entreprises, ou
du moins entre les parties des entreprises concernées par la mise en œuvre des accords.

Face à ces risques, l’intérêt des parties est donc que les accords aient un objet
limité et clair, que les risques d’échec soient reconnus et pris en compte et que les
entreprises conservent toute leur indépendance dans les domaines non concernés par
l’accord. On préférera donc les formes d’accord qui exigent le niveau d’engagement le
plus bas possible qui soit néanmoins compatible avec l'objectif commun. Pour la même
raison, les accords devront avoir une durée limitée et prévoir les dispositions à prendre
en cas d’échec.

Autrement dit, dans l’immense majorité des cas où des accords contractuels
suffisent à définir la coopération souhaitée, il vaudra mieux éviter les participations en
capital. De même, si les parties au contrat peuvent respecter leurs engagements en
restant chacune maîtresse de ses ressources, il sera préférable d’en rester à ce type
d’accord et d’éviter la création de filiales communes.

Si l’objectif est simplement de se mettre d’accord sur des standards communs, la


formule la plus appropriée est celle du club informel. S’il s’agit d’établir des relations
client-fournisseur privilégiées comportant des clauses préférentielles, ou d’exploiter des
positions complémentaires sur le marché, c’est la forme contractuelle qui devra être
retenue. Il en va de même si l’objectif est d’acquérir ou de mettre en commun des
technologies, ce qui s’apparente à une relation client-fournisseur, ou encore d’associer
des compétences complémentaires comme celles d’intégrateur et celle des experts de
chacun des produits ou domaines d’activité. Ce n’est guère que pour mettre des
ressources en commun dans une structure intégrée qu’il deviendra opportun de créer
une filiale commune et donc de procéder à des actions en capital.

Des accords contractuels sans participation sont beaucoup plus efficaces que des
participations sans accord industriel précis. En dehors de leur rôle de pur placement
financier, les participations minoritaires ne jouent par elles-mêmes qu’un rôle
symbolique, et dans le cas où elles sont assorties d’un siège au Conseil, celui d’un
observatoire permettant d’identifier les opportunités de collaborations opérationnelles et
d’en faciliter la réalisation. Mais réduites à elles-mêmes, elles n’ont aucune importance
opérationnelle a priori.

Contrairement à une opinion répandue, il en va de même des relations à l’intérieur


d’un groupe. Pour une entreprise, tenir compte des intérêts d’une autre entreprise, même
si elle appartient au même groupe, peut être un handicap concurrentiel que les avantages
de l’appartenance au groupe ne parviennent pas à compenser. Si l’appartenance à un
groupe est le prétexte à une intégration excessive, c’est une garantie d’affaiblissement et
non de renforcement.

cccxxiii
Participations majoritaires et acquisitions

La motivation proprement industrielle la plus fréquente des acquisitions est de


subordonner la firme acquise à son acquéreur, afin de construire, à partir de deux
entreprises indépendantes, une entité nouvelle dotée d’avantages concurrentiels que ni
l’une ni l’autre ne possédait antérieurement. Elle s’apparente à la motivation du
repreneur et n’a rien à voir avec les motivations du banquier, du redresseur ou du
vautour. L’objectif industriel d’une acquisition de ce type peut être atteint dans une
variété de cadres juridiques, allant de simples participations en capital à une absorption
totale avec disparition de l’une des firmes, en passant par le contrôle majoritaire d’une
firme par l’autre. En tout état de cause, elle implique des changements de stratégie qui
nécessitent la prise de contrôle d’une firme par l’autre, et dans certains cas changements
de dirigeants et des restructurations importantes.

Le public non averti pense que les transactions en capital qui accompagnent une
prise de contrôle constituent l’événement important. En réalité, pas plus qu’une prise de
participation, une prise de contrôle ne suffit à changer les stratégies des firmes
concernées. Réaliser les synergies potentielles qui ont motivé l’acquisition exige un
travail dont le coût et la durée sont le plus souvent sous-estimés. Si ce travail n’est pas
entrepris dès l’acquisition, les synergies et donc les bénéfices attendus ne se réalisent
pas. S’il est entrepris, il coûtera de nombreux efforts assez lourds pour décourager
l’acquéreur de les mener tous à bien, et qui peuvent de toute façon encore échouer.

Bref, acquérir une entreprise, ou entrer à son capital à quelque hauteur que ce soit,
est à un projet industriel ce que prendre un billet d'avion pour Katmandou est à
l'ascension de l'Himalaya. On a dépensé une partie du budget, mais l’aventure n’est pas
encore commencée et tous les échecs sont encore possibles.

Un cas courant est celui d’une entreprise de progiciel, qui occupe par exemple
40% d’un certain marché, et qui acquiert une autre entreprise qui en détient 25%. Les
commentateurs s’empressent d’acclamer le fait que l’acquéreur détient maintenant 65%
du marché. Mais c’est se laisser abuser par une illusion arithmétique, en oubliant qu’il
s’agit toujours à ce stade de deux produits différents, et que les économies d’échelle ne
se réaliseront que lorsque tous les utilisateurs utiliseront le même produit. Pour y
parvenir, la firme devra consentir des investissements commerciaux et de
développement, et il est probable qu’une partie des clients profiteront de cette
conversion forcée pour s’adresser à un autre fournisseur. Au bout du compte, l’acheteur
aura dépensé notablement plus que le prix d’acquisition pour acquérir une part de
marché inférieure à celle de la société acquise.

D’une façon générale, l’ampleur et la difficulté des efforts à consentir sont


évidemment d’autant plus grands que les deux firmes étaient au départ éloignées par
leurs activités, leur cycle de fonctionnement, leur organisation et surtout leur culture.
Souvent l’acquéreur sous-estime les incompatibilités culturelles et, en cherchant à
brusquer la fusion pour en récolter rapidement les bénéfices, il n’arrive qu’à provoquer
le départ des meilleurs collaborateurs de l’entreprise acquise, ce qui la vide de sa
substance.

cccxxiv
Dans le cas où les entreprises appartiennent au même secteur, d’autres difficultés
sont à attendre du fait qu’elles étaient concurrentes avant l’acquisition. Il va falloir
consolider et rationaliser les productions, donc abandonner certains produits en
mécontentant à la fois ceux qui les avaient créés, ceux qui les vendaient et les clients qui
les utilisaient. Il faudra consacrer du temps et des efforts à apaiser les querelles internes
pour faire collaborer les adversaires d’hier. Tout cela demandera du temps, car ceux qui
se consacraient à lutter contre vos produits n’en deviennent pas du jour au lendemain les
avocats les plus actifs ni les plus crédibles.

Les quelques études objectives qui ont cherché à évaluer le résultat réel des
acquisitions concluent toutes que la majorité d’entre elles échoue, dans la mesure où les
espoirs qui avaient initialement motivé l’opération ne se réalisent pas par la suite. Le
pourcentage d’échecs est estimé à 60% si les deux firmes opéraient dans le même
secteur, à 80% si elles opéraient dans des secteurs différents. La Bourse ne s’y trompe
d’ailleurs pas. En règle générale, dès que la rumeur dit qu’une firme va être rachetée,
ses actions montent. Par contre, quand la transaction est annoncée, les actions de
l’acquéreur baissent. Autrement dit, l’effet immédiat d’une acquisition est d’affaiblir
l’acquéreur. L’effet à long terme dépend des actions qui seront engagées après
l’acquisition, et de leur succès. Le seul gagnant certain est le vendeur, c’est à dire les
actionnaires de la firme acquise, qui ont empoché la plus-value créée par les espoirs de
l’acquéreur même si ce dernier échoue à les réaliser.

Au total, pour l’observateur neutre, les cas où l’acquisition d’une autre entreprise
aboutit réellement à renforcer la firme devraient être considérés comme des exceptions
et non comme la règle. A l’annonce d’une acquisition, et en l’absence de détails
spécifiques qui permettraient de prévoir exceptionnellement une réussite, les pronostics
les plus vraisemblables sont au nombre de deux. Ou bien les deux firmes continueront à
coexister et à mener des stratégies largement indépendantes et conformes à la logique de
leur secteur, quels que soient leurs liens capitalistiques, et rien n’aura réellement
changé. Ou bien la firme acquise sera éliminée, l’acquéreur sera affaibli à court terme
par ses efforts et ses problèmes internes, ainsi que par les dépenses d’acquisition, et
l’effet à long terme sera négligeable. Dans un secteur dispersé très dynamique en
évolution rapide, on peut même craindre que l’affaiblissement temporaire consécutif à
l’acquisition ne se transforme en handicap à long terme s’il empêche la firme de saisir à
temps les opportunités de marché. Ce pronostic peut évidemment souffrir des
exceptions, mais ce serait une erreur de les considérer comme la norme.

Mis à part les cas de simple construction de conglomérats, on peut se demander


dans ces conditions pourquoi les entreprises utilisent une politique de fusions et
acquisitions comme instrument d’un projet industriel, certaines même de façon très
agressive par le nombre ou la taille des sociétés acquises. Plusieurs facteurs entrent
probablement en jeu : la méconnaissance ou la sous-estimation des problèmes réels de
compatibilité entre cultures, la conviction d’être dans le cas particulier qui réussira,
l’optimisme congénital des entrepreneurs, etc. Le plus important est peut-être que de
nombreux dirigeants se sentent plus à l’aise dans les « jeux de meccano » capitalistes,
qui leur procurent à la fois un domaine réservé, un espace de liberté et un sentiment de
supériorité, plutôt que dans le détail fastidieux de la gestion des opérations de vente et
de production qui forment la vie réelle de l’entreprise, mais où ils sont souvent moins
compétents que leurs subordonnés. On a souvent l’impression d’un clivage entre deux

cccxxv
types de dirigeants : ceux qui s’occupent de gérer convenablement l’entreprise et pour
qui les transactions en capital appartiennent à un univers étranger, et ceux qui voient la
vie de l’industrie comme un jeu de participations au capital de « boîtes noires » qu’ils
seraient bien incapables de diriger.

Ces différences d’attitudes et de compétences sont d’ailleurs tout à fait légitimes.


Le métier d’actionnaire et celui de dirigeant opérationnel sont deux métiers différents
tout aussi utiles l’un que l’autre, mais qui mettent en jeu des motivations différentes, des
visions différentes de l’entreprise et des répertoires différents d’interventions possibles.
C’est une erreur très répandue que de les confondre, que ce soit de la part de
l’observateur ou, ce qui est beaucoup plus grave, dans l’action.

Partenariats et « coopétition »

Le monde éclaté de l’informatique contemporaine contraste avec le monde ancien


non seulement par la spécialisation de ses acteurs, mais aussi par l’abondance et la
diversité des alliances qui les associent. Certains observateurs s’étonnent de cette
situation de « coopétition » (pour coopération-compétition) où on ne sait plus qui est
l’adversaire et qui est l’allié de qui. Essayons de proposer quelques éléments pour
débrouiller cet écheveau et discerner la signification et l’importance réelle des annonces
de partenariat rapportées quotidiennement par la presse.

Une première règle sera de chercher à distinguer la réalité de l’accord, c'est à dire
ses motivations et ses dispositions industrielles ou financières, derrière les motivations
commerciales ou d'image qui expliquent sa présentation. On vérifiera en particulier si
telle annonce spectaculaire de « partenariat » ne déguise pas une simple relation de
client à fournisseur tout à fait ordinaire, comme c’est souvent le cas. Un grand titre
comme « la Société X s’allie au constructeur Y pour l’informatisation de ...» annonce le
plus souvent une simple commande de matériel, de même que « le constructeur de
micro-ordinateurs Z devient partenaire d’Intel » veut dire que Z a décidé de
s’approvisionner en puces chez Intel comme des centaines d’autres.

Un véritable partenariat se définit par un partage des risques et implique que les
parties fonctionnent selon des schémas autres que leurs pratiques contractuelles
normales. Si par exemple une entreprise confie à une autre tout ou partie du
développement ou de la fabrication d’un produit, il faudra se demander qui fixe les
spécifications, qui fixe le prix de vente et qui prend quel risque sur le revenu. Si le
produit est défini unilatéralement par la firme donneuse d’ordre et que le revenu du
sous-traitant ne dépend que de la conformité aux spécifications, il s’agit d’une sous-
traitance normale. Il n’y a partenariat réel que si le sous-traitant participe à la définition
du produit et si son revenu dépend du chiffre d’affaires réalisé par le donneur d’ordre.

Une deuxième règle est de dissocier les participations et les accords industriels, et
de toujours chercher les accords derrière les participations. En l’absence d’accords
explicites, on pourra ignorer les participations minoritaires comme sans importance en
termes opérationnels, et attendre l’annonce d’accords concrets.

Pour les prises de contrôle, on recherchera de même les projets industriels sous-
jacents, en les rapprochant des tendances structurelles générales, et en se posant la

cccxxvi
question de la compatibilité culturelle des firmes en cause. En l’absence de
renseignements spécifiques sur la transaction, l’attitude la plus réaliste est de poser en
principe que toute acquisition a de fortes chances d’être une erreur de gestion, ou de le
devenir à terme. A partir de ce postulat, il faut ensuite rechercher s’il existe des raisons
de penser que cette acquisition particulière peut par exception se révéler une bonne
affaire pour l’acquéreur, en mesurant bien ce que la réalisation lui coûtera de temps et
d’efforts en sus du prix de l’acquisition. Une fois ce coût réel établi, il conviendra de
comparer les résultats de l’acquisition aux autres actions qui auraient été possibles pour
le même coût.

En troisième lieu, il faut se souvenir qu’il y a de bonnes et de mauvaises alliances,


que toute alliance ne renforce pas nécessairement les firmes qui s’y engagent, et qu’une
alliance, même bonne en théorie, peut réussir ou échouer selon la façon dont elle est
gérée. Que ce soit ou non dans le cadre d’une alliance, chaque entreprise ne vise que son
propre intérêt. Une alliance doit permettre à chacun de ses membres de gagner plus, de
dépenser moins ou les deux. En outre, on ne peut pas recevoir sans donner, si bien
qu’une bonne alliance impose à chaque partenaire des contraintes qui doivent être plus
que compensées par ses gains.

Il faudra donc toujours regarder la part négative de l’accord, c’est à dire ce que
chaque partenaire s’interdit de faire, soit contractuellement, soit de fait en acceptant une
limitation de ses ressources ou en abandonnant leur contrôle. Il faudra comparer les
gains et les sacrifices de chaque entreprise et estimer comment leurs motivations se
rencontrent et s'accordent. Enfin, il faudra se souvenir qu’une bonne alliance a un objet
limité et précis, que les alliances trop ambitieuses ou trop vagues ont toutes chances
d’échouer, et enfin que des changements de l’environnement peuvent rendre caduque
une bonne alliance.

Vers une recomposition ?

Nous avons montré que le mouvement majeur observable dans l’informatique


tend à faire éclater l’industrie en secteurs spécialisés, et nous ayons pu démonter la
logique de ce mouvement. Il est néanmoins légitime de se demander si ce mouvement
est irréversible. Y a-t-il des raisons de penser qu’un mouvement de recomposition va se
dessiner à travers le phénomène des alliances que nous venons d’analyser ? Si oui, qui
touchera-t-il et où mène-t-il ? Autrement dit, existe-t-il des motivations qui poussent ou
pousseront les entreprises à des actions allant dans le sens de l’intégration ? Existe-t-il
d’autre part au niveau global des mécanismes économiques ou concurrentiels de nature
à amplifier ces actions d’intégration et à les transmettre à l’ensemble de l’industrie ?

On peut facilement admettre que les motivations sont puissantes et répandues,


même si elles ne sont pas toujours très rationnelles. Presque toutes les entreprises
cherchent à grandir, et ne se satisfont pas toujours de faire mieux et plus de ce qu’elles
font déjà. Diriger une grande entreprise est plus prestigieux que diriger une petite,
d’autant plus que les palmarès sont généralement classés par ordre de chiffre d’affaires
ou de bénéfices en valeur absolue. Les dirigeants qui réussissent désirent élargir leur
domaine à d’autres secteurs, certains de détenir les recettes du bon management et
convaincus que leur réussite passée garantit leur réussite future. Ceux qui connaissent

cccxxvii
des difficultés sont nombreux à les imputer à un mauvais choix de secteur et à croire
qu’en changer résoudra leurs problèmes. En abordant une nouvelle activité, la firme
peut espérer exploiter plus complètement ses avantages concurrentiels réels, latents ou
supposés, ou tout simplement investir les bénéfices accumulés grâce à ses succès
précédents. Enfin, toute une littérature présente les actions de diversification et
d’acquisition comme le comportement normal de l’entreprise, encouragé par les
banques d’affaires et les consultants qui en vivent.

Nous n’entrerons pas ici dans les controverses sur les finalités de l’entreprise. Il
nous suffira de constater que, justifiées ou non, de nombreuses entreprises s’engageront
dans des actions de « diversification ». Notre propos est d’examiner lesquelles de ces
actions ont des chances de réussir assez fréquemment pour que la structure de
l’industrie en soit modifiée.

Les processus de recomposition

Pour se développer, une entreprise peut utiliser deux méthodes : ou bien compter
sur une simple croissance endogène, ou bien acquérir d’autres entreprises. Dans un cas
comme dans l’autre, les activités nouvelles, qu’elles soient entreprises à l’intérieur de la
firme ou qu’elles fassent l’objet de l’acquisition, peuvent être plus ou moins proches des
activités actuelles. Une acquisition peut même porter sur une entreprise directement
concurrente et donc sur des activités appartenant au même secteur que celui de
l’acquéreur.

L’entrée dans un nouveau secteur par développement propre pose en gros les
mêmes problèmes que l’entrée ex nihilo par création d’une nouvelle entreprise. Quelles
que soient les qualités de la firme d’origine et le secteur où elle opère, l’entrée dans un
secteur dispersé sera facile et l’entrée dans un secteur concentré sera difficile et risquée.
Les activités existantes de l’entreprise témoignent d’avantages concurrentiels dans le
secteur d’origine, qui peuvent ou non se révéler pertinents dans le nouveau secteur et y
seront rarement suffisants. Plus profondément, l’organisation et la culture qui ont permis
à l’entreprise de réussir dans son secteur sont plus ou moins bien adaptées au nouveau.
Les chances de réussite seront maximales si les activités nouvelles s’accommodent de la
même organisation et de la même culture, donc a priori si les cycles majeurs des
activités ont des durées voisines et si les secteurs ont des niveaux de concentration
voisins.

Nous avons également vu que des firmes adaptées aux cycles longs, donc aux
secteurs concentrés, peuvent assez facilement tolérer en leur sein des organisations
adaptées aux cycles courts alors que l’inverse est beaucoup plus difficile. De plus, les
firmes opérant dans des secteurs dispersés ont généralement une profitabilité et des
capitaux modestes, si bien qu’elles ne disposeront qu’exceptionnellement des réserves
nécessaires à l’entrée dans un secteur concentré. Il est donc pratiquement impossible
pour une firme d’un secteur dispersé d’entrer dans un secteur concentré par croissance
endogène. A l’inverse, les firmes de secteurs concentrés peuvent assez facilement tenter
de pénétrer dans des secteurs dispersés, mais elles n’y réussiront durablement qu’à
condition de créer et de préserver pour ces activités une organisation et une culture

cccxxviii
opposées à leur personnalité d’origine, ce qui ne peut guère être garanti que par une
organisation nettement séparée.

Pour une firme opérant au départ dans un secteur dispersé, entreprendre des
activités différentes, mais relevant également d’un secteur dispersé, est une opération
relativement facile et susceptible de réussir. Mais dans ce type de secteurs, les
économies d’échelle potentielles sont peu importantes. Réunir ces deux activités en une
seule firme ne présente donc que des avantages limités qu’il convient de mettre
sérieusement en balance avec la perte possible d’autonomie, d’agilité et de spécificité.
Dans la majorité des cas, deux activités de type dispersé réussiraient aussi bien
séparément. Les réunir ne leur confère un avantage concurrentiel que s’il existe entre
leurs chaînes de valeur de nombreuses possibilités de synergie, et cela pour des
65

activités où l’échelle optimale est assez élevée pour dépasser l’échelle de chacune des
entreprises.

Les évolutions internes aux secteurs

Comment la combinaison des processus d’éclatement et des processus de


recomposition peuvent-ils modifier la structure interne de chacun des secteurs ? En
particulier, si les forces de dés-intégration sont aussi puissantes que le laisse supposer la
discussion précédente, faut-il s’attendre à un éclatement plus poussé des secteurs
actuels ? Ou au contraire, puisque les acquisitions et les extensions internes à un secteur
ont presque une chance sur deux de réussir, le mouvement de re-concentration peut-il
néanmoins l’emporter ?

Dans les secteurs déjà dispersés, augmenter sa part de marché ou élargir sa


gamme n’a pour la firme qu’un intérêt relatif. Mais comme nous l’avons vu au Chapitre
8, ces secteurs laissent de la place pour des stratégies variées, où les stratégies de
spécialisation peuvent a priori coexister avec des stratégies de volume ou de gamme,
pour autant que les cycles de production sont assez voisins pour s’accommoder de la
même organisation et de la même culture.

Ces secteurs, où les obstacles à l’entrée sont faibles et les profits modestes, sont le
lieu de beaucoup de succès éphémères que les entreprises chercheront à étendre, mais
aussi de nombreux échecs qui pourront tenter les repreneurs, les redresseurs et les
vautours. Notons néanmoins que si le véritable actif d’une entreprise en difficulté est
son personnel, comme c’est le plus souvent le cas dans les services, il existe des façons
plus simples et plus économiques de le récupérer que d’acheter la firme. De même, il
vaut souvent mieux créer une nouvelle entreprise qu’en racheter une en difficulté. Au
total, il est probable que les secteurs dispersés, c’est à dire le matériel et les services,
connaîtront une activité de restructuration interne importante mais sans effet sur leur
niveau global de concentration.

Dans les secteurs concentrés, l’acquisition est la modalité la plus normale du


processus de concentration. En effet, le nombre total de firmes est appelé à se réduire,
mais d’autre part, comme nous l’avons vu au Chapitre 7, une part de marché élevée

65 voir dans Porter (L’avantage concurrentiel) la description du concept de chaîne de valeur et de


connexions entre chaînes de valeur.

cccxxix
constitue par elle-même un avantage concurrentiel déterminant. Une firme dominante et
une firme désireuse de quitter le secteur trouveront donc assez naturellement un terrain
d’entente, l’une achetant des parts de marché et peut-être des compétences rares, l’autre
réalisant une partie de ses investissements passés et offrant une voie d’évolution à ses
clients. C’est par exemple ce qui s’est passé entre Intel et Hewlett-Packard.

Mais les entreprises des secteurs concentrés, en particulier dans le secteur des
composants, sont également soumises à de fortes tensions qui vont dans le sens de la
dés-intégration verticale. Pour partager les investissements colossaux et dissocier des
échelles économiques de production et des cycles différents, certaines entreprises se
spécialisent dans l’une des trois étapes principales de fabrication des puces : la
production des tranches de silicium, la gravure des circuits et le conditionnement des
puces. Cette filière de « fonderie » peut être utilisée par des tiers pour faire produire des
circuits de leur conception, ce qui répartit encore les investissements entre des firmes de
production, les « fondeurs », et des firmes qui conçoivent des puces et les font produire
à façon, les firmes de composants « fabless ».

Cet éclatement du secteur des composants est en cours. Des firmes spécialisées
dans une ou plusieurs des étapes de fonderie se créent en Extrême-Orient, le plus
souvent à l’initiative et avec le soutien financier des pouvoirs publics locaux, et se
lancent dans la production des mémoires. Dans le même temps, des entreprises
occidentales abandonnent la fonderie pour ne conserver que la conception des
microprocesseurs. Il ne reste guère qu’Intel et IBM pour maîtriser la totalité des
opérations du secteur y compris la conception et la fabrication des microprocesseurs de
grande diffusion, tandis que quelques autres fondeurs comme Texas Instruments
continuent à concevoir des microprocesseurs spéciaux pour leurs besoins propres. Cette
évolution ralentira probablement la concentration du secteur.

Nous avons vu que le secteur des progiciels, où règne la même logique de


concentration, est en réalité formé d’une multitude de sous-secteurs dont l’intensité
capitalistique, les échelles économiques de production et les cycles couvrent une très
large gamme. Ce secteur est donc déjà fragmenté en fait, mais le mouvement
d’absorption des petites firmes par les grandes semble actuellement plus vigoureux que
le mouvement compensateur de création dans des nouveaux secteurs. C’est donc plutôt
vers une concentration croissante qu’évolue globalement le secteur. Comme nous
l’avons vu au Chapitre 11, il est possible que ce mouvement se ralentisse ou s’inverse si
les nouvelles technologies de développement comme la programmation par objets
réduisent les coûts nécessaires à l’intégration des systèmes, voire déplacent les activités
d’intégration de progiciels vers les utilisateurs.

Les rapprochements entre secteurs

Nous considérerons que deux secteurs se rapprochent si un nombre significatif


d’entreprises de l’un pénètrent dans l’autre, que ce soit par extension d’activités ou par
acquisition. Il faut de plus que les activités fusionnent réellement en une même
entreprise. Si elles ne font qu’appartenir à un conglomérat, ce sont toujours des
entreprises spécialisées si le fait qu’elles aient un même actionnaire ne les empêche pas
de mener des stratégies indépendantes et ne les conduit pas à s’accorder mutuellement

cccxxx
des traitements anormalement favorables. Si d’ailleurs une société tenait trop compte
dans ses actions des intérêts d’une entreprise d’un secteur différent, sous prétexte
qu’elle appartient au même conglomérat, il est fort à craindre qu’elle dégraderait ses
avantages concurrentiels dans son propre secteur.

Nous chercherons donc à identifier les cas où le regroupement des activités de


deux secteurs procure à la firme des avantages concurrentiels supérieurs aux coûts de
compromis qu’elle consent. Si c’est le cas, il est probable que l’opération tentera une
proportion importante des firmes qui se trouvent dans cette situation, et aussi que les
chances de réussite sont raisonnables ; il y aura donc rapprochement réel des secteurs.
Sinon, même si certaines firmes tentent l’opération, elle a de fortes chances d’échouer,
et en cas de réussite de rester l’exception ; les secteurs restent alors distincts. Nous ne
voulons pas ici préjuger de la totalité des approches qui seront tentées, mais identifier
parmi elles les actions qui ont le plus de chance de réussir et d’influencer la structure
générale de l’industrie.

Nous avons vu au Chapitre 9 combien les productions à cycles longs et les


productions à cycles courts sont incompatibles au sein d’une entreprise. Plus
précisément, une entreprise à cycles courts ne peut pratiquement pas tolérer d’enclaves
à cycles longs, alors que l’inverse est possible. En particulier, comme nous l’avons vu
ci-dessus, il est pratiquement impossible à une entreprise à cycles courts de pénétrer
dans un secteur à cycles longs autrement que par acquisition, mais la fusion se heurtera
alors à de graves problèmes de coexistence. De plus, les entreprises à cycle court sont
peu capitalistes. En période faste, elles ne sont pas motivées pour se diversifier, et en
période difficile elles n’en ont pas les moyens. Il est donc hautement improbable que les
secteurs dispersés que sont ceux des matériels ou des services absorbent les composants
ou les progiciels.

Pour des raisons analogues, un rapprochement global entre secteurs dispersés


n’aurait pas vraiment de sens. Qu’il s’agisse pour une firme de matériel d’être présente
dans les services ou pour une firme de services d’offrir certains matériels, l’opération
est relativement facile dans les deux sens. Mais le caractère fondamentalement dispersé
des deux secteurs fait que les parts de marché des firmes seront faibles, et probablement
limité à des niches spécifiques du nouveau secteur, en relation privilégiée avec les
activités de l’ancien secteur.

En revanche, il est envisageable a priori que les composants ou les progiciels


soient présents dans les matériels ou services. Mais quand une entreprise d’un secteur
concentré prend pied dans un secteur dispersé, le secteur dispersé n’en devient pas
concentré pour autant. La part de marché qu’elle peut y espérer est de celles que permet
un secteur dispersé. Autrement dit, si Intel pénètre dans le matériel ou Microsoft dans
les services, la probabilité qu’ils atteignent dans ces secteurs une position aussi
dominante que dans les composants ou les systèmes d’exploitation est minime.

En ce qui concerne les services, il existe de nombreuses raisons pour que les
firmes des secteurs concentrés n’y pénètrent pas à grande échelle. Nous avons vu que la
réussite dans ces activités est extrêmement sensible à la personnalité de la firme, et que
les personnalités requises pour les différentes formes de service sont toutes très
éloignées de celle d’une firme de composants ou de progiciels. De plus, la profitabilité y

cccxxxi
est faible par rapport à celle dont jouissent les producteurs de ces secteurs. Pour ces
raisons, il est probable que la présence des firmes de composants et de progiciels dans
les services se limitera en gros aux services qui sont en support direct de leurs produits,
c’est à dire pour les progiciels l’assistance technique à l’utilisateur, pouvant aller
jusqu’à l’intégration de systèmes autour des produits de la firme. Pour les composants,
les opportunités sont réduites puisque les producteurs ne sont pas en contact direct avec
les utilisateurs, et il est donc probable que les producteurs de composants resteront dans
leur ensemble en dehors des services.

La tentation et les motivations pour les firmes de composants d’être présentes


dans les matériels sont plus évidentes. C’est déjà le cas d’Intel avec des cartes mères,
des cartes d’extension et des machines massivement parallèles et de Motorola pour les
matériels de communication. C’est aussi d’une certaine façon le cas de nombreux
généralistes comme IBM, Digital Equipment, Sun, Silicon Graphics, Hitachi, NEC,
Fujitsu ou Toshiba, qui produisent à la fois le matériel et les composants, même si
beaucoup de ces derniers sont condamnés à abandonner les composants à terme, ou à les
séparer de leurs activités de matériel.

L’éventualité nouvelle serait une menace d’expansion vers l’aval d’Intel, profitant
pour cela de sa puissance financière, ou de PowerOpen qui reconstituerait une IBM
dominatrice intégrant maintenant Apple. On conçoit ce qui motive les producteurs de
composants à être présent sur les marchés des produits finaux, et par ailleurs ce
mouvement d’expansion vers l’aval est facilement réalisable. Mais quelles pourraient
être les motivations et les chances de réussite d’une invasion à grande échelle ?

Il faudrait supposer que les fabricants de composants ont des avantages


concurrentiels déterminants dans l’assemblage de matériels, ce qui est improbable, ou
qu’ils se donnent cet avantage en favorisant leur propre activité d’assemblage par des
prix ou des conditions spéciales. Dans cette hypothèse, ils devraient se livrer à une
discrimination dans la fourniture des puces et s’exposeraient à des contre-attaques sur le
terrain juridique, ainsi qu’à des pertes de parts de marché tant qu’il existe un autre
fournisseur viable de microprocesseurs. Or, tant que le secteur des matériels reste
dispersé, les profits y sont limités. Au total, il est probable que le profit supplémentaire
réalisé sur le matériel serait très inférieur au profit perdu sur les composants.

On peut donc s’attendre à ce que les spécialistes des composants restent


marginalement présents dans le secteur des matériels, mais sans tenter d’y prendre une
part dominante. Les secteurs resteront séparés, et ceux des généralistes qui subsisteront
dans les composants devront donc y mener des politiques autonomes, ce qui s’applique
en particulier à la relation entre PowerOpen et IBM en tant que constructeur de
matériels.

Une possibilité intéressante serait que les firmes de composants absorbent une
partie du secteur des progiciels. Ce mouvement serait cohérent avec les tendances
technologiques lourdes des composants, qui intégreront des fonctions de plus en plus
riches, au premier rang desquelles les fonctions centrales des systèmes d’exploitation. Il
serait favorisé si le logiciel de base éclatait en objets indépendants reposant sur un
micronoyau adapté, dont il serait tentant d’intégrer les fonctions dans le silicium dès
qu’elles seraient raisonnablement stabilisées. On peut alors penser que le mouvement

cccxxxii
continu de migration des fonctions logicielles depuis la périphérie et les firmes
innovatrices, en direction du noyau et des firmes intégratrices, que nous avons décrit au
Chapitre 12, finirait par traverser la frontière qui sépare encore le matériel du logiciel.

Un tel rapprochement est d’autant plus vraisemblable qu’il concerne deux secteurs
concentrés de culture voisine, et que les profits réalisés dans les progiciels sont
attrayants même pour une firme de composants. La partie du secteur des progiciels qui
concerne les systèmes d’exploitation risque donc de s’intégrer progressivement au
secteur des composants, ce qui déplacerait le centre de gravité de l’industrie du progiciel
restante vers les applications et contribuerait à la fragmenter. Dans ce mouvement, ce
sont plutôt les producteurs de composants qui absorberaient des producteurs de
progiciels que l’inverse. Mais certains grands producteurs de progiciels pourraient
vouloir graver une partie de leurs produits dans le silicium et devenir ainsi concepteurs
de puces spécialisées (ASIC pour application-specific integrated circuit) dont ils
confieraient la fabrication à des fondeurs.

Ces conclusions sont résumées dans le tableau ci-dessous, qui donne pour les
secteurs figurant sur chaque ligne la signification la plus probable de l’entrée d’une
firme de ce secteur dans chacun des secteurs figurant en colonne. Aux cas présentés ci-
dessus, nous avons ajouté la possibilité pour certaines firmes de progiciels ou de
services spécialisées dans des domaines d’application particuliers de traduire leur
compétence spécifique en un « objet informatisé », pénétrant ainsi dans le secteur du
matériel.

Mouvements sectoriels
cible
Composants Matériels Progiciels Services
origine

concentration absorption
Composants marginal improbable
normale de fonctions

mouvements support
Matériels improbable improbable
aléatoires client

objets absorption support


Progiciels ASIC
informatisés de fonctions client

objets mouvements
Services improbable improbable
informatisés aléatoires

Conclusions

Malgré les forces favorables à une ré-intégration de l’industrie informatique, qui


proviennent principalement des difficultés des utilisateurs traditionnels et de la
disparition des fonctions traditionnellement assurées par les généralistes, l’éclatement
de l’industrie est durable. Une ré-intégration de grande envergure n’est pas en vue, si ce

cccxxxiii
n’est la poursuite de la concentration dans les secteurs les plus concentrés que sont les
composants et les progiciels de base. Mais cette concentration pourra s’accompagner
d’un éclatement de ces deux secteurs eux-mêmes et d’un rapprochement entre certaines
de leurs composantes, comme la conception de microprocesseurs et le développement
de progiciels. Cette perspective, qui reste une question ouverte, peut affecter l’évolution
de Microsoft et d’Intel d’une part, de la galaxie IBM/Motorola/Apple d’autre part, et par
contrecoup d’une bonne partie de l’industrie.

Au niveau de l’utilisateur, le besoin d’intégration sera satisfait par des réseaux


d’alliances entre firmes indépendantes plutôt que par fusion d’entreprises, par
développement d’intégrateurs spécialisés plus que par le retour de généralistes
intégrateurs. En ce qui concerne l’exploitation, de multiples services d’aide seront
proposés par le secteur des services. Certains disparaîtront rapidement, rendus obsolètes
par l’évolution des produits, mais d’autres besoins apparaîtront qui donneront naissance
à d’autres services. Mais le « self-service » restera la pratique la plus courante, et la
demande ne sera pas suffisante pour provoquer l’explosion spectaculaire du secteur des
services souvent annoncée. En particulier, l’infogérance globale restera un marché de
niches sans importance stratégique globale,

Dans tous les secteurs, et en particulier dans les plus dispersés et les plus
dynamiques comme le matériel et les services, il faut s’attendre à voir se développer,
parmi les multiples stratégies possibles, des tentatives de ré-intégration partielle dont la
plupart resteront isolées et sans effet majeur sur les structures sectorielles. Le
dynamisme de ces secteurs continuera à donner naissance à une multitude d’alliances
répondant à une grande variété de motivations et revêtant des formes très diverses. La
plupart n’ont d’autre importance que médiatique et leur durée sera souvent éphémère. Il
conviendra donc de les considérer avec un œil froid et critique.

Quoi qu’il en soit, on continuera de voir de nombreuses fusions et acquisitions,


dont la plupart échoueront, surtout si elles concernent des entreprises opérant dans des
secteurs différents. Leur effet global sur l’évolution des structures sera en tous cas limité
à des regroupements ou des éclatements d’entreprises à l’intérieur de chaque secteur,
mais sans effet notable sur les frontières sectorielles.

cccxxxiv
Chapitre 16
Les frontières de l'informatique

Où sont les frontières?. Informatisation, échelle et cycles de production. Produits et


services informatisés. Qu’est-ce qu’un ordinateur ? Retour sur les arènes
concurrentielles. L’ordinateur et le moteur électrique. Informatique et communications.
Causes et conséquences de l’ouverture à la concurrence. Quelle convergence ?
Multimédia et autoroutes de l’information. Les cycles économiques et l’informatique.
1950, 1975, 2000, 2025, ... La fin de l’informatique.

Dans ce dernier chapitre, nous allons revenir sur la question des limites de
l’industrie informatique, que nous avons laissée délibérément en suspens à plusieurs
reprises. Dans le chapitre 6, nous avons vu que la théorie économique ne fournit pas de
critères rigoureux permettant d'isoler une partie quelconque du système économique
pour l'étudier indépendamment du reste. Reprenons ici la phrase de Chamberlin : « Le
monde économique peut être considéré comme un réseau de marchés et de secteurs
interdépendants, dont les frontières sont choisies de façon à rendre la représentation
commode, mais qui sont essentiellement arbitraires ». Le concept d’« industrie » qui
nous a servi tout au long de cet ouvrage, et que nous avons défini comme un ensemble
de secteurs interdépendants, est tout aussi arbitraire sinon plus.

Nous avons buté à plusieurs reprises sur cette imprécision. Dans le chapitre 1,
nous avons vu l’informatique se séparer de l’industrie électronique et de la
mécanographie, dont elle était issue, pour devenir une industrie autonome. Dans
l’analyse des statistiques industrielles que nous avons effectuée au chapitre 4, nous
avons vu que ni Datamation ni McKinsey n’incluent la production de composants
électroniques dans l’industrie informatique, alors que ce secteur y joue un rôle central. A
l’inverse, il existe de nombreuses firmes pour lesquelles l’informatique, au sens strict où
nous l’avons définie, n’est qu’une activité parmi d’autres. Faut-il accepter le fait que ces
firmes opèrent dans plusieurs industries ou au contraire considérer que toutes les
activités de ATT, Hewlett-Packard, Canon, NEC, Hitachi, Siemens, Olivetti, Toshiba ou
Xerox sont par définition de l’informatique ?

Ces questions seraient relativement académiques si le terme d’« industrie » n’était


pas fréquemment utilisé et si l’usage courant ne lui donnait pas un sens intuitif. Que
penser par exemple d’une affirmation comme « l’industrie informatique et l’industrie
des communications sont en train de fusionner », qui n’a de sens que si on est capable
de dire d’une part pourquoi elles étaient séparées jusque là, et de préciser d’autre part en
quoi consiste exactement leur rapprochement ?

Nous avons provisoirement défini l’industrie informatique comme « l’ensemble


des organisations qui produisent des biens ou des services entrant dans la composition
des systèmes informatiques ou utilisés dans leur mise en œuvre ». Mais nous avons
immédiatement buté sur une même insuffisance de la définition d’un système

cccxxxv
informatique : il y a maintenant de l’informatique partout, y compris dans des « objets
informatisés » produits par des industries incontestablement différentes comme
l’industrie automobile, l’aéronautique, les appareils ménagers ou les instruments de
musique. A l’inverse, les systèmes informatiques utilisent des produits et services
provenant d’autres industries : communication, financement, etc.

L’appartenance d’un bien ou d’un service à l’informatique a été diversement


appréciée au fil du temps. Nous avons vu en particulier que des services nécessaires à
l’informatique, comme le financement, ont été d’abord offerts par des firmes
informatiques comme partie intégrante de leur offre globale, puis ont été repris par des
firmes spécialistes de ce type de service, mais non spécialisées en informatique. De
même, les firmes d’informatique ont offert des services dont la finalité est autre
qu’informatique, comme les services bancaires ou la messagerie, qui sont maintenant
dominés par les entreprises dont ce type de services est le métier, et pour qui
l’informatique est devenue un outil courant. Dans les deux cas, des activités qui
appartenaient initialement à l’industrie informatique ont migré vers les industries
utilisatrices.

La dynamique propre des secteurs proprement informatiques – composants,


matériels, progiciels et services – entraîne elle-même des mouvements de frontières ou
des déplacements à travers les frontières. La logique économique qui domine le secteur
des composants contraint les fabricants à les diffuser aussi largement que possible en
favorisant l’utilisation de microprocesseurs dans tous les objets et toutes les industries.
La diversité et la dynamique du secteur dispersé des matériels motivent les acteurs à
rechercher une prime à l’innovation et à l’inventivité dans des niches originales. Ils
peuvent ainsi proposer des variantes atypiques du concept d’ordinateur, spécialisées par
type d’utilisation ou par fonction comme les assistants personnels, ou des machines
hybrides comme celles qui réunissent les fonctions d’imprimante, de scanner, de
copieur, de fax et de téléphone. De tels produits appartiennent-ils encore à
l’informatique, ou leurs niches sont-elles tellement frontalières qu’il faut les considérer
comme des colonies en territoire étranger ?

Enfin, comme nous l’avons vu au chapitre 11, le logiciel, ingrédient fondamental


de l’informatique, est comme l’écriture un matériau qui peut entrer dans la construction
de n’importe quoi. Comme l’information dont il codifie le traitement, le logiciel peut
être présent partout, en prenant des formes multiples allant du plus simple des
programmes à des cathédrales de complexité. Mais l’écriture de logiciel, comme
l’écriture tout court, est une compétence de base qui sera de plus en plus présente dans
toutes les organisations, débordant ainsi largement de l’industrie informatique dont elle
a longtemps été l’apanage.

Au risque de décevoir les amateurs de classifications précises, nous admettrons


que chercher à tracer des frontières rigoureuses à l’intérieur de l’économie est un
exercice futile auquel nous ne nous risquerons donc pas. En revanche, à partir des
définitions reconnues comme arbitraires mais néanmoins raisonnables qui nous ont
servi jusqu’ici dans cet ouvrage, nous examinerons les interactions dont les zones
frontalières sont le lieu. Cela nous aidera à comprendre quelle influence l’évolution de
l’informatique exerce sur les autres industries, et au premier chef sur les industries de
l’information. Nous développerons plus particulièrement l’exemple des

cccxxxvi
télécommunications, dont le rapprochement avec l’informatique est un thème à la mode,
mais qui donne lieu à des variations souvent fantaisistes.

L’analyse des relations des différents secteurs de l’informatique avec les autres
industries nous aidera à aborder quelques questions relatives à place de l’informatique
dans l’ensemble de l’économie. Nous pourrons enfin tenir compte de ces interactions et
des phénomènes aux limites pour esquisser une évolution générale à plus long terme de
l’industrie.

L’informatique et les autres industries

C’est un lieu commun de constater que l’informatique est une technologie


invasive qui pénètre tous les autres secteurs. Presque toutes les activités humaines, et en
tous cas toutes les activités de production, contiennent une part de traitement de
l’information, pour quoi l’informatique est un moyen universel et efficace. Les
entreprises consacrent une part importante de leurs ressources à traiter des informations
pour mieux connaître et servir leur marché, ou pour satisfaire leurs obligations vis à vis
des tiers. De nombreux produits et services contiennent des fonctions plus ou moins
complexes de traitement de l’information. Certains produits ne sont même rien d’autre
que des supports d’information, comme les livres, les disques, les films ou les journaux,
tandis que de nombreux services se résument à fournir ou manipuler de l’information,
par exemple les services financiers, les services de renseignements de toute nature, les
réservations, les communications, etc.

De nombreux ouvrages examinent les conséquences que peut avoir l’utilisation


croissante de l’informatique pour l’ensemble des activités humaines, les comportements
et les valeurs individuelles, les structures sociales, etc. Les questions que nous
aborderons ici se limitent aux structures industrielles, qui constituent le sujet de cet
ouvrage. La diffusion de l’informatique dans l’ensemble de l’économie entraîne-t-elle
des modifications substantielles de certains segments de marché ou de certains secteurs
d’industrie, dans leur définition même ou dans la dynamique qui les régit ? En
particulier, la pénétration de l’informatique dans une industrie se traduit-elle par un
rapprochement des structures industrielles et des dynamiques sectorielles, comme on le
prétend souvent à propos des télécommunications ?

Distinguons deux niveaux principaux d’intervention de l’informatique dans une


industrie existante : premièrement une utilisation purement interne qui ne modifie pas
directement les produits et services offerts par la firme, deuxièmement l’incorporation
de fonctions informatiques à l’intérieur même des produits ou services commercialisés
par la firme. Dans le premier cas, les champs concurrentiels et la structure du marché
sont inchangés et les secteurs restent les mêmes ; l’utilisation de l’informatique peut
donner à certaines firmes des avantages concurrentiels et donc modifier leur place à
l’intérieur du secteur, mais sans que les structures sectorielles soient modifiées. La
seconde situation pose en revanche une forme de problème d’intégration verticale entre
certains secteurs de l’industrie informatique et l’industrie concernée, et donc la question
des frontières entre industries. Si Microsoft offre un jeu électronique, on dit que
l’informatique envahit l’industrie des jeux ; quand le Monde offre un journal sur Minitel
ou sur Internet, doit-on dire que la presse envahit l’informatique ?

cccxxxvii
L’informatique à usage interne

En utilisant l’informatique pour leurs besoins propres, les firmes visent une plus
grande efficacité dans un certain nombre de domaines qui peuvent être la gestion, la
production, la commercialisation, la recherche et le développement, etc. Les bénéfices
qu’elles en retirent réellement sont l’occasion de nombreuses controverses qui n’entrent
pas dans le sujet de cet ouvrage. On peut admettre a priori que l’utilisation plus ou
moins judicieuse et plus ou moins efficace de l’outil informatique est une nouvelle
dimension de différenciation des entreprises, qui peut conférer de nouveaux avantages
ou désavantages concurrentiels selon son impact sur l'ensemble de la chaîne de la
valeur . 66

Tant que ces avantages ne concernent que des activités indirectes comme la
gestion, leur seul effet potentiel est d’aider les firmes les plus performantes dans
l’utilisation de l’informatique à se développer au détriment des autres, les règles du jeu
de la concurrence restant inchangées. L’incidence réelle de ces avantages potentiels doit
d’ailleurs être pondérée par l’importance relative des activités auxquelles ils
s’appliquent dans l’ensemble des activités de la firme. Une amélioration même
importante d’une activité marginale ne peut apporter qu’un avantage marginal. Si par
contre l’introduction de l’informatique permet de modifier profondément les procédés
de fabrication, les méthodes de production ou les cycles de développement, l’économie
de la production peut en être assez bouleversée pour changer les échelles économiques
de production et donc influencer le degré de concentration de certains secteurs.

Nous avons pu rattacher les principales différences entre secteurs, en particulier


l’éventail de stratégies possibles, les modalités locales de la concurrence, la répartition
des parts de marché et les personnalités des entreprises, à deux caractéristiques de la
production : l’échelle économique, qui dépend de la relation entre coûts fixes et coûts
variables, et le cycle de production, qui synthétise la relation temporelle entre dépenses
et recettes. Comment ces deux facteurs fondamentaux sont-ils affectés par l’invasion
des technologies informatiques ?

L’informatique était jadis chère et réservée à des grandes organisations. Dans la


mesure où son utilisation est à la source d’avantages concurrentiels, elle aurait pu être
facteur de concentration en favorisant les grandes entreprises. Mais il semble bien que
l’organisation est plus inerte que les technologies informatiques. Les structures
existantes ont plus contribué à déterminer la pénétration de l’informatique que
l’informatique n’a transformé visiblement les structures, mis à part quelques cas
exceptionnels.

Aujourd’hui l’informatique est devenue bon marché et offre des points d’entrée
très bas. Une informatisation adaptée est maintenant possible quelle que soit la taille de
l’entreprise. De plus, l’informatique met à la portée des petites entreprises des
techniques avancées de gestion, de production, d’étude et de développement qui étaient
jusqu’alors réservées aux grandes entreprises. Bien utilisée, elle peut également
raccourcir les cycles de fonctionnement, ce qui tend à réduire l’échelle économique de
production et à favoriser les entreprises dont la personnalité est adaptée aux cycles
66 voir Porter, « L’Avantage Concurrentiel »

cccxxxviii
courts. Au total, l’informatisation tend donc à favoriser la dispersion, surtout dans les
secteurs où les facteurs de concentration sont liés à l’information et aux modalités de
gestion.

Bien entendu, le poids relatif de cette pression vers la dispersion se limite aux
éléments de la chaîne de la valeur où l’informatique peut apporter des gains
substantiels. Il existe des secteurs où la concentration reste la règle pour des raisons plus
fondamentales auxquelles l’informatique est étrangère. L’industrie des composants
électroniques en est un exemple extrême : bien que la production y soit fortement
informatisée, la nature des coûts fixes et des coûts variables les rend largement
insensibles à l’informatique, et l’échelle économique de production reste gigantesque en
tout état de cause.

Le progiciel représente un cas intermédiaire intéressant. La cause profonde de la


concentration du secteur est la complexité du produit, ce qui serait un problème soluble
à terme dans l’informatique si le produit lui-même, et la nature de sa complexité,
n’étaient eux-mêmes informatiques. On retrouve sous une autre forme la problématique
que nous avons évoquée à la fin du chapitre 12. Si les technologies permettant de
maîtriser la complexité logicielle, comme la programmation par objets, progressent plus
vite que la complexité des systèmes, l’industrie du progiciel pourra évoluer vers une
structure dispersée. Dans le cas contraire, elle conservera voire accentuera sa structure
concentrée.

L’informatique peut encore influencer la structure sectorielle des autres industries


par son intervention dans les relations entre entreprises. On pense généralement qu’en
favorisant les communications, l’informatique favorise la spécialisation des entreprises
et l’éclatement des secteurs. Mais cet effet est dû plutôt au progrès des
télécommunications, et donc l’informatique n’y intervient qu’indirectement. De plus,
l’informatique bien utilisée peut aussi réduire les coûts de transaction interne, et donc
favoriser au contraire l’intégration. Or, historiquement, l’informatique interne a
progressé beaucoup plus rapidement que l’informatique interentreprises ou les
télécommunications. Ce n’est que depuis quelques années que les télécommunications
bénéficient pleinement des progrès de l’informatique, et en particulier que les
communications directes entre entreprises connaissent un véritable essor. Dans ce
domaine, l’informatique a probablement d’abord été un facteur de concentration, et
n’est devenue un facteur supplémentaire de dispersion que depuis peu.

Les produits et services informatisés

Les technologies et les composants de l’informatique sont déjà présents dans de


nombreux produits : véhicules de toutes sortes, téléviseurs, magnétoscopes, appareils
photographiques, téléphones, instruments de musique, machines-outils, pour n’en citer
que quelques-uns. L’informatique est également partie intégrante de nombreux services
comme les services bancaires, les services d’information et de réservation, le commerce
électronique ou les télécommunications. Potentiellement, tous les produits susceptibles
de comporter des fonctions de traitement de l’information, en particulier tout
automatisme un tant soit peu évolué, et tous les services utilisant ou fournissant de
l’information, ont la capacité d’intégrer des composantes informatiques.

cccxxxix
Par ailleurs, l’industrie est truffée de mécanismes qui assurent que ces possibilités
seront exploitées : du côté informatique, la recherche de volume par les acteurs des
secteurs concentrés (composants, progiciels) et la recherche de niches nouvelles par les
acteurs des secteurs dispersés (matériels, logiciels, services). Dans les autres industries,
la recherche d’avantages concurrentiels et de nouvelles niches par tous les acteurs. Au
total, on peut être assuré que presque toutes les autres industries incorporeront
progressivement de l’informatique dans leurs productions, au fur et à mesure que la
miniaturisation et la baisse des coûts le permettront.

Cette forme d’invasion des autres industries par l’informatique remet-elle en


question les frontières des industries ? En particulier, peut-on encore parler d’une
industrie informatique raisonnablement bien délimitée face à une panoplie d’objets et de
services contenant de l’informatique en quantités variables, quelquefois supérieures à la
plupart des ordinateurs comme c’est le cas par exemple des avions ou des centraux
téléphoniques ? Devant un PC, un appareil photo automatique et un simulateur de vol,
est-il possible de dire ce qui est un ordinateur et ce qui est autre chose ?

Qu’est-ce qu’un ordinateur ?

Nous avons fait reposer notre analyse des mécanismes concurrentiels de


structuration de l’industrie sur la notion de biens substituables, c’est à dire qui satisfont
le même besoin ou rendent les mêmes services. Pour regrouper les produits et services
en grandes classes qui aient un sens pour notre propos, nous considérerons donc le
besoin qu’ils visent à satisfaire, donc leurs fonctions et non les technologies qu’ils
utilisent. Dans cet esprit, un appareil photographique reste un appareil photographique
et un simulateur de vol reste un simulateur de vol, quel que soit leur degré
d’informatisation. En termes économiques, cela signifie qu’un appareil photographique
informatisé entre d’abord en concurrence avec les autres appareils photographiques et
non avec les ordinateurs. Autrement dit, la firme qui offre cet appareil pénètre dans le
secteur du matériel photographique quelle que soit son activité antérieure, et sa réussite
dans ce nouveau secteur dépendra de sa capacité à en exploiter les règles du jeu et à s’y
procurer des avantages concurrentiels. D’une façon générale, les objets informatisés
relèvent du même secteur que les objets non informatisés remplissant les mêmes
fonctions. En ce sens, introduire l’informatique dans les productions d’un secteur n’en
modifie pas la définition ni généralement les contours.

Si donc les objets informatisés appartiennent au secteur défini par leur fonction, la
caractéristique d’un ordinateur, qui le distingue de tous les autres objets contenant de
l’informatique, est précisément son caractère universel. Nous définirons donc un
ordinateur comme « une machine à exécuter des programmes ». Cette définition
implique la capacité d’exécuter des programmes qui n’existaient pas quand l’ordinateur
a été construit. Elle suppose donc l’existence de moyens d’entrée et de stockage de
nouveaux programmes destinés à être exécutés. Elle implique aussi que le domaine
d’application de l’ordinateur ne soit pas limité a priori par la nature même des
dispositifs d’entrée et de sortie, et donc que ceux-ci soient suffisamment généraux pour
accepter et restituer de façon raisonnablement commode des informations de nature
générale. Ainsi un ordinateur est-il par définition capable de rendre des services qui
n’avaient pas été explicitement prévus lors de sa construction. Notons au passage que

cccxl
cette définition ne limite pas l’ordinateur aux technologies électroniques. Sous réserve
de conserver son caractère général, il peut être mécanique, hydraulique, pneumatique,
optique, etc.

Un appareil qui ne satisfait pas à ces conditions d’universalité, quelles que soient
les capacités de traitement de l’information dont il est doté, remplit des fonctions
limitées et spécifiques qui visent à satisfaire un besoin particulier. Son prix et la part de
marché de chacune des firmes qui l’offrent résultent du jeu de la concurrence entre
objets satisfaisant ce besoin particulier et non de la concurrence avec les ordinateurs
universels, même s’il en utilise les technologies ou certains composants. Du point de
vue économique, cet objet vise un segment de marché extérieur au marché informatique
et ses producteurs forment un secteur particulier extérieur à l’industrie informatique.
Sont ainsi exclus les appareils dont le programme est fixe ou à choisir dans un ensemble
fini donné a priori, ou ceux dont la nature des entrées et sorties limite les applications
possibles à une classe bien définie.

Empressons-nous de reconnaître que cette définition est imparfaite et laisse


subsister bien des cas litigieux. Par exemple, la célèbre « machine de Türing », si elle
était réalisée physiquement, aurait des entrées et sorties on ne peut plus rudimentaires,
et pourtant elle est capable de réaliser n’importe quelle opération de traitement de
l’information. Plus concrètement, à partir de quelle taille un écran est-il capable
d’afficher suffisamment d’information pour pouvoir restituer « de façon
raisonnablement commode des informations de nature générale » ? La tradition veut que
24 lignes de 80 signes suffisent, et à l’opposé on admet facilement qu’une seule ligne de
5 signes ne suffit pas, mais est-il possible de fixer un seuil précis ? Selon la réponse, les
« assistants personnels » ou PDA (pour « personal digital assistant ») seront par
exemple classés ou non parmi les ordinateurs.

Rechercher une réponse générale et définitive à ce genre de questions est


probablement un exercice oiseux. Il est plus efficace de disposer d’une méthode pour
comprendre les cas particuliers. A cet effet, on les considérera a priori comme
définissant un segment de marché et un secteur d’industrie particuliers, dont on
recherchera explicitement les liens avec les différents secteurs de l’industrie
informatique et les autres industries apparentées.

Offres et secteurs

Quand apparaît un nouveau produit ou service, il est naturel de l’associer au


secteur auquel appartient l’entreprise qui a pris l’initiative. Mais si ce produit est
substituable à des produits existants, il entre dans une arène concurrentielle (un
segment) qui peut être différente des segments où opérait habituellement l’offreur.
Celui-ci peut aussi être rejoint sur ce segment par des offreurs en provenance d’autres
secteurs. Très rapidement donc, ce nouveau produit peut s’intégrer dans un secteur
existant, qui peut ne pas être celui de son premier offreur, ou au contraire donner
naissance à un nouveau secteur. En tout état de cause, c’est la dynamique
concurrentielle propre à ce secteur qui déterminera les positions respectives des
différents offreurs.

cccxli
Dans un secteur existant, l’introduction de l’informatique peut entraîner l’entrée
de nouveaux acteurs et l’apparition de nouveaux avantages concurrentiels, conduisant à
une nouvelle distribution des parts de marché, voire à la sortie possible d'acteurs
anciens. Elle peut aussi entraîner une modification des forces concurrentielles, donc
conduire à une nouvelle structure du secteur.

Cette évolution dépend au premier chef de la source dominante d’avantages


concurrentiels dans le segment considéré. Si c’est la connaissance de l’application, du
segment et du secteur particulier, alors les firmes spécialisées prendront rapidement le
pas sur les firmes informatiques et le secteur s’intégrera à l’industrie utilisatrice. Ce fut
le cas des services applicatifs de gestion comme la comptabilité, c’est maintenant le cas
par exemple des instruments de musique, des arts graphiques ou du cinéma. Il faut aussi
tenir compte de l'importance du changement et de la capacité d’assimilation de
l'informatique par les acteurs existants. Si cette assimilation est rapide, les acteurs du
secteur acquerront rapidement les mêmes avantages concurrentiels que les acteurs de
l’industrie informatique et maintiendront ainsi leur supériorité. Il y aura donc
relativement peu de changements dans la structure du secteur.

Si par contre les avantages concurrentiels dominants des nouveaux produits sont
principalement dus à la proximité des technologies informatiques ou à une compétence
générale en traitement de l’information, alors les firmes informatiques ont des chances
d’être les plus compétitives. Le secteur restera alors dans l’industrie informatique,
même si le produit ne satisfait pas nécessairement à la définition de l’ordinateur
proposée plus haut. Ce sera peut-être le cas des « assistants personnels ».

Si les produits sont nouveaux au point de n’être pas directement substituables à


des produits existants, ils correspondent à un nouveau segment de marché. Dans ce cas,
l’acquisition d’avantages concurrentiels déterminants demandera le plus souvent une
combinaison de compétences proprement informatiques et de compétences propres au
segment considéré. Il est alors possible que les acteurs les plus performants soient des
firmes nouvelles, par exemple des acteurs mixtes créés sous forme de joint-ventures
entre sociétés du secteur et sociétés informatiques. L’introduction de l’informatique
donnera alors naissance à un nouveau secteur obéissant à sa propre logique, où
l'informatique n'est plus qu'une technologie primaire et non un produit. C’est par
exemple le cas des jeux électroniques.

Croissance informatique et non-informatique

Des acteurs nombreux et divers peuvent prendre l’initiative d’offrir un nouvel


objet ou service informatisé. Un offreur traditionnel du secteur spécialisé peut découvrir
le potentiel de l’informatique et penser à l’utiliser pour conférer à ses productions un
avantage concurrentiel. A l’inverse, un offreur de matériels ou de services informatiques
peut rechercher un avantage dans une niche d’application particulière en offrant un
ordinateur dédié à cet usage, ou plus exactement une machine spécialisée dans une
fonction qu’on a l’habitude de confier à un ordinateur universel. Ou encore, un offreur
d’un secteur particulier de l’industrie informatique peut chercher à étendre le marché de
ses produits en les incorporant à d’autres, probablement en coopération avec un
spécialiste du secteur visé. Nous avons vu que la dynamique propre de l’informatique

cccxlii
favorise tous ces processus, et donc même si un grand nombre de ces tentatives
échouent, le nombre et la variété des objets et des services informatisés sont destinés à
croître inéluctablement.

Il est probable que cette invasion de toutes les industries par les technologies
informatiques aura pour effet de limiter la demande de matériels et de services
informatiques proprement dits, c’est à dire universels. Plus les objets et services
incorporeront leurs propres fonctions de traitement de l’information, moins il y aura
besoin de machines universelles de traitement. Autrement dit, plus il y aura d’objets
informatisés, moins il faudra relativement d’ordinateurs.

Cette évolution est comparable à ce qui s’est produit dans le domaine de l’énergie.
Les premières machines à vapeur étaient des objets volumineux, complexes et coûteux.
Chacune d’entre elles devait donc alimenter un nombre maximum de machines
utilisatrices d’énergie, que l’on rassemblait pour cela dans de grands ateliers desservis
par une seule source d’énergie. Les moteurs étaient universels et partagés, et leur
utilisation exigeait des mécanismes de transmission complexes.

L’introduction du moteur électrique a d’abord permis de remplacer la machine à


vapeur dans le même dispositif centralisé. Mais surtout, le moteur électrique s’est vite
décliné en une gamme de puissances et d’encombrements multiples, et des moteurs
simples ont pu être produits par des procédés de fabrication de masse qui leur ont
permis d’atteindre des niveaux de prix modestes quand ils étaient produits en grandes
quantités. La moindre machine contient maintenant de nombreux moteurs de diverses
tailles et de divers modèles, et le gros moteur central partagé a disparu. Ceci n’empêche
pas d’ailleurs les machines de communiquer entre elles à l’intérieur d’ateliers
automatisés où les transferts entre machines mettent de nouveau à profit des moteurs
électriques spécialisés.

Dans le traitement de l’information, l’analogue du moteur est le microprocesseur.


A l’origine, une seule machine de traitement de l’information servait tous les besoins de
l’entreprise au prix d’un caractère universel et de dispositifs de communications et de
partage. Les mêmes machines universelles se sont répandues dans des ateliers plus
spécialisés, puis les micro-ordinateurs ont servi des besoins individuels, mais
généralement en restant universels pour qu’une seule machine puisse satisfaire tous les
besoins de chaque individu.

Nous assistons actuellement à l’augmentation progressive du nombre


d’ordinateurs par individu, qui atteindra un jour un par personne et par lieu d’utilisation
(par exemple un sur le lieu de travail, un au domicile et un portable pour les
déplacements). Il est peu probable que ce nombre aille très au-delà, mais en revanche
chaque individu pourra disposer de nombreuses machines de traitement de
l’information, chacune étant spécialisée pour une utilisation particulière à laquelle elle
sera mieux adaptée que les autres machines, y compris qu’un ordinateur universel. Ces
machines pourront vraisemblablement communiquer entre elles et former ensemble un
véritable système de traitement de l’information, ou plus exactement plusieurs systèmes
dont la configuration variera selon le besoin du moment. Toutes ces machines
contiendront un ou plusieurs microprocesseurs et du logiciel en quantité variable, et
pourtant très peu seront des ordinateurs au sens ci-dessus.

cccxliii
Le développement des produits informatisés entraînera une évolution divergente
des quatre principaux secteurs de l’informatique, en même temps que leurs frontières
avec les autres industries s’estomperont. Des secteurs bien définis de matériels et
services spécifiquement informatiques coexisteront avec des matériels et services
informatisés dans les autres industries, mais la transition entre produits informatiques et
produits informatisés sera probablement continue, et de nombreuses entreprises offriront
une gamme située à cheval sur la frontière. Quant aux secteurs des composants et des
progiciels, ils resteront bien individualisés à cause de leur caractère concentré, mais ils
serviront de plus en plus les autres industries. La part relative des matériels et services
informatiques dans leurs débouchés diminuera, et donc le poids relatif de l’informatique
dans le jeu concurrentiel qui les modèle.

De même qu’aujourd’hui la dynamique des composants est dominée par leur


utilisation en micro-informatique et que la grande informatique traditionnelle ne fait
plus la loi du secteur, l’informatique au sens strict ne fera plus la loi du secteur des
composants, ni sans doute du progiciel. L’évolution concurrentielle de ces deux secteurs
sera progressivement dominée par l’utilisation de leurs produits dans des objets et des
services informatisés plutôt que dans des ordinateurs.

Au total, en se diffusant, l’informatique perdra de sa visibilité et de son


originalité. Pour l’observateur, cela accentuera encore le besoin de raisonner séparément
sur les différents secteurs en tenant le plus grand compte de leurs différences.

Les télécommunications

Passons quelque temps sur le cas particulier de l’industrie des


télécommunications, dont les relations avec l’industrie informatique sont l’objet de
nombreux commentaires et de nombreux pronostics.

Les télécommunications existaient avant l’informatique. Par essence, elles


consistent à transmettre de l’information d’un point à un autre de façon fiable, en ce
sens que l’information reçue doit être identique à l’information émise. Il s’agit
nécessairement d’un service puisque les clients émetteur et récepteur participent à la
production. C’est néanmoins une activité fortement capitaliste car elle repose sur des
infrastructures très coûteuses et donc des investissements élevés, alors que le coût
marginal d’une communication est presque négligeable. C’est donc un secteur fortement
concentré, et ce d’autant plus que la valeur du service pour l’usager augmente avec le
nombre de correspondants qu’il peut joindre, donc avec la taille du réseau et de
l’entreprise.

Monopole et concurrence

Dans les années 50, au moment où naît l’industrie informatique, l’industrie des
communications était caractérisée presque partout par une situation de monopole d’état
protégé fonctionnant selon une logique de « service public ». Elle produisait un service
simple assorti de très peu d’options (par exemple un choix de vitesses de transmission).
Les modalités de fourniture du service, en particulier tarifaires, n’étaient pas régies par
une logique concurrentielle mais par décision administrative reposant plus ou moins sur

cccxliv
un raisonnement économique visant le « bien public ». L’industrie était en général
totalement intégrée, la même organisation fournissant le service et construisant tous les
appareils nécessaires aussi bien aux usagers (les appareils terminaux) qu’à
l’infrastructure du service.

Très rapidement, les applications de l’informatique ont utilisé les services de


télécommunications. Dès la fin des années 50, les constructeurs informatiques offraient,
parmi les unités d’entrée-sortie connectables aux ordinateurs, des unités spécialisées
dans la gestion des connexions aux réseaux de transmission, et les utilisateurs les
employaient pour acquérir des données et diffuser des résultats sur des sites distants. Le
mariage de l’informatique et des communications au sein de systèmes de télétraitement
est presque aussi ancien que l’informatique elle-même et n’est en rien caractéristique
des années 90. Mais dans la majorité des applications informatiques, la communication
n'est qu'un ingrédient parmi d'autres, qui entre dans des applications de gestion des
entreprises, d’automatisation de processus, de calculs scientifiques, etc. Il est tout à fait
abusif de prétendre que l’informatique est une branche de la communication, bien que
dans les années 60 apparaissent des exemples d’applications tournées principalement
vers la communication, comme la commutation de messages ou le courrier électronique.

Mais les services de télécommunications n’ont pas connu la même évolution


technologique que l’informatique. Alors que dans celle-ci, les performances
s’amélioraient en moyenne de 20 à 25% par an à prix égal, rien d’analogue ne se
produisait en télécommunications, d’où une divergence croissante entre les possibilités
de l'informatique, et donc ses besoins en télécommunications, et les possibilités offertes
par les opérateurs. Cette résistance au changement des télécommunications est
largement due à leur situation de monopole, qui, entre autres méfaits, encourage les
dirigeants à mépriser les mécanismes du marché et à croire qu’ils connaissent mieux les
besoins que le marché lui-même, et en tout état de cause élimine les mécanismes
concurrentiels qui seuls garantissent la réalisation du potentiel de progrès
technologique.

Simultanément, les communications internes aux entreprises, qui ne sont pas


soumises au monopole et constituent un marché de produits soumis à la concurrence,
connaissaient des améliorations spectaculaires de vitesse de transmission, de fiabilité et
de fonctionnalités. Les technologies étant en gros les mêmes, les utilisateurs sont
devenus de plus en plus conscients du potentiel d’applications conjointes de
l’informatique et des télécommunications, mais non réalisable à cause de l’inertie des
monopoles traditionnels.

C’est ainsi que s’est créée une forte demande d’ouverture à la concurrence, où
toute la profession informatique et en particulier les constructeurs a joué un rôle moteur
au côté des utilisateurs. Au passage, certains acteurs informatiques ont essayé de
pénétrer le secteur, plus pour suppléer aux carences des opérateurs ou pour les
aiguillonner que pour vraiment les concurrencer, et ont assez rapidement renoncé. Les
acteurs des télécommunications ont néanmoins interprété l’attitude des grands
constructeurs comme une agression à grande échelle, illustrant la règle qui veut qu’un
secteur ait du mal à comprendre les motivations et les mécanismes de secteurs
industriels différents. Malgré l’attitude défensive un tantinet paranoïaque des
opérateurs, cette pression a fini par entraîner l’ouverture des télécommunications à la

cccxlv
concurrence, très improprement appelée « dérégulation » ou « déréglementation ». Ces
deux termes évoquent en effet la suppression des règles du jeu existantes, alors que
l’ouverture à la concurrence nécessite au contraire la définition de règles nouvelles, qui
étaient inutiles en situation de monopole d’état puisque les pouvoirs publics décidaient
unilatéralement et souverainement.

L’ouverture des télécommunications à la concurrence est un mouvement mondial


qui suit des calendriers très différents selon les pays. Les économies de tradition libérale
anglo-saxonne sont en général en avance dans cette voie sur les pays de tradition
colbertiste comme la France, la Communauté Européenne formant un intéressant terrain
de confrontation entre ces deux traditions.

La nouvelle structure industrielle

Quelles qu’en soient les modalités et le calendrier détaillés, l’ouverture des


télécommunications à la concurrence, en faisant éclater les monopoles intégrés, a pour
effet de fragmenter cette industrie en secteurs dont la structure évolue selon la
dynamique concurrentielle propre à chacun. En schématisant, on trouve :
–des secteurs de construction de matériels, plutôt dispersés pour les matériels de
technologie banale et de faible valeur unitaire comme les équipements terminaux ou
de communication locale, plus concentrés pour les grands matériels de réseau ;
–des services de télécommunications « de base » qui possèdent et exploitent les
infrastructures, et obéissent à une logique de forte concentration ;
–des services de communications « à valeur ajoutée », qui utilisent ces services de
base pour offrir aux usagers toute une panoplie de services plus élaborés, et forment
un secteur plus dispersé en évitant les investissements lourds.

En 1995, la concurrence est presque partout de règle pour les équipements


terminaux. Plus généralement, la construction d’équipements est séparée de
l’exploitation des réseaux. La distinction entre services de base et services « à valeur
ajoutée » fait encore l’objet de controverses, de même que l’opportunité d’ouvrir les uns
et les autres à la concurrence. Une théorie communément admise est que les services « à
valeur ajoutée » doivent être ouverts à la concurrence pour favoriser la créativité, la
diversité et la réduction des tarifs, tandis que les services de base devraient rester des
monopoles protégés.

L’ouverture à la concurrence fait entrer en jeu les mécanismes normaux de


l’économie de marché. Elle permet à l’industrie de se structurer en secteurs, et aux
secteurs de s’organiser par évolution naturelle selon leur logique propre. On peut donc
penser qu’une ouverture totale à la concurrence aboutirait à ce que les forces
économiques naturelles aient sur les télécommunications les mêmes effets, mutatis
mutandis, que pour l’informatique. En particulier, le secteur des services de base
resterait fortement concentré, voire resterait un monopole de fait en raison de sa
structure naturelle.

Mais dans la réalité, la mise en place de ce monopole se ferait de façon très


différente, car les télécommunications partent d’une situation de juxtaposition de

cccxlvi
monopoles nationaux dénués de tout sens économique, alors que l’informatique partait
d’un oligopole asymétrique naturel déjà formé sur le marché mondial. Les marchés
géographiques des télécommunications ne se constitueraient certainement pas selon les
frontières des états, mais couvriraient des zones beaucoup plus vastes. Dans chacun de
ces marchés nouveaux, quelles entreprises prendraient le leadership ? Il est certain que,
parmi les opérateurs actuels, la plupart disparaîtraient. Quant à ceux qui sortiraient
vainqueurs, au prix de quels efforts et de quelles mutations internes y parviendraient-
ils ? Pour conserver leur position relative, les offreurs traditionnels rencontreraient des
difficultés analogues à ce qu’ont connu les anciens leaders de l’informatique et
devraient consentir des sacrifices comparables sinon pires. Ces perspectives expliquent
(mais n’excusent pas) que certains s’accrochent au statu quo tant qu’ils le peuvent.

Quelle convergence ?

Quoi qu’il en soit, peut-on parler comme de nombreux commentateurs d’une


convergence entre l’industrie informatique et l’industrie des télécommunications ? Tout
d’abord, puisque la dynamique dominante dans les deux industries est une
fragmentation croissante en secteurs diversifiés, par quoi se traduirait leur
convergence ? les acteurs de l’une deviendraient-ils dans leur majorité également
acteurs de l’autre ? ou verrait-on émerger de nombreux nouveaux acteurs opérant dans
les deux industries, soit avec des offres existantes, soit avec des offres nouvelles
concrétisant la convergence ?

Il est clairement impossible de formuler une réponse générale pour l’ensemble des
deux industries sans raisonner secteur par secteur. Il faudrait d’abord appliquer aux
télécommunications la démarche d’analyse sectorielle que nous avons utilisée dans cet
ouvrage, afin d’identifier les différents secteurs, la dynamique concurrentielle qui y
règne et les personnalités d’entreprise qui leur sont adaptées. Il faudrait ensuite prendre
en considération, pour chaque combinaison possible d’un secteur d’une industrie avec
un secteur de l’autre, la compatibilité des personnalités d’entreprise et les avantages
concurrentiels dont les firmes peuvent jouir dans un secteur grâce à leur appartenance à
l’autre.

Nous n’entrerons pas dans le détail de ce raisonnement, qui ferait apparaître des
zones où une convergence locale est possible entre secteurs, selon des modalités
d’ailleurs différentes. Le secteur des composants, à cause de son extrême concentration,
sert et continuera à servir les deux industries, et les mêmes microprocesseurs seront de
plus en plus utilisés dans les ordinateurs et dans les objets informatisés que sont les
téléphones, les télécopieurs, les centraux téléphoniques, les concentrateurs, les routeurs,
etc. En ce qui concerne précisément ces objets, qui définissent un grand nombre de
secteurs au sens de Porter (« groupe de firmes qui fabriquent des produits étroitement
substituables »), il existe et il continuera d’exister des firmes offrant à la fois des
matériels proprement informatiques et des matériels relevant plutôt des
télécommunications. Au niveau du macro-secteur du matériel, il y a donc continuité
entre l’industrie informatique et l’industrie des communications, et il sera d’autant plus
difficile de situer une frontière que les deux feront appel aux mêmes composants. Les
services d’intégration seront naturellement amenés, comme c’est déjà le cas, à combiner
des produits et services de communications avec des produits et services informatiques.

cccxlvii
Enfin, de la même façon qu’il est difficile de tracer une frontière entre matériels
informatiques et produits informatisés, on verra se rejoindre les services « à valeur
ajoutée » issus des communications et les services informatisés issus des autres
industries.

Dans tous les domaines précédents, il est vain de chercher à définir une frontière
précise entre informatique et télécommunications, bien que certains secteurs puissent
être rangés sans équivoque dans l’une ou l’autre industrie. On retrouve cette idée
fondamentale émise par Chamberlin : « Le monde économique peut être considéré
comme un réseau de marchés et de secteurs interdépendants, dont les frontières sont
choisies de façon à rendre la représentation commode, mais qui sont essentiellement
arbitraires ». A l’inverse, puisque la question des frontières d’une industrie n’admet pas
de réponse exacte, celle de savoir si deux industries convergent est également vide de
sens à ce niveau de généralité. Ce n’est que pour chacun des secteurs élémentaires qu’il
est possible de déterminer un rattachement préférentiel à l’une ou à l’autre industrie, ou
pour certains d’entre eux une position mixte ou intermédiaire.

Parmi les secteurs selon lesquels l’industrie des télécommunications est en train
de s’organiser, celui des « services de base » reste typique des télécommunications et
n’a pas de correspondant en informatique. Ces services sont en partie substituables à
certains services « à valeur ajoutée » appartenant eux-mêmes à l’industrie des
télécommunications, mais rien de ce qui compose l’informatique ne leur est
substituable : ni bien sûr les produits, ni les services qui se résument à des services
d’assistance, de développement et d’intégration depuis la disparition des services de
traitement. De plus, ce secteur est fortement capitaliste, les cycles de fonctionnement y
sont longs et l’échelle économique de production très élevée, toutes caractéristiques qui
sont à l’opposé de celles du secteur des services en informatique.

On en conclut que le noyau dur de l’industrie des télécommunications, formé par


ce qui reste des opérateurs monopolistes traditionnels, constitue un secteur à part qui ne
peut se rapprocher d’aucun des secteurs de l’industrie informatique. Certes, les services
de télécommunications de base bénéficient des progrès de l'informatique, comme tous
les autres secteurs de toutes les autres industries, et ils entrent dans la composition de la
plupart des systèmes d’information à côté de produits et services informatiques. Mais
les firmes qui les produisent doivent posséder une personnalité qui est incompatible
avec la réussite dans d’autres secteurs.

Télécommunications et services informatiques

Et pourtant, partout dans le monde, des opérateurs de télécommunications


(comme ATT et MCI aux USA, France Télécom, British Telecom et Telefonica en
Europe) affichent et mettent en œuvre une stratégie de présence dans les services en
informatique, le plus souvent en prenant le contrôle d’entreprises de ce secteur. Les
raisons évoquées ont varié dans le temps, mais elles se rangent sous deux rubriques
principales : premièrement, en tant qu’architectes ou gestionnaires de solutions
globales, les sociétés de service en informatique ont le pouvoir d’influencer les choix
des clients en matière de télécommunications, et deuxièmement les compétences de ces

cccxlviii
entreprises en logiciel sont nécessaires à la satisfaction des besoins propres des
opérateurs.

Aucune de ces raisons ne résiste à l’examen et ne justifie que les opérateurs de


télécommunications intègrent ou contrôlent des sociétés de service en informatique.
Tout d’abord, leur pouvoir de prescription en matière de communications est largement
surestimé, et nous avons vu au chapitre 13 que la tendance lourde est à la séparation des
rôles d’intégrateur d’une part, de fournisseur des éléments à intégrer d’autre part. En
cherchant à jouer le rôle d’intégrateurs pour mieux vendre leurs services, les opérateurs
de télécommunications affaiblissent en réalité leurs activités d’intégration en les rendant
moins compétitives. Quant au développement des logiciels qui leur sont nécessaires, les
opérateurs ont tout intérêt à les sous-traiter de façon normalement concurrentielle, et
s’ils en sont empêchés par des problèmes de propriété industrielle qui ne peuvent être
résolus par des clauses contractuelles appropriées, à les développer en interne avec leurs
ressources propres.

Comment alors expliquer cet engouement des opérateurs de télécommunications


pour les services informatiques ? Probablement surtout par des facteurs négatifs :
méconnaissance des mécanismes de structuration industrielle et des problèmes de
compatibilité des entreprises, confusion entre participation financière et synergie
industrielle, volonté de puissance et ambitions personnelles non canalisées par une
stratégie d’entreprise réfléchie et forte, illusion répandue sur la profitabilité des services,
méconnaissance de leur diversité et conviction persistante que les sociétés de service
brûlent d’offrir des services de communications.

Du côté positif, on trouve le désir de rester près des utilisateurs au moment où les
services « à valeur ajoutée » menacent de s’interposer entre les opérateurs de base et le
marché. Mais quelque justifié que soit cet objectif, le satisfaire de cette façon est
illusoire. Il ne suffit pas en effet qu’une société d’un groupe soit en contact avec le
marché pour que tout le groupe en bénéficie. Quels sont les mécanismes formels qui
font remonter l’information de la ligne de front où opère la société de services
informatiques jusqu’aux décideurs et aux personnels concernés de l’opérateur de
télécommunications ? Et si ces mécanismes existent, quels coûts et quelles contraintes
imposent-ils à la firme de services ? Ces coûts et ces contraintes ne se traduisent-ils pas
par un handicap concurrentiel qui au mieux déforme sa vision du marché, et au pire la
condamne ?

Concrétiser un avantage réel exigerait une étroite coordination des activités. Or la


différence de personnalités d’entreprise est telle qu’un opérateur de télécommunications
empêcherait ses activités de service de réussir s’il ne limitait pas scrupuleusement son
rôle à celui d’actionnaire, s’interdisant par là-même d’en retirer les bénéfices
opérationnels et stratégiques espérés.

Au total, la prétendue « convergence » entre l’informatique et les


télécommunications n’a de sens que pour les utilisateurs externes aux deux industries.
En associant les productions de l’informatique et des télécommunications, ceux-ci
peuvent offrir des produits et des services nouveaux dont l’impact économique peut être
spectaculaire et profond, mais il ne s’agit nullement d’un phénomène nouveau. Cette
« convergence » a beaucoup moins de réalité et de signification économique et

cccxlix
industrielle quand elle s’applique aux structures des deux industries. Fécond par sa mise
en œuvre dans les autres industries, le « mariage de l’informatique et des
télécommunications » n’a d’autre réalité que médiatique pour ces industries elles-
mêmes.

Multimédia et « autoroutes de l’information »

On cite souvent le multimédia et les « autoroutes de l’information » comme un


exemple actuel de mariage réussi de l’informatique et des télécommunications.
Regardons-y de plus près pour en esquisser les implications en termes de structures
industrielles.

Le terme de « multimédia » évoque la combinaison d’informations de natures


diverses (au moins texte, images et sons) et leur présentation sous des formes et sur des
supports variés. L’informatique apporte la possibilité de représenter toutes les formes
d’information sous une forme numérique commune. Elle fournit les moyens de coder
toutes ces informations à partir de leurs formes matérielles courantes vers leur forme
numérique, ou de les créer de toutes pièces. A l’inverse, elle permet de les restituer sous
des formes accessibles aux sens humains ou à d’autres dispositifs d’acquisition ou
d’utilisation. Elle permet aussi de stocker et de transmettre ces informations de nature
différente sur un même support, d’établir entre elles des liens statiques ou dynamiques,
de leur faire subir toutes sortes de transformations et de sélections. Elle permet enfin de
faire dépendre toutes ces opérations d’informations reçues de l’extérieur, introduisant
ainsi la possibilité d’interactivité contrôlée par un dialogue avec l’utilisateur.

A ces mêmes applications multimédia, les télécommunications apportent la


possibilité de transmettre à distance les données numériques qui représentent les
informations, et en particulier donnent la possibilité à des utilisateurs nombreux et
dispersés d’accéder simultanément à un exemplaire commun, éventuellement de façon
interactive. Mais alors que l’apport de l’informatique est essentiel, celui des
télécommunications est accessoire. On ne peut pas imaginer d’applications multimédia
qui ne fassent pas appel à l’informatique, alors que nombreuses sont celles qui ne font
pas intervenir les télécommunications. Dans leur fonction limitée de transport
d’information, les télécommunications sont en concurrence avec d’autres canaux
comme la diffusion de supports tels que les disquettes et surtout les CD-ROM, qui sont
plus commodes et surtout plus économiques dans un grand nombre de cas, qui ira
croissant avec la capacité des supports. Le recours aux télécommunications n’est
vraiment nécessaire que dans les cas où l’information se modifie fréquemment, si
l’interaction entre utilisateurs est essentielle ou si on veut trouver des informations
particulières dans des ensembles trop volumineux pour être diffusés en entier.

En tout état de cause, dans le développement du multimédia, l’industrie


informatique comme celle des télécommunications restent dans leurs rôles habituels. La
nature de leurs productions est inchangée tout comme l’économie de la production des
différents secteurs qui les composent. Il en résulte que leurs structures industrielles en
seront probablement inchangées. En ce qui concerne l’informatique, on peut néanmoins
prévoir que, dans ce domaine d’application comme dans les autres, des objets
informatisés spécialisés, qui pourront être dérivés des téléviseurs ou des consoles de

cccl
jeux actuelles, ou des objets nouveaux analogues aux assistants personnels, prendront
une place de plus en plus grande.

La part des télécommunications est aujourd’hui la partie la plus médiatisée, et


c’est aussi la plus immédiatement visible car elle donne l’accès à tout le reste. Ce n’en
est pas moins une part limitée et spécialisée du dispositif global, pour lequel le terme
« autoroutes de l’information » est d’ailleurs particulièrement trompeur. En effet, si le
développement du multimédia demande entre autres choses une plus large gamme de
capacités de transmission, ces « autoroutes » doivent compléter le réseau existant et non
s’y substituer. Pour rester dans l’analogie routière, on n’a pas attendu les autoroutes
pour circuler, et même dans la « société câblée » de demain, il faudra toujours des
routes départementales et des chemins vicinaux.

Si le multimédia entraîne des modifications des structures industrielles, ce sera


dans l’industrie de la communication au sens large. L’étude détaillée de cette industrie et
de l’impact probable de l’informatique sortirait évidemment du cadre de cet ouvrage,
mais elle pourrait probablement utiliser avec profit les concepts et les outils d’analyse
que nous y avons présentés. On identifierait ainsi une grande variété d’acteurs et de
secteurs plus ou moins interdépendants, opérant dans des arènes concurrentielles
différentes et demandant des entreprises encore plus diversifiées et incompatibles entre
elles que pour l’informatique.

On y discernerait de la même façon une tendance naturelle à l’éclatement et à la


spécialisation, comme dans toutes les industries complexes soumises à la concurrence et
en phase de croissance. Cette conclusion semble contraire aux événements actuels, où
on ne parle que de fusions et de rapprochements. La logique économique permet de
penser que ces tentatives sont aussi peu fondées que celles que nous avons examinées
plus en détail dans le cadre de l’informatique, et qu’elles seront sans conséquences pour
la structure de l’industrie. Les actes des dirigeants d’entreprise sont loin d’être toujours
rationnels, mais leurs effets restent soumis aux lois impersonnelles de la concurrence et
la sanction est par contre inévitable.

L’évolution à long terme

A ce point de notre étude, pouvons-nous tenter de regrouper tous les éléments de


tendance que nous avons identifiés, y compris ceux relatifs aux interactions de
l’informatique avec les autres industries, afin d’esquisser un scénario d’évolution
globale de l’industrie informatique ?

Une des voies les moins hasardeuses pour prévoir l’avenir est de rechercher des
régularités dans le passé, d’en identifier les mécanismes, de déterminer si ces
mécanismes sont en action dans le présent et, si c’est le cas, d’extrapoler leurs effets
passés. Dans le domaine de l’économie, c’est la théorie du développement et plus
précisément des cycles économiques qui peut nous fournir la base de ce raisonnement.

A priori, cette piste est encourageante. Plusieurs économistes ont cru constater que
l’économie occidentale se développe selon des cycles d’environ 50 ans, formés d’une
période d’expansion de 25 ans suivie d’une période de ralentissement de 25 ans, qui ont

cccli
reçu le nom de « cycles de Kondratiev ». L’économiste autrichien Joseph Schumpeter a
proposé une explication de ce phénomène , reposant elle-même sur la théorie du
67

développement économique qu’il avait formulée antérieurement . 68

Or nous avons vu que l’informatique traditionnelle, née vers 1950, a connu


d’abord une période d’ascension pour connaître des difficultés à partir du milieu des
années 70. Vers 1980 naissait alors une informatique nouvelle qui est encore
aujourd’hui en pleine ascension, mais dont nous avons vu au chapitre 7 qu’elle risque
d’entrer dans une phase de régression au début du XXI e siècle par arrêt du progrès dans
les composants. Ces mouvements sont suffisamment semblables aux cycles analysés par
Schumpeter pour qu’il vaille la peine d’en rappeler la théorie et d’examiner son
application possible à l’informatique.

Les cycles économiques

Schumpeter attribue les cycles économiques aux effets de l’innovation. Pour en


démonter les mécanismes, il considère d’abord une économie stable par hypothèse, où
chaque secteur produit exactement ce qui est nécessaire aux autres et où tous les flux
sont stationnaires. Une telle économie est conforme à la théorie de l’équilibre général :
les prix de tous les biens et services sont égaux à leurs coûts marginaux, la rémunération
des facteurs de production est égale à leur utilité marginale et il n’existe pas de profits
en dehors de la rémunération normale des facteurs de production.

L’introduction d’une innovation, définie comme un arrangement nouveau des


facteurs de production, peut donner naissance à de nouveaux produits ou à de nouvelles
méthodes de production qui supplanteront progressivement les anciens. Le ou les
entrepreneurs qui ont introduit cette innovation réaliseront des profits exceptionnels tant
que les prix des facteurs de production qu’ils utilisent correspondent à leur utilité dans
les productions anciennes. Mais leur succès même déclenchera un phénomène
d’imitation par d’autres producteurs et, en l’absence de nouvelles innovations, un
mouvement de retour à l’équilibre général se traduisant par la saturation progressive de
l’offre et de la demande et la baisse des profits dans la deuxième partie du cycle.

L’économie atteint ainsi une nouvelle situation d’équilibre, qui différe de la


précédente par de nombreux aspects. Les prix des biens de consommation et des
facteurs de production concernés par l’innovation ont changé, ce qui a pu déclencher
des ajustements dans des secteurs non directement touchés. Des produits, des
entreprises voire des secteurs entiers ont pu naître et d’autres disparaître, dans ce que
Schumpeter appelle la « destruction créatrice ». Certains compartiments de l’appareil
productif entrent ainsi en régression.

Pour introduire une innovation, l’entrepreneur doit pouvoir se procurer les


moyens de production nécessaires, alors que ceux-ci sont également demandés par le
cycle stationnaire existant, et qu’il ne dispose pas encore des revenus qu’il espère tirer
de son action innovante. Ceci exige donc une création artificielle de pouvoir d’achat
67 J. Schumpeter, Business Cycles, McGraw-Hill, 1939
68 J. Schumpeter, The theory of economic development, Oxford University Press, 1934 - titre
original Theorie der wirtschaftlichen Entwicklung (1911)

ccclii
sous forme de capital, qui n’a pas de contrepartie sous forme de biens réels et a donc un
effet inflationniste. A l’inverse, la mise sur le marché ultérieure des biens, sans création
de nouveau pouvoir d’achat, aura un effet déflationniste. Ces phénomènes monétaires
qui accompagnent l’innovation contribuent à expliquer sa chronologie : en début de
cycle, la capacité d’investissement est saturée, la tendance inflationniste pousse à limiter
le crédit et les turbulences engendrent l’incertitude, toutes circonstances défavorables à
toute nouvelle innovation. En fin de cycle, les capacités d’investissement se
reconstituent, le crédit se desserre pour contrer la déflation et la stagnation des
technologies invite à l’innovation. Ces facteurs expliquent le caractère cyclique des
phénomènes liés au processus d’innovation.

Les mécanismes que nous venons de décrire suffisent à expliquer l’impact de


l’innovation dans un compartiment limité de l’économie. Mais Schumpeter s’intéresse à
l’ensemble de l’économie et donc doit expliquer en outre pourquoi, au niveau global, les
innovations ne se produisent pas uniformément dans le temps mais par grappes séparées
par des intervalles d’environ 25 ans. Nous n’entrerons pas dans cette discussion qui fait
intervenir d’une part les mécanismes monétaires ci-dessus, et d’autre part l’idée que les
habitudes de consommation et de production ne se transforment profondément qu’au
rythme des générations, ce qui explique le chiffre de 25 ans.

Tout en nous limitant à des innovations isolées sans nous intéresser à l’économie
dans son ensemble, introduisons dans la théorie les considérations de structure
industrielle que nous avons développées tout au long de cet ouvrage. Nous pouvons
alors dire qu’une innovation déclenche trois processus parallèles :
–d’abord la diffusion du nouveau produit, aboutissant tôt ou tard à la saturation de
son marché. Ce processus se déroule probablement selon une courbe en S, avec un
démarrage modéré, une phase de croissance rapide puis un ralentissement progressif.
–deuxièmement, un processus d’imitation par d’autres offreurs et de développement
de la concurrence, qui tend à ramener l’économie vers l’équilibre stationnaire, en
particulier en réduisant les profits dans le secteur innovant.
–en troisième lieu, un processus d’adaptation structurelle de l’industrie par
éclatement, regroupement et disparition de secteurs, et par une nouvelle répartition
des parts de marché et un changement des positions relatives, qui prend toute son
importance dans les secteurs concentrés.

Ces trois processus sont évidemment liés. Le développement de la concurrence


accélère la diffusion du produit et contribue à la restructuration industrielle.
L’élimination des profits exceptionnels peut être très rapide dans les secteurs dispersés,
qu’ils l’aient été avant l’introduction de l’innovation ou qu’ils le soient devenus à cause
d’elle ; elle ne sera jamais complète dans les secteurs concentrés.

L’innovation initiale peut rayonner à partir du secteur où elle est née, et modifier
un plus ou moins grand nombre de secteurs, que ce soit en étant concurrente des
produits de secteurs connexes, ou parce que les nouveaux produits créent des
opportunités d’innovation dans d’autres secteurs, ou encore à travers la modification du
prix des facteurs de production, qui peuvent être utilisés dans d’autres secteurs et les
contraindre à s’adapter. Ces effets peuvent à leur tour déclencher des effets indirects

cccliii
analogues dans d’autres secteurs. Les impacts de l’innovation se diffusent ainsi de
proche en proche, plus ou moins rapidement et en touchant des secteurs plus ou moins
lointains avec des intensités diverses.

D’une façon générale, plus un secteur est affecté à un moment donné, moins il est
probable que de nouvelles innovations se produiront dans ce secteur. De plus, la
dynamique concurrentielle des secteurs dispersés érode rapidement leur capacité
d’innovation endogène, tandis que les secteurs concentrés conservent une certaine
capacité d’innovation. Les foyers d’innovation les plus probables sont donc ceux qui
n’ont pas été récemment touchés par une innovation antérieure, directement ou
indirectement, les secteurs concentrés ou des acteurs complètement nouveaux.

L’informatique vue de Sirius

La vision théorique ci-dessus ne s’applique qu’imparfaitement à la naissance de


l’informatique traditionnelle, qui s’est produite dans le secteur concentré mais existant
des machines mécanographiques. Il faut probablement tenir compte ici du facteur
exogène que constitue la volonté politique du Gouvernement des Etats-Unis, qui a
initialement doté des grandes firmes – IBM et Sperry – de la compétence dans ce
domaine. Par la suite, la croissance rapide sur un marché pratiquement vierge s’est
accompagnée d’un rythme d’innovations suffisant pour que le processus de
restructuration industrielle joue peu et que l’industrie reste majoritairement intégrée et
de structure concentrée.

L’apparition de l’informatique personnelle marque un tournant crucial en limitant


de fait aux entreprises le marché potentiel des ordinateurs conventionnels. L’industrie
correspondante doit inéluctablement s’engager dans un processus de saturation
progressive qui la condamne tôt ou tard au ralentissement de sa croissance, ce qui avive
la concurrence et accélère les restructurations. Autrement dit, la nouvelle informatique
enferme l’ancienne dans le cadre d’un développement fini qui comporte nécessairement
une phase de maturité et une phase de déclin.

En termes d’impact sur le reste de l’économie, l’informatique traditionnelle née en


1951 a éliminé la mécanographie d’où elle était issue, mais semble avoir eu en général
assez peu d’influence sur les processus de production des autres industries. Une
exception majeure est précisément les télécommunications, où son influence indirecte a
été jusqu’à contribuer à l’ouverture à la concurrence et à provoquer une restructuration
concurrentielle profonde de l’industrie. Le reste de l’économie a été touché de façon à
peu près uniforme à travers les processus administratifs, mais l’informatique
traditionnelle a engendré très peu d’occasions de produits innovants dans les autres
industries.

Le deuxième cycle majeur de l’informatique, commencé à la fin des années 70


avec l’ordinateur personnel, respecte bien la théorie puisque les innovateurs se situent
en dehors de l’industrie existante à l’époque. Il apporte non seulement des produits
nouveaux pour des marchés nouveaux, mais aussi des innovations radicales dans la
structure industrielle, qui naît fragmentée et non intégrée. Nous avons parlé de son
incidence négative sur l’informatique traditionnelle dont il limite les marchés. Il s’y

cccliv
ajoute une restructuration des secteurs traditionnels, par modification des niveaux de
prix d’éléments critiques comme les composants et les progiciels. Par ailleurs, à travers
l’évolution des composants et partiellement des matériels et des logiciels, la micro-
informatique sème des germes d’innovations dans toute l’économie, et crée dans les
autres industries de nombreuses occasions d’innovations, actuellement à divers stades
de concrétisation.

C’est précisément la réalisation de ce potentiel d’innovations qui caractérisera le


troisième cycle majeur, celui des objets informatisés. L’événement qui déclenche ce
cycle est la possibilité de loger sur une puce de petites dimensions un microprocesseur
avec la mémoire, les entrées-sorties et le système d’exploitation nécessaires à une
application. De nombreuses industries pourront alors s’approprier les technologies
informatiques en les incorporant dans des objets et des services informatisés
substituables aux autres produits et services issus de ces industries. Selon un mécanisme
analogue à ce que nous avons vu précédemment, ces développements limiteront le
marché de l’ordinateur universel et rendront à leur tour inéluctables les phases de
maturité puis de déclin des secteurs de l’informatique personnelle. Après son ascension,
de 1975 jusque vers 2000, elle entrerait alors en régression de 2000 à 2025, ce qui est
cohérent avec nos pronostics antérieurs sur l’épuisement des technologies des
composants.

Ce second ralentissement de la croissance entretiendra le mouvement de


restructuration de l’industrie informatique, en favorisant son éclatement en phase de
maturité et peut-être certains regroupements locaux en période de déclin. Le secteur des
composants, ou plutôt les secteurs en lesquels il se décomposera, servira de plus en plus
les autres industries, et son évolution s’affranchira de celle des matériels informatiques.
C’est en particulier de la demande des autres industries que dépendra principalement la
poursuite du progrès technologique dans les premières années du XXIe siècle. Le
domaine des matériels se décomposera de plus en plus en secteurs spécialisés, dont
certains seront indiscernables des secteurs homologues d’autres industries. L’entrée de
l’informatique en phase de maturité sera probablement favorable à l’éclatement du
macro-secteur des progiciels, dont nous avons évoqué la possibilité au chapitre 12,
grâce aux technologies des objets. Cette fragmentation probable s’accompagnera de la
diffusion croissante des compétences en logiciel vers les autres industries, renforçant
encore leur capacité d’innovation locale.

Au total, en même temps que ses technologies se diffuseront, l’industrie


informatique perdra ses frontières et par là même l’essentiel de son individualité. Il est
certain que ses acteurs de l’époque feront les mêmes efforts que les généralistes
d’aujourd’hui pour rester présents dans les nouveaux secteurs, mais leurs chances et leur
pourcentage de réussite seront probablement du même ordre.

En prolongeant hardiment les cycles précédents, on prévoirait ainsi une ascension


des objets informatisés de 2000 à 2025 environ, puis une régression de ces secteurs
entre 2025 et 2050. Quelles autres innovations pourraient alors limiter leur marché et
provoquer ce ralentissement, comme l’ordinateur personnel puis les objets informatisés
ont limité le marché de leurs prédécesseurs ? Dans le troisième cycle de l’informatique,
l’innovation induite par l’informatique sera diffuse dans de nombreuses industries dès
que le secteur de base des composants sera suffisamment stabilisé. Elle naîtra et se

ccclv
développera avec de nouveaux acteurs et de nouvelles règles du jeu, à côté de
l’informatique qui sera devenue un secteur relativement mineur dont on ne pourra plus
attendre d’innovations spectaculaires.

L’histoire de l’informatique serait alors terminée en tant que telle. Elle aura
fertilisé toute l’économie, mais en sera au passage devenue un élément secondaire, sous
réserve d’une innovation radicalement nouvelle, et par définition imprévisible, qui en
relancerait la dynamique. Mais de même que l’avenir des objets informatisés, ceci,
comme disait Kipling, est une autre histoire...

ccclvi
Annexe A
Tableaux des chapitres 4 et 5

Catégories par spécialisation

Les tableaux A–I à A–XII donnent pour chaque firme le pourcentage de son
chiffre d’affaires 1992 qu’elle a réalisé dans chacun des segments de marché figurant en
colonne.

Tableau A-III - Généralistes


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
IBM 12.7 8.9 11.9 2.9 17.6 12.3 3.4 11.8 10.0 8.5
Fujitsu 22.0 12.0 13.0 7.5 17.5 15.5 3.0 0.0 9.5 0.0
NEC 20.0 12.9 25.9 1.0 11.9 13.0 0.0 5.5 9.7 0.0
Digital Equipment 0.3 17.6 3.2 7.9 5.6 21.2 1.8 31.2 11.1 0.0
Hewlett-Packard 0.6 10.5 5.7 12.1 3.3 36.2 5.0 2.2 4.7 19.8
Hitachi 35.6 3.7 7.9 2.0 8.6 30.0 4.0 8.3 0.0 0.0
AT&T/NCR 1.4 4.9 9.6 0.0 2.7 21.8 31.7 16.4 11.5 0.0
UNISYS 25.1 0.0 5.5 8.3 9.1 0.0 0.0 21.5 17.1 13.4
Wang 0.0 16.1 14.8 0.0 4.0 13.4 2.7 42.3 6.7 0.0
Data General 0.0 29.5 6.4 6.8 2.3 15.0 0.0 30.1 9.1 0.0
Texas Instruments 20.0 10.0 20.0 0.0 4.4 20.0 0.0 0.0 0.2 5.6
Control Data 20.9 0.0 0.0 25.3 19.3 0.0 0.0 25.5 12.6 0.0
Wyse 0.0 0.0 18.7 18.7 0.0 62.5 0.0 0.0 0.0 0.0

Tableau A-IV - Spécialistes Grands Systèmes


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Convex 76.8 0.0 0.0 0.0 0.0 0.0 0.0 23.3 0.0 0.0
Cray 69.1 0.0 0.0 0.0 2.0 3.9 0.0 25.1 0.0 0.0
Amdahl 59.0 0.0 0.0 0.0 0.0 13.0 0.0 0.0 18.0 10.0

ccclvii
Tableau A-V - Spécialistes Moyens Systèmes
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Stratus 0.0 100 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
Sequent 0.0 73.5 0.0 0.0 2.3 6.5 0.0 0.0 17.6 0.0
Tandem 0.0 40.9 0.0 5.7 0.0 27.0 9.9 15.0 1.5 0.0

Tableau A-VI - Spécialistes Systèmes Personnels


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Commodore 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0 0.0 0.0
AST Research 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0 0.0 0.0
Compaq 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0 0.0 0.0
Gateway 2000 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0 0.0 0.0
Packard Bell 0.0 0.0 95.0 0.0 0.0 5.0 0.0 0.0 0.0 0.0
Dell 0.0 0.0 90.0 0.0 5.0 5.0 0.0 0.0 0.0 0.0
Tandy 0.0 0.0 84.4 0.0 1.9 11.7 0.0 1.9 0.0 0.0
Apple 0.0 0.0 75.4 0.0 3.8 20.7 0.0 0.0 0.0 0.0
CompuAdd 0.0 0.0 65.0 0.0 5.0 30.0 0.0 0.0 0.0 0.0

Tableau A-VII - Spécialistes Stations de travail


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Silicon Graphics 0.0 0.0 0.0 79.1 9.0 0.0 0.0 11.9 0.0 0.0
Sun 0.0 5.4 0.0 62.5 6.5 13.0 0.0 12.3 0.0 0.0
Intergraph 0.0 0.0 0.0 51.5 18.8 0.0 0.0 0.0 30.0 0.0

Tableau A-VIII - Spécialistes Périphériques


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Tektronix 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Micropolis 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Conner Periphs 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Quantum 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Maxtor 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Seagate 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Western Digital 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0
Lexmark 0.0 0.0 2.2 0.0 0.0 97.8 0.0 0.0 0.0 0.0
EMC 0.0 0.0 0.0 0.0 0.0 96.0 0.0 4.0 0.0 0.0
INTEL 4.9 0.0 0.0 0.0 0.0 95.4 0.0 0.0 0.0 0.0
Xerox 0.0 0.0 4.8 4.0 1.4 89.8 0.0 0.0 0.0 0.0
Canon 0.0 0.0 16.0 0.0 0.0 84.0 0.0 0.0 0.0 0.0
Kodak 0.0 0.0 0.0 0.0 0.0 69.5 0.0 0.0 0.0 30.5
Storage Tech 0.0 0.0 0.0 0.0 0.0 69.0 0.0 0.0 31.0 0.0
Diebold 0.0 0.0 0.0 0.0 0.0 53.7 0.0 46.2 0.0 0.0

ccclviii
Tableau A-IX - Spécialistes Périphériques de Communication
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Northern Telecom 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
Racal 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
Synoptics 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
3COM 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
Cabletron 0.0 0.0 0.0 0.0 0.0 0.0 92.8 7.2 0.0 0.0
Digital Comms 0.0 0.0 0.0 0.0 19.8 0.0 80.1 0.0 0.0 0.0
Motorola 0.0 20.3 0.0 0.0 0.0 0.0 79.7 0.0 0.0 0.0

Tableau A-X - Spécialistes Progiciel


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
SAS 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Autodesk 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Borland/Asht-Tate 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Novell 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Adobe 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Computer Ass 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Wordperfect 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Legent 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0 0.0 0.0
Microsoft 0.0 0.0 0.0 0.0 91.0 1.0 0.0 0.0 8.0 0.0
Lotus 0.0 0.0 0.0 0.0 90.0 0.0 0.0 0.0 10.0 0.0
Informix 0.0 0.0 0.0 0.0 83.7 0.0 0.0 0.0 16.2 0.0
Cadence 0.0 0.0 0.0 0.0 76.9 0.0 0.0 0.0 23.1 0.0
Mentor Graphics 0.0 0.0 0.0 25.9 74.1 0.0 0.0 0.0 0.0 0.0
Sybase 0.0 0.0 0.0 0.0 70.0 0.0 0.0 0.0 30.0 0.0
Oracle 0.0 0.0 0.0 0.0 59.7 0.0 0.0 19.2 21.1 0.0

Tableau A-XI - Spécialistes Maintenance


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Bell Atlantic 0.0 0.0 0.0 0.0 20.0 0.0 0.0 77.5 2.5 0.0

Tableau A-XII - Spécialistes Services


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Comp Task Group 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Shared Medical 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
SHL 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
ADP 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
First Data 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Nomura 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Price Waterhouse 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Coopers/ Lybrand 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Martin Marietta 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Boeing 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Litton 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Comp Sciences 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Ernst and Young 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
PRC 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0
Ceridian 0.0 0.0 0.0 0.0 1.5 0.0 0.0 0.0 98.5 0.0
TRW 0.0 0.0 0.0 0.0 0.0 0.0 0.0 3.0 97.0 0.0

ccclix
Fiserv 0.0 0.0 0.0 0.0 6.6 0.0 0.0 0.0 93.4 0.0
Grumman 0.0 0.0 0.0 0.0 0.0 0.0 0.0 7.5 92.5 0.0
Andersen Consult 0.0 0.0 0.0 0.0 10.1 0.0 0.0 0.0 89.9 0.0
Systematics 0.0 0.0 0.0 0.0 11.0 0.0 0.0 0.0 89.0 0.0
American Managt 0.0 0.0 0.0 0.0 11.7 0.0 0.0 0.0 88.3 0.0
EDS 0.0 0.0 0.0 0.0 12.3 0.0 0.0 0.0 87.7 0.0
Policy Managt 0.0 0.0 0.0 0.0 14.8 0.0 0.0 0.0 85.2 0.0
GE 0.0 0.0 0.0 0.0 15.0 0.0 0.0 0.0 85.0 0.0
Science Apps 0.0 0.0 0.0 0.0 0.0 0.0 0.0 15.0 85.0 0.0
CAP 0.0 0.0 0.0 0.0 20.0 0.0 0.0 0.0 80.0 0.0

Tableau A-XIII - Spécialistes Autres prestations


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
3M 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 100
Gerber 0.0 0.0 0.0 0.0 0.0 0.0 0.0 16.6 0.0 83.3

Tableau A-XIV- Firmes Mixtes


Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
NTT 0.0 0.0 0.0 0.0 0.0 0.0 60.0 0.0 40.0 0.0
Finsiel 0.0 0.0 0.0 0.0 52.7 0.0 0.0 0.0 47.3 0.0
Compvision/Prime 0.0 0.0 0.0 22.0 21.2 0.0 0.0 51.2 5.5 0.0
BT 0.0 0.0 0.0 0.0 0.0 0.0 47.5 0.0 52.5 0.0
Lockheed 0.0 0.0 0.0 0.0 0.0 64.1 0.0 0.0 35.9 0.0
NYNEX 0.0 0.0 0.0 0.0 40.0 0.0 0.0 0.0 60.0 0.0
Dun & Bradstreet 0.0 0.0 0.0 0.0 25.0 0.0 0.0 50.0 25.0 0.0
Ask Computer 0.0 14.3 0.0 0.0 48.0 0.0 0.0 0.0 37.7 0.0
Nat Comp Systs 0.0 0.0 0.0 0.0 10.0 33.3 0.0 0.0 56.7 0.0
MAI Systems 0.0 0.0 0.0 0.0 0.0 0.0 0.0 43.4 56.6 0.0
Reynolds/Reynold 0.0 13.2 0.0 1.1 8.1 8.1 0.0 27.8 42.1 0.0
Sterling Software 0.0 0.0 0.0 0.0 51.7 0.0 0.0 0.0 48.3 0.0
Datapoint 0.0 0.0 0.1 0.2 0.1 0.1 0.1 0.0 0.4 0.0

ccclx
Parts de marché

Tableau A-XV - Parts de marché par catégorie

Chaque ligne de ce tableau concerne une catégorie de firmes. Les chiffres


indiquent la part occupée par les firmes de cette catégorie dans le marché désigné par la
colonne. Par exemple, sur la première ligne, on lit que les firmes spécialisées en
communications réalisent 2% du CA total, 1.1% du CA moyens systèmes et 34.1% du
CA communications réalisé par l’ensemble des firmes de l’échantillon. Les chiffres
utilisés sont ceux de 1992

Categorie Total Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Comm 2.0 0.0 1.1 0.0 0.0 0.1 0.0 34.1 0.1 0.0 0.0
General 59.2 90.7 88.3 51.7 62.9 57.0 52.2 49.4 84.1 31.8 85.4
Large 1.3 9.1 0.0 0.0 0.0 0.1 0.7 0.0 1.2 1.0 2.4
Maint 0.3 0.0 0.0 0.0 0.0 0.5 0.0 0.0 2.8 0.0 0.0
Midrange 1.1 0.0 8.8 0.0 1.0 0.0 1.1 1.3 1.4 0.2 0.0
Mixed 3.7 0.0 0.6 0.1 2.5 4.7 1.2 15.2 4.6 8.4 0.0
Other 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.2 0.0 11.1
PC 6.8 0.0 0.0 45.7 0.0 1.2 3.6 0.0 0.0 0.0 0.0
Periph 8.4 0.2 0.0 2.6 1.0 0.1 40.2 0.0 1.1 1.0 1.2
Services 10.1 0.0 0.0 0.0 0.0 4.3 0.0 0.0 0.8 55.0 0.0
Software 4.4 0.0 0.0 0.0 0.8 30.5 0.1 0.0 1.1 1.8 0.0
Stations 2.2 0.0 1.2 0.0 31.8 1.6 1.0 0.0 2.6 0.8 0.0

Tableau A-XVI - Part de marché et population par segment

Pour chaque segment (en colonnes), ce tableau donne les pourcentages du chiffre
d’affaires réalisés respectivement par le groupe des 13 généralistes, les spécialistes du
segment et les autres firmes, ainsi que le nombre des firmes de chacune des 3 catégories
présentes. Les chiffres utilisés sont ceux de 1992.

.
large mid PC stat soft péri comm maint serv
gpe des 13 91% 88% 52% 63% 57% 52% 49% 84% 32%
(10) (10) (12) (10) (11) (11) (7) (10) (11)
spécialistes 9% (3) 9% (3) 47% 32% 30% 40% 35% 3% (1) 42%
(9) (3) (15) (14) (7) (26)
autres <1% 3% (4) 1% (4) 5% (6) 13% 8% 16% 13% 26%
(1) (32) (17) (4) (17) (26)

ccclxi
Analyse par segment de marché

Les tableaux A-XV à A-XXIII contiennent, pour chacun des segments, la liste des
firmes de l’échantillon qui y sont présentes. Pour chaque firme sont rappelées sa part de
ce marché en colonne 2, sa catégorie ou spécialisation en colonne 3, la part de ce
segment dans le chiffre d’affaires informatique de la firme (son degré de spécialisation
relativement à ce segment) en colonne 4. Les firmes sont classées dans l’ordre
décroissant de leur part de ce segment de marché.

Tableau A-XVII - Segment "Large"


Nom Part Categorie Spéc
IBM 33.4% General 12.7%
Fujitsu 18.1% General 22.0%
Hitachi 16.5% General 35.6%
NEC 12.6% General 20.0%
UNISYS 8.0% General 25.1%
Amdahl 6.1% Large 59.0%
Cray 2.2% Large 69.1%
Convex 0.7% Large 76.8%
Texas Instruments 0.7% General 20.0%
AT&T/NCR 0.6% General 1.4%
Control Data 0.4% General 20.9%
Hewlett-Packard 0.3% General 0.6%
INTEL 0.2% Periph 4.9%
Digital Equipment 0.2% General 0.4%

Tableau A-XVIII - Segment "Midrange"


Nom Part Categorie Spéc
IBM 32.6% General 8.9%
Digital Equipment 14.2% General 17.7%
Fujitsu 13.7% General 12.0%
NEC 11.3% General 13.0%
Hewlett-Packard 7.5% General 10.5%
Tandem 4.8% Midrange 40.9%
AT&T/NCR 2.9% General 4.9%
Stratus 2.8% Midrange 99.9%
Hitachi 2.4% General 3.7%
Data General 1.8% General 29.5%
Wang 1.4% General 16.1%
Sequent 1.3% Midrange 73.5%
Sun 1.2% Stations 5.4%
Motorola 1.1% Comm 20.3%
Texas Instruments 0.5% General 10.0%
Ask Computer 0.4% Mixed 14.3%
Reynolds and Reynolds 0.2% Mixed 13.2%

Tableau A-XIX - Segment "PC"


Nom Part Categorie Spéc
IBM 21.6% General 11.9%

ccclxii
Apple 15.3% PC 75.4%
Compaq 11.6% PC 100.0%
NEC 11.3% General 25.9%
Fujitsu 7.4% General 13.0%
Dell 5.1% PC 90.0%
AST Research 3.2% PC 100.0%
Gateway 2000 3.1% PC 100.0%
AT&T/NCR 2.8% General 9.6%
Hitachi 2.5% General 7.9%
Packard Bell 2.5% PC 95.0%
Canon 2.1% Periph 16.0%
Commodore 2.1% PC 100.1%
Hewlett-Packard 2.0% General 5.7%
Tandy 1.8% PC 84.4%
Digital Equipment 1.3% General 3.2%
UNISYS 1.2% General 5.5%
CompuAdd 1.0% PC 65.0%
Wang 0.6% General 14.8%
Texas Instruments 0.5% General 20.0%
Xerox 0.4% Periph 4.8%
Wyse 0.3% General 18.8%
Data General 0.2% General 6.4%
Lexmark 0.1% Periph 2.2%
Datapoint 0.1% Mixed 8.1%

Tableau A-XX -Segment Stations


Nom Part Categorie Spéc
Sun 20.4% Stations 62.5%
IBM 16.1% General 2.9%
Hewlett-Packard 13.0% General 12.1%
Fujitsu 12.9% General 7.5%
Digital Equipment 9.5% General 7.9%
Silicon Graphics 6.2% Stations 79.1%
UNISYS 5.5% General 8.3%
Intergraph 5.2% Stations 51.5%
Prime/Computervision 2.0% Mixed 22.1%
Hitachi 1.9% General 2.0%
NEC 1.3% General 1.0%
Control Data 1.1% General 25.3%
Xerox 1.0% Periph 4.0%
Tandem 1.0% Midrange 5.7%
Mentor Graphics 0.8% Software 25.9%
Wyse 0.8% General 18.8%
Data General 0.6% General 6.8%
Datapoint 0.4% Mixed 20.1%
Reynolds and Reynolds 0.0% Mixed 1.1%

Tableau A-XXI - Segment "Software"


Nom Part Categorie Spéc
IBM 32.1% General 17.6%
Fujitsu 10.0% General 17.5%

ccclxiii
Microsoft 8.4% Software 91.0%
NEC 5.2% General 12.0%
Computer Associates 5.0% Software 100.0%
Novell 2.8% Software 100.0%
Hitachi 2.8% General 8.7%
Lotus 2.3% Software 90.0%
Digital Equipment 2.3% General 5.6%
Oracle 2.2% Software 59.7%
UNISYS 2.0% General 9.1%
Finsiel 1.8% Mixed 52.8%
EDS 1.7% Services 12.3%
Wordperfect 1.6% Software 100.0%
Borland/Ashton-Tate 1.3% Software 100.1%
Legent 1.3% Software 100.0%
Hewlett-Packard 1.2% General 3.3%
Autodesk 1.0% Software 100.1%
SAS 1.0% Software 100.1%
CAP 1.0% Services 16.0%
Cadence 0.9% Software 76.9%
AT&T/NCR 0.8% General 2.7%
Apple 0.8% PC 3.8%
Andersen Consulting 0.8% Services 10.1%
Adobe 0.8% Software 100.0%
Mentor Graphics 0.7% Software 74.4%
Sun 0.7% Stations 6.5%
Informix 0.7% Software 83.6%
NYNEX 0.7% Mixed 40.0%
Prime/Computervision 0.6% Mixed 21.2%
Intergraph 0.6% Stations 18.8%
Ask Computer 0.6% Mixed 48.0%
Sybase 0.5% Software 70.2%
Bell Atlantic 0.5% Maint 20.0%
Sterling Software 0.4% Mixed 51.7%
Dun & Bradstreet 0.4% Mixed 24.9%
Dell 0.3% PC 5.0%
Control Data 0.3% General 19.3%
GE 0.3% Services 15.0%
Silicon Graphics 0.2% Stations 9.0%
Policy Management 0.2% Services 14.9%
Systematics 0.2% Services 11.1%
Wang 0.2% General 4.0%
Digital Comms 0.1% Comm 19.8%
Xerox 0.1% Periph 1.4%
American Management 0.1% Services 11.7%
Texas Instruments 0.1% General 4.4%
National Computer Systems 0.1% Services 10.0%
CompuAdd 0.1% PC 5.0%
Data General 0.1% General 2.3%
FISERV 0.1% Services 6.6%
Reynolds and Reynolds 0.1% Mixed 8.1%
Datapoint 0.1% Mixed 7.0%

ccclxiv
Cray 0.0% Large 2.0%
Tandy 0.0% PC 1.9%
Ceridian 0.0% Services 1.5%
Sequent 0.0% Midrange 2.3%

Tableau A-XXII - Segment "Periph"


Nom Part Categorie Spéc
IBM 15.3% General 12.3%
Hewlett-Packard 8.8% General 36.2%
Canon 7.5% Periph 84.0%
Hitachi 6.5% General 30.0%
Fujitsu 6.0% General 15.5%
Seagate 5.9% Periph 100.0%
Digital Equipment 5.8% General 21.2%
Xerox 5.2% Periph 89.8%
AT&T/NCR 4.4% General 21.8%
Conner Peripherals 4.3% Periph 100.0%
NEC 3.8% General 13.0%
Quantum 2.9% Periph 100.0%
Apple 2.9% PC 20.7%
Maxtor 2.7% Periph 100.0%
Lexmark 2.5% Periph 97.8%
INTEL 2.2% Periph 95.1%
Storage Technology 2.0% Periph 69.0%
Western Digital 1.8% Periph 100.0%
Tandem 1.1% Midrange 27.1%
Sun 1.0% Stations 13.0%
Lockheed 1.0% Mixed 64.1%
Micropolis 0.8% Periph 100.1%
EMC 0.6% Periph 96.0%
Amdahl 0.6% Large 13.0%
Tektronix 0.6% Periph 100.2%
Wyse 0.6% General 62.5%
Kodak 0.5% Periph 69.5%
Diebold 0.5% Periph 53.7%
Wang 0.4% General 13.4%
Data General 0.3% General 15.0%
Texas Instruments 0.3% General 20.0%
CompuAdd 0.3% PC 29.9%
Dell 0.2% PC 5.0%
National Computer Systems 0.2% Services 33.3%
Tandy 0.2% PC 11.7%
Packard Bell 0.1% PC 5.0%
Microsoft 0.1% Software 1.0%
Cray 0.1% Large 3.9%
Reynolds and Reynolds 0.0% Mixed 8.1%
Datapoint 0.0% Mixed 8.1%
Sequent 0.0% Midrange 6.5%

Tableau A-XXIII - Segment "Communications"


Nom Part Categorie Spéc

ccclxv
AT&T/NCR 21.8% General 31.7%
Northern Telecom 15.1% Comm 100.0%
IBM 14.5% General 3.4%
NTT 12.3% Mixed 60.0%
Motorola 4.9% Comm 79.7%
Racal 4.5% Comm 100.0%
Hewlett-Packard 4.1% General 5.0%
Fujitsu 4.0% General 3.0%
3COM 3.3% Comm 100.0%
Hitachi 3.0% General 4.0%
BT 2.7% Mixed 47.5%
Synoptics 2.6% Comm 100.1%
Cabletron 2.4% Comm 92.8%
Digital Equipment 1.6% General 1.8%
Tandem 1.3% Midrange 9.9%
Digital Comms 1.2% Comm 80.1%
Wang 0.3% General 2.7%
Datapoint 0.2% Mixed 12.4%

Tableau A-XXIV - Segment "Maintenance"


Nom Part Categorie Spéc
IBM 34.4% General 11.8%
Digital Equipment 20.0% General 31.2%
AT&T/NCR 7.7% General 16.4%
UNISYS 7.6% General 21.5%
Hitachi 4.2% General 8.3%
NEC 3.8% General 5.5%
Wang 2.9% General 42.3%
Bell Atlantic 2.8% Maint 77.5%
Prime/Computervision 2.5% Mixed 51.2%
Sun 2.1% Stations 12.3%
Data General 1.5% General 30.9%
Tandem 1.4% Midrange 15.0%
Hewlett-Packard 1.3% General 2.2%
Dun & Bradstreet 1.2% Mixed 50.0%
Oracle 1.1% Software 19.2%
Diebold 1.0% Periph 46.2%
Cray 0.9% Large 25.1%
Control Data 0.6% General 25.5%
MAI Systems 0.6% Mixed 43.4%
Silicon Graphics 0.5% Stations 11.9%
Science Applications 0.4% Services 15.0%
Reynolds and Reynolds 0.3% Mixed 27.8%
TRW 0.2% Services 3.0%
Convex 0.2% Large 23.3%
Gerber 0.2% Other 16.6%
Grumman 0.1% Services 7.5%
Cabletron 0.1% Comm 7.2%

Tableau A-XXV - Segment services

ccclxvi
Nom Part Categorie Spéc
IBM 13.6% General 9.9%
EDS 9.1% Services 87.7%
Computer Sciences 5.3% Services 100.0%
Andersen Consulting 5.2% Services 89.9%
ADP 4.4% Services 100.0%
Fujitsu 4.1% General 9.5%
CAP 4.0% Services 84.0%
TRW 3.8% Services 97.0%
Digital Equipment 3.3% General 11.1%
NEC 3.2% General 9.7%
UNISYS 2.8% General 17.1%
NTT 2.7% Mixed 40.0%
First Data 2.6% Services 100.0%
AT&T/NCR 2.6% General 11.5%
Nomura 1.8% Services 100.0%
Price Waterhouse 1.6% Services 100.0%
Ceridian 1.4% Services 98.5%
PRC 1.4% Services 100.0%
SHL 1.3% Services 100.0%
Hewlett-Packard 1.3% General 4.7%
Ernst and Young 1.3% Services 100.0%
Coopers and Lybrand 1.3% Services 100.0%
Finsiel 1.2% Mixed 47.3%
Systematics 1.1% Services 88.9%
GE 1.1% Services 85.0%
Martin Marietta 1.1% Services 100.0%
Storage Technology 1.0% Periph 31.0%
Shared Medical Systems 1.0% Services 100.1%
Boeing 1.0% Services 100.0%
Amdahl 1.0% Large 18.0%
Science Applications 1.0% Services 85.0%
BT 1.0% Mixed 52.5%
Policy Management 0.9% Services 85.3%
Litton 0.9% Services 100.0%
Grumman 0.8% Services 92.5%
NYNEX 0.8% Mixed 60.0%
Intergraph 0.7% Stations 29.0%
FISERV 0.7% Services 93.6%
Computer Task Group 0.6% Services 100.1%
American Management 0.6% Services 88.4%
Lockheed 0.6% Mixed 35.9%
Oracle 0.6% Software 21.1%
Microsoft 0.6% Software 8.0%
National Computer Systems 0.4% Services 56.6%
Ask Computer 0.4% Mixed 37.7%
MAI Systems 0.3% Mixed 56.6%
Texas Instruments 0.3% General 20.0%
Dun & Bradstreet 0.3% Mixed 24.9%
Sterling Software 0.3% Mixed 48.4%
Datapoint 0.2% Mixed 44.8%
Reynolds and Reynolds 0.2% Mixed 42.1%

ccclxvii
Structure de dépenses

Tableau A-XXVI - Structure de dépenses 1993


Nom Categorie RetD Coût Gen
Science Applications Services 0.31% 92.62% 7.08%
Quantum Periph 3.88% 90.25% 5.87%
Seagate Periph 5.47% 87.60% 6.94%
Conner Peripherals Periph 5.30% 87.49% 7.21%
AST Research PC 1.86% 86.56% 11.58%
Maxtor Periph 8.17% 85.91% 5.92%
Compaq PC 2.56% 85.04% 12.40%
Acer PC 2.66% 84.47% 12.88%
Dell PC 1.68% 83.82% 14.50%
Sun Stations 10.44% 83.82% 5.74%
Micropolis Periph 8.94% 80.70% 10.36%
Computervision/Prime Mixed 5.32% 77.40% 17.27%
Exabyte Periph 10.76% 76.58% 12.66%
Policy Management Services 4.89% 75.89% 19.22%
Diebold Periph 6.07% 75.50% 18.43%
Apple PC 7.77% 73.41% 18.82%
UNISYS General 7.23% 69.79% 22.98%
Amdahl Large 14.79% 69.52% 15.69%
National Computer Systems Services 3.07% 68.76% 28.17%
Hewlett-Packard General 9.04% 68.09% 22.87%
Groupe Bull General 7.63% 67.78% 24.59%
QMS Periph 3.05% 67.37% 29.58%
Storage Technology Periph 10.99% 67.12% 21.89%
Cray Large 17.49% 66.63% 15.88%
IBM General 7.88% 66.28% 25.84%
Ultimate Software 3.21% 66.03% 30.75%
MAI Systems Mixed 3.31% 65.85% 30.84%
EMC Periph 9.79% 65.38% 24.83%
Cisco Comm 9.45% 63.94% 26.61%
Control Data General 5.41% 63.06% 31.54%
Cabletron Comm 12.61% 63.03% 24.35%
Datapoint Mixed 3.59% 62.80% 33.60%
Digital Equipment General 9.95% 61.50% 28.55%
Data General General 8.53% 61.05% 30.41%
ADP Services 7.16% 60.97% 31.87%
Convex Large 12.93% 60.24% 26.83%
3COM Comm 10.58% 59.69% 29.73%
Pyramid Midrange 11.84% 58.99% 29.18%
Synoptics Comm 13.34% 58.76% 27.91%
Sequent Midrange 8.03% 58.09% 33.88%
Digital Comms Comm 10.31% 58.05% 31.64%
Intergraph Stations 13.78% 56.86% 29.36%
Silicon Graphics Stations 13.62% 56.48% 29.90%
Novell Software 15.46% 55.07% 29.47%
Tandem Midrange 12.34% 54.30% 33.36%

ccclxviii
Stratus Midrange 23.97% 43.66% 32.37%
Norsk Data Midrange 0.43% 41.10% 58.47%
Mentor Graphics Software 20.83% 39.79% 39.38%
Wang General 8.41% 39.03% 52.56%
Ask Computer Mixed 10.48% 39.02% 50.50%
Microsoft Software 17.52% 36.35% 46.13%
Oracle Software 11.79% 32.59% 55.62%
Adobe Software 25.30% 30.82% 43.88%
Cadence Software 18.36% 28.62% 53.02%
Autodesk Software 15.87% 28.58% 55.55%
Borland/Ashton-Tate Software 13.63% 27.00% 59.37%
Lotus Software 15.90% 26.55% 57.56%
Sybase Software 17.29% 26.28% 56.43%
Legent Software 14.23% 22.72% 63.05%
Informix Software 14.74% 16.53% 68.73%

ccclxix
Croissance du chiffre d’affaires

Tableau A-XXV - Croissance du chiffre d’affaires

Croissance annuelle du chiffre d’affaires des firmes, en pourcentage du chiffre


d’affaires réalisé l’année précédente. Les valeurs non disponibles ont été laissées en
blanc.
Cat Nom 86 87 88 89 90 91 92 93
com 3COM 99.4 90.4 57.0 33.6 5.7 -15.5 35.9 38.6
com Cabletron >100 >100 58.3 42.2 43.7
com Cisco >100 >100 >100 94.1 96.0
com Motorola 2.2 6.9 1.3 31.1 -7.9 -1.2 0.5 9.3
com Racal 2.4 -17.1 3.4 4.6 14.3 7.7 -6.3 2.5
com Synoptics -94.4 >100 41.1 56.6 81.2

gen AT&T/NCR -12.0 14.7 6.8 9.8 -5.9 -4.1 -2.9 0.2
gen Control Data -51.5 -20.3 -9.8 -57.0 -12.6
gen Data General 7.4 1.3 2.0 -2.6 -4.6 -2.1 -9.2 -3.8
gen Digital Equipment 22.9 51.8 15.4 -14.5 3.9 5.9 -0.5 -3.7
gen Fujitsu/ICL 64.2 27.8 25.0 -4.7 10.5 8.0 12.4 3.4
gen Groupe Bull 26.7 21.8 9.0 -2.4 -2.2 -6.7 -3.7 -16.1
gen Hewlett-Packard 18.5 17.6 23.8 23.1 14.1 10.6 14.9 31.0
gen Hitachi 63.9 25.1 40.2 12.1 2.7 7.8 10.3 3.1
gen IBM 6.1 6.7 9.0 -0.1 14.7 -7.1 -1.4 -3.1
gen NEC 63.9 36.6 29.2 7.5 -11.6 28.5 1.5 9.2
gen Olivetti 56.4 12.4 20.5 0.6 30.7 -5.7 -4.8 -12.0
gen Siemens Nixdorf 60.2 27.9 6.1 -2.3 3.6 -6.2 14.6 -14.0
gen Texas Instruments -8.4 -2.6 10.8 5.7 21.0 7.1 6.7 -5.0
gen UNISYS 3.4 -9.0 0.9 11.7 0.1 -15.1 -14.2 -8.4
gen Wang 9.9 9.0 0.3 -7.6 -12.2 -18.1 -15.2 -40.5

lge Amdahl 12.1 55.8 19.7 16.6 2.7 -21.1 48.3 -33.4
lge Convex >100 73.1 51.7 50.1 32.1 -5.4 17.0 -16.7
lge Cray 56.9 15.2 10.0 3.8 2.5 7.2 -7.5 12.2

mid Norsk Data 58.5 21.3 6.5 -20.5 5.6 -23.4 -34.9 -39.0
mid Philips 29.1 -89.5 56.2 >100 -6.8 -7.0 -83.1 -87.8
mid Pyramid 13.6 34.8 45.5 28.5 80.0 10.5 -11.1 21.1
mid Sequent >100 92.5 97.7 91.3 70.9 -14.3 44.1 15.1
mid Stratus 55.4 47.8 44.0 28.6 18.3 11.1 8.4 10.7
mid Tandem 34.0 30.3 15.5 17.7 11.7 3.2 6.9 -2.1

mix Ask Computer 30.2 48.5 51.3 20.5 9.1 9.7 12.3 -7.7
mix Comp/Prime 11.1 13.3 6.5 -6.5 4.7 -13.0 -22.9 -22.4
mix Datapoint -10.1 1.1 4.3 -15.7 -5.2 -3.6 -3.1 -28.0
mix Dun & Bradstreet 24.3 27.8 4.4 4.9 -17.8 1.9 0.9 -14.1
mix Finsiel 28.0 15.0 20.6 27.9 32.0 24.5 9.9 -18.4
mix MAI Systems 10.7 16.1 32.6 -13.9 0.2 -14.0 -19.0 -56.7
mix Sterling Software

ccclxx
PC Acer 26.4 >100 29.5 17.4 19.0 8.0 25.0 58.0
PC Amstrad >100 55.1 6.0 2.5 -30.2 -32.4 -29.6 -66.1
PC Apple 15.8 49.8 45.8 21.2 6.9 13.2 11.2 16.9
PC AST Research -1.2 71.6 59.0 4.6 21.7 41.1 37.9 97.8
PC Atari 81.6 41.0 35.9 8.6 1.0 -47.6 -50.7 -77.0
PC Commodore 4.9 -2.7 18.3 -10.2 14.9 4.3 -29.6 -52.2
PC Compaq 24.1 95.8 68.7 39.2 25.1 -9.1 25.3 75.4
PC Dell >100 >100 62.1 50.7 40.6 62.9 >100 42.7
PC Everex >100 97.5 6.4 15.2 -40.1
PC Nihon Unisys 56.3 30.4 66.3 8.4 3.0 27.0 28.5 -19.2
PC Packard Bell >100 >100 31.6 16.8 33.2
PC Seiko Epson 34.3 38.3 18.3 -6.3 5.6 -3.3 32.3 -13.1
PC Tandy 13.3 10.6 19.0 14.8 -26.7 -4.2 -13.7 -62.8
PC Tulip 101.5 -13.9 8.8

peri Archive 3.8


peri Canon 91.3 55.2 67.0 29.4 15.3 35.1 22.5 28.0
peri Comparex 21.0 -10.7 19.0 14.0 -10.7 4.7
peri Conner 85.6 81.3 89.8 19.5 62.0 -16.9
peri Diebold 1.3 5.2 2.6 4.0 1.5 7.7 9.8 22.2
peri EMC -3.0 50.2 >100
peri Evans & Suth 37.3 23.0 -3.6 6.9 13.7 -8.1 2.6 -4.2
peri Exabyte >100 22.8 8.0
peri INTEL 5.4 28.2 56.0 66.6 50.9 12.2 11.8 13.0
peri Mannesmann -25.1 43.4 15.9 85.0 -36.7 9.3 -22.6 -10.0
peri Maxtor 80.2 44.8 7.7 45.4 -11.4
peri Memorex Telex 10.1 20.9 3.2 -1.1 -8.9 -16.3 -9.2 -24.8
peri Micropolis >100 35.3 22.5 >100 -58.1 -7.8 13.0 -3.5
peri OKI Electric 39.7 20.8 27.6 4.2 17.4 7.1 -2.0 9.3
peri QMS 47.6 48.6 30.1 15.4 24.5 2.5 -6.1 5.4
peri Quantum 53.0 -3.3 49.9 43.1 30.4
peri Seagate 11.6 16.8 21.8 12.1 -4.1 -0.5 15.4 1.1
peri Storage Tech 19.6 12.1 22.4 -11.1 57.3 2.6 -4.0 -7.7
peri Syquest 18.0
peri Tandon 35.7 >100 7.0 22.2 11.6 9.4 -30.2 -71.6
peri Teradata >100 35.8 24.9
peri Western Digital 41.0 48.0 15.3
peri Xerox 16.5 15.0 21.9 -89.9 >100 -2.5 7.0 2.0

serv ADP 17.8 13.0 10.2 4.5 2.8 4.3 14.6 12.7
serv American Mgmnt -41.1 28.6 22.4 >100 -60.3 8.9 16.6 9.5
serv Andersen Cons’g 34.6 31.9 32.4 30.2 18.4 20.3 14.5 9.7
serv BSO/Origin 22.0 18.0 9.3
serv Cap Gemini 71.3 >100 38.3 -33.1 34.8 -4.6 64.9 -29.8
serv Ceridian -14.3
serv Comp Sciences 22.1 16.0 10.5 15.1 16.4 15.8 27.2 1.1
serv Comp Task Gp 23.9 18.6 28.6 6.5 4.7 16.9 6.2 -2.4
serv CSK Group 60.9 23.5 29.7 9.2 6.4 16.5 1.2 -4.9
serv EDS 21.6 26.8 33.7 13.3 40.7 24.4 20.3 7.8
serv First Data 7.9 12.4 21.4 -6.2 25.8

ccclxxi
serv Fiserv 46.2 18.1 57.1
serv GSI 34.3 23.3 13.9 5.5 35.4 12.6 15.1 -6.0
serv Hoskyns 33.6 34.4 20.8 -15.6 0.4
serv Logica 45.7 36.7 27.2 10.7 15.1 3.6 2.8 -9.3
serv National Comp 5.9 15.6 -4.1 -0.8 1.8
serv Policy Mgmt 19.5 20.5 20.0 19.7 -8.9
serv Programmator 169.9 41.2 10.0
serv Science Apps 15.7 24.7 10.5 17.0 11.1
serv Sema Group 64.0 30.3 18.7 1.0 42.2 10.2 6.8 17.6
serv Shared Medical 20.1 4.2 -3.1 3.0 3.4 8.8 7.0 6.8
serv Sligos 54.6 42.9 45.3 14.8 35.3 7.4 18.2 -2.2
serv Systematics 20.7 21.4 24.3
serv TRW 6.7 22.5 0.5 8.0 0.0 4.5 -0.5 1.9
serv VOLMAC 81.6 44.7 33.3 -6.4 52.2

soft Adobe >100 >100 >100 45.4 39.0 36.2 15.8 17.9
soft Autodesk 77.6 51.3 47.9 52.3 33.2 19.8 29.1 13.9
soft Boole+Babbage 6.2
soft Borland/AshtTate >100 37.0 16.0 -32.4 58.8 15.2 -4.5 -0.9
soft Cadence 16.6 61.3 0.6 10.8 -15.2
soft Computer Ass 43.7 42.7 34.4 -3.4 20.6 17.6 -3.9 16.0
soft Corel 56.0
soft Informix 91.5 89.2 51.1 40.1 0.8 23.1 57.7 24.4
soft Legent 77.7 >100 32.4 1.2 4.5 15.1 >100 -1.3
soft Lotus 25.5 39.8 18.4 18.7 23.1 21.1 8.6 9.0
soft Mentor Graphics 26.9 27.8 35.6 26.3 14.5 -8.1 -12.3 -3.1
soft Microsoft 60.0 75.5 57.3 32.6 55.1 54.0 42.9 26.4
soft Novell >100 77.6 47.3 15.2 22.7 35.0 39.2 18.8
soft Oracle >100 >100 >100 94.8 37.6 2.5 20.7 29.2
soft SAP 64.6 25.0 25.1
soft SAS
soft Software AG 84.8 34.4 31.8 15.5 29.0 18.7 16.5 2.0
soft Sybase >100 64.8 61.3
soft Ultimate 27.6 24.1 1.6 1.3 -4.7 -1.3 -38.7 -23.7

stat Intergraph 15.1 5.8 24.8 7.5 21.5 14.4 -1.6 -10.7
stat Silicon Graphics 88.3 >100 79.4 50.4 40.6 32.3 45.0 32.8
stat Sun >100 >100 93.4 41.1 34.0 25.0 10.9 17.3

Profitabilité par catégorie

Les tableaux A–XXVI à A–XXXVdonnent le bénéfice net après impôts de chaque


firme pour l’année considérée, exprimé en pourcentage du chiffre d’affaires. Les valeurs
non disponibles ont été laissées en blanc.

Tableau A-XXVI - Généralistes


Nom 85 86 87 88 89 90 91 92 93 94
AT&T/NCR 4.5 4.9 6.3
Control Data -15.4 -17.3 -0.5 0.2 -0.6 -25.9 2.0 1.9

ccclxxii
Data General 0.2 -2.1 -8.9 -3.3 -9.3 -8.6 6.4 -5.4 -7.8 -3.7
Digital Equip 5.7 10.2 12.0 7.6 6.8 -0.7 -6.1 -17.7 -0.5 -15.9
Fujitsu/ICL 2.4 2.3 2.9 3.4 2.5 2.5 1.9 0.1 -0.4
Groupe Bull 0.7 1.1 0.9 0.8 -0.6 -19.6 -9.9 -15.7 -17.9 2.2
HP 6.9 6.9 7.3 7.5 6.4 5.7 5.7 4.9 6.0 6.4
IBM 13.1 9.2 9.5 9.7 6.0 8.7 -4.4 -7.7 -13.0 4.7
Olivetti 8.2 7.7 5.5 4.2 2.2 0.7 -5.3 -8.1 -5.4
UNISYS 5.6 1.2 5.5 6.6 -6.3 -4.3 -16.0 4.3 7.3 1.4
Wang -2.6 -3.2 3.2 1.3 -18.9 -28.1 -19.6 -24.2 38.2 1.7

Tableau A-XXVII - Grands systèmes


Nom 85 86 87 88 89 90 91 92 93 94
Amdahl 3.3 4.3 9.7 12.2 7.3 8.5 0.6 -0.3 -34.5 4.6
Convex -41.5 10.0 12.6 5.8 7.4 8.8 -3.5 1.2 -33.0
Cray 19.9 20.9 21.4 20.7 11.3 14.0 13.1 -1.9 6.8 6.1

Tableau A-XXVIII - Moyens systèmes


Nom 85 86 87 88 89 90 91 92 93 94
Norsk Data 16.2 15.1 7.0 -33.3 -13.3 -7.1 -45.5 -36.5 7.0
Pyramid 11.1 -8.1 31.0 10.7 8.2 9.2 -5.0 -20.7 3.7
Sequent ns -4.5 10.4 8.5 11.0 7.6 -22.8 4.7 -2.1 7.3
Stratus 10.7 10.8 10.5 11.0 10.4 9.2 11.1 11.7 9.5 10.6
Tandem 5.1 8.4 8.8 7.2 7.0 5.2 -3.4 3.4 -25.6 8.1

ccclxxiii
Tableau A-XXIX - PC
Nom 85 86 87 88 89 90 91 92 93 94
Acer 6.9 12.5 6.3 5.1 -0.3 0.3 -2.3 0.2 2.2 6.4
Apple 4.1 7.7 9.2 9.5 8.2 8.7 5.0 7.3 -0.4 4.8
AST 17.1 10.2 2.9 0.9 2.4 9.0 8.5 5.1 -1.9 -1.5
Atari -10.1 1.0
Commodore -29.7 -1.2 4.5 7.2 1.0 4.0 4.8 -15.6 -60.3
Compaq 5.3 6.9 11.1 12.4 11.6 12.6 4.0 5.2 6.4 8.0
Dell 2.4 3.2 5.9 5.6 1.3 5.0 5.7 5.0 -1.4 4.3
Everex 5.4 5.6 4.9 5.6 -0.2 -6.4 -11.6
Gateway 5.8 3.6
Nihon Unisys 2.0 1.8 1.8 1.7 1.7 1.7 0.6 1.5 0.7
Packard Bell 2.0 1.4 0.0
Tulip 9.2 7.9 4.0 -4.5 1.3

Tableau A-XXX - Stations


Nom 85 86 87 88 89 90 91 92 93 94
Intergraph 12.9 11.6 10.9 11.0 9.2 6.0 5.9 0.7 -11.0 -0.7
Silic Graph -4.8 9.6 1.1 3.2 5.9 8.3 5.7 -7.5 9.7 9.4
Sun 5.4 7.1 6.4 6.1 1.8 5.5 5.8 3.3 4.2 4.8

Tableau A-XXXI - Périphériques


Nom 85 86 87 88 89 90 91 92 93 94
Archive 2.1 2.6 -14.3
Comparex 5.0 5.0 3.3 5.1 3.0 1.9 0.9 3.5
Conner 9.2 8.0 5.9 9.7 5.8 6.1 -20.7 4.6
Diebold 7.4 8.4 8.1 8.0 7.7 5.7 7.1 4.3 7.8 8.4
EMC 22.2 -6.3 5.6 8.2 16.2 18.2
Evans+Suth 7.8 10.0 10.9 1.5 0.7 10.5 7.4 5.1 2.9
Exabyte ns 8.7 13.8 7.1 5.2 8.4
Iomega 3.4
Maxtor 13.5 3.5 -11.5 0.3 -6.8 6.4 -11.4 -9.9
Memorex 8.3 3.2 2.3 -3.3 -3.2 -3.7 -38.0 11.8 -18.1 23.4
Micropolis 3.0 8.6 9.4 -5.5 -5.5 2.1 1.2 4.9 -5.2
QMS 7.6 7.0 2.9 -1.6 4.8 5.3 4.9 -0.7 -1.8 1.0
Quantum 10.9 4.5 -1.4 9.3 4.6 5.5 -0.5 4.0
Seagate 2.5 12.7 10.7 -0.4 5.8 3.4 2.7 7.2 4.9 6.4
Storage Tech -8.9 4.6 -39.3 4.3 4.9 6.0 5.9 1.0 -5.5 2.6
Syquest 7.8 7.4
Tandon -1.4 -2.0 5.9 -1.1 6.1 -10.4 -20.6
Teradata ns -2.5 10.5 2.8 3.3
West Digital 8.6 5.0 -10.4 -0.2 -2.3 7.5

Tableau A-XXXII - Communications


Nom 85 86 87 88 89 90 91 92 93 94
3COM 10.0 10.4 9.1 9.5 6.1 5.5 -8.9 2.4 10.2 8.2
Cabletron 7.4 16.1 21.6 20.2 19.9 23.5 19.9 20.0
Cisco 0.0 5.7 4.0 23.0 24.1 25.9 26.0 21.7
Dig Comms 11.7 -27.0
Synoptics -0.8 -4.9 14.7 16.0 10.8 10.9 10.8

ccclxxiv
Tableau A-XXXIII - Progiciels
Nom 85 86 87 88 89 90 91 92 93 94
Adobe 10.9 22.4 22.9 25.3 27.8 23.8 22.5 16.4 18.2 1.1
Autodesk 22.0 22.1 25.9 27.9 26.0 23.9 20.3 11.9 15.6 1.7
Boole+Babb 6.5 7.4
Borland/Asht 13.7 12.7 12.8 12.6 -10.8 0.4 -15.3 -17.5 -3.2 -4.8
Cadence -8.6 -19.7 9.7 -1.6 -5.5 12.8 -1.8 8.6
Comp Ass 10.3 6.5 6.1 10.7 12.0 9.4 8.4 11.5 16.6 16.6
Corel 12.3 19.8 19.8
Informix 23.3 12.7 13.6 1.4 4.4 -31.8 7.0 16.9 15.9 14.1
Legent 18.2 19.6 16.0 16.9 14.7 19.2 17.4 7.7 13.6 10.8
Lotus 16.9 17.1 18.2 12.6 12.2 3.4 5.2 8.9 5.7 -2.1
Mentor 5.9 6.3 9.2 12.3 11.8 5.4 -15.4 -11.6 -9.4 8.0
Microsoft 19.2 22.2 20.3 21.1 21.9 26.2 25.5 25.7 25.2 24.7
Novell 11.5 11.8 10.8 10.8 12.3 20.8 25.9 27.1 -2.8 10.4
Oracle 8.9 9.4 12.5 14.3 12.7 5.4 0.1 3.5 12.6 14.3
SAP 18.0 18.2 17.4 15.3 13.3 15.4
Software AG 19.8 15.9 7.9 3.7 0.6 1.1
Sybase ns 0.4 6.2 9.0 10.3 10.8
Ultimate 10.3 8.6 8.7 -8.1 1.1 -20.2 -23.7 -20.0 -2.8

Tableau A-XXXIV - Services


Nom 85 86 87 88 89 90 91 92 93 94
ADP 8.6 8.9 10.2 11.0 11.6 12.7 13.2 13.1 13.4
Am Mgmt 3.8 4.4 2.5 4.6 4.6 5.7 4.7 5.0
BSO/Origin 8.1 8.9 2.6 2.5 -1.4
Cap Gemini 5.9 6.6 6.7 6.9 7.4 8.2 8.0 -0.9 -4.6 -10.6
Comp Sc 2.8 3.1 3.6 3.9 3.8 4.0 3.4 3.1 3.6 0.0
Comp Task 3.5 3.6 3.0 2.9 -3.3 3.0 0.3 1.9 -9.4 1.7
CSK Group 7.0 6.3 6.0 5.7 5.9 5.9 5.7 2.5 2.7
EDS 5.5 5.9 7.4 7.9 8.0 8.9 7.6 7.8 8.5 8.2
First Data 13.6 15.4 13.5 12.2 11.5 14.7 11.6
Fiserv 8.4 7.4 6.5 6.9 5.9
GSI 1.2 1.0 2.1 4.0 4.5 4.5 4.4 3.3 1.7
Hoskyns 4.1 4.1 5.2 5.0 4.4 4.8 2.8
Logica 4.0 5.4 6.4 7.1 5.9 1.7 -3.3 2.5 2.3
Nat Comp 8.0 8.6 6.4 4.1 5.1 5.5 -0.8 3.9
Policy Mgmt 9.2 9.5 9.5 10.7 11.5 11.9 -12.4
Progr’tor 1.9 1.6 0.5 -6.2 -8.9
Sci Apps 2.7 2.6 3.0 2.9 2.6 2.5 2.5
Sema Group 2.9 3.4 5.9 2.8 3.5 2.8 2.6 7.0 4.4 5.4
Shared Med 13.4 8.5 11.6 7.8 5.9 5.6 5.8 6.0 6.2
Sligos 2.2 2.7 5.2 4.8 5.2 9.6 5.3 4.7 4.5
VOLMAC 20.7 21.3 21.8 18.7 13.0 12.5 8.7

Tableau A-XXXV - Firmes mixtes


Nom 85 86 87 88 89 90 91 92 93 94
Ask 8.1 7.6 6.5 7.5 3.4 1.3 -13.8 1.4 -4.0
Comp’vision -2.4 3.1 5.5 1.2 -18.2 -8.5 -38.9 -21.2 -69.0 1.7
Datapoint -13.7 -20.3 4.8 1.9 -18.6 -21.0 3.5 -2.9 -8.6
Finsiel 2.0 3.2 3.2 2.5 2.2 2.5 3.4 3.5

ccclxxv
MAI Systems -0.8 3.6 7.4 5.5 -11.3 -22.2 -18.2 ns 24.5
Sterling Soft 13.0 12.3

ccclxxvi
Bibliographie
Cette bibliographie ne contient que les références directement citées dans cet ouvrage. Ces
références contiennent souvent de nombreuses références à d'autres ouvrages, ou reprennent souvent le
contenu d'ouvrages antérieurs du même auteur ou d'auteurs ayant traité des mêmes sujets.

BAIN J. .S – Industrial Organizations, Wiley (1959)


DE BANDT J. – Les Services, Economica (1991)
BASHE C., JOHNSON L., PALMER J., PUGH E. – IBM’s Early Computers, The MIT Press (1986)
BAUMOL W.J., PANZAR J.C., WILLIG R.D. – Contestable Markets and the Theory of Industry Structure,
Harcourt Brace Jovanovitch (1982)
BELL D. – The Coming of Post-Industrial Society, Basic Books (1973) – traduction française Vers la
Société Post-Industrielle, Laffont (1976)
BIENAYMÉ A. – Le capitalisme adulte, Presses Universitaires de France (1992)
BROCK G.W. – The US Computer Industry, Ballenger (1975)
CHAMBERLIN E.H. – The Theory of Monopolistic Competition, Harvard University Press (1933)
CHANDLER A.D. – Strategy and Structure - Chapters in the History of the Industrial Enterprise, MIT Press
(1962, 1989) – traduction française Stratégies et Structures de l’Entreprise, Editions d’Organisation
(1972,1989)
CYERT R.M., MARCH J.G. – A Behavioral Theory of the Firm, Prentice Hall (1963)
DELAMARTER R.T. – Big Blue, IBM’s use and abuse of power, Donald Mead (1986)
DESAINTQUENTIN J.M., SAUTEUR B. – L’Informatique éclatée, Masson (1991)
DESAINTQUENTIN J.M., SAUTEUR B. – Une Nouvelle Donne pour l’Informatique, Editions Synthèse
Informatique (1993)
FISHER, MANCKE, MCKIE— IBM and the Data Processing Industry - An Economic History, Praeger (1983)
FISHER F.M., MCGOWAN J.J., GREENWOOD J.E.— Folded, Spindled and Mutilated - Economic Analysis of US
vs IBM, MIT Press (1983)
GERSHUNY J. – After Industrial Society? The Emerging Self-Service Economies, Oxford University Press
(1978)
HAX A.C., MAJLUF N.S. – Strategic Management, An Integrative Perspective, Prentice hall (1984)
KOTLER P. – Principles of Marketing, Prentice Hall (1980)
LAWRENCE P.R., LORSCH J.W. – Organization and Environment, Harvard School Business Press
(1986) – traduction française : Adapter les Structures de l’Entreprise, Editions d’Organisation
(1989)
MCKINSEY & COMPANY, INC – Report on the Computer Industry, (1991, 1992, 1993 et 1994)
MARCH, SIMON – Organizations, Wiley (1958) – traduction française : Les Organisations, Problèmes
Psychologiques, Dunod (1991)
MOREAU R. – Ainsi naquit l'informatique, Dunod (1981)
PETERS T.J., WATERMAN R.H – In Search of Excellence, Harper & Row (1982)
PORTER M.E. – Competitive Strategy, The Free Press (1980) – traduction française : Choix Stratégiques et
Concurrence, Economica (1982)
PORTER M.E. – The Competitive Advantage, The Free Press (1985) – traduction française : L’Avantage
Concurrentiel, InterEditions (1986)
PUGH E., JOHNSON L., PALMER J. – IBM’s 360 and Early 370 Systems, The MIT Press (1991)
RAPPAPORT A. – Creating Shareholder Value, The Free Press (1986)

ccclxxvii
RAINELLI M. – Economie Industrielle, Dalloz (1993)
SAMUELSON P.A. – Economics, McGraw Hill (1948 etc...)
SCHERER F.M. – Industrial Market Structure and Economic Performance, Rand McNally (1980)
SCHERER F. M. ET AL – The Economics of Multi-Plant Operation, an international comparison study,
Harvard University Press (1975)
SCHUMPETER J. – Business Cycles, McGraw-Hill (1939)
SCHUMPETER J. – The Theory of economic development, Oxford University Press (1934)
SIMON H. A.— Behavioral Economics and Business Organizations, 1982)
SIMON H.A. – Administrative Behaviour, The Free Press (1945,1976)
STIGLER – The Organization of Industry, Richard Irwin (1968)
WILLIAMSON O.E. – The Economics of Discretionary Behavior, Prentice Hall (1964)
WILLIAMSON O. E. – Markets and Hierarchies, The Free Press (1975)

ccclxxviii

Das könnte Ihnen auch gefallen