Beruflich Dokumente
Kultur Dokumente
L'industrie informatique
Structure, économie,
perspectives
(Masson, 1996)
i
Table
Table ..............................................................................................................ii
Introduction ....................................................................................................v
Quelques réalités des entreprises...............................................................vi
Mythes et idées reçues.............................................................................viii
Un modèle de l’industrie...........................................................................ix
A la recherche des lois de fonctionnement................................................xi
Structure de l’ouvrage.............................................................................xiii
Première partie
Les faits.................................................................................................................xvi
Chapitre 1
Naissance de l'industrie (1951-1968)..................................................................xviii
Les débuts (1951-1963).........................................................................xviii
Le 360 et la fragmentation du matériel (1964)......................................xxiii
Résumé.................................................................................................xxvii
Chapitre 2
Les crises d’adolescence (1968-1980).................................................................xxx
Le temps des procès (1968 - 1982).........................................................xxx
L'« unbundling » (1969-1972) et la fragmentation des services.........xxxiv
Remous dans le bas de gamme................................................................xlii
FS ou la fin d'une illusion (1971 - 1975)................................................xlvi
Vers la maturité (1976 à nos jours).......................................................xlviii
Chapitre 3
Une autre informatique apparaît (1975-1993)..........................................................l
Les débuts de la micro-informatique (1975-1981)......................................l
Le PC, un monde enfin ouvert....................................................................li
Le monde Unix........................................................................................lvii
Le panorama en 1993................................................................................lx
Chapitre 4
La structure de l'industrie......................................................................................lxii
Typologie des acteurs.............................................................................lxiii
Correspondance entre secteur et marché...............................................lxvii
Structure de dépenses et modèles d’entreprise.....................................lxxiii
Synthèse................................................................................................lxxvi
Conclusions.........................................................................................lxxvii
Chapitre 5
Structure et performances..................................................................................lxxix
Les taux de croissance...........................................................................lxxx
Profitabilités comparées.......................................................................lxxxi
Facteurs de profitabilité...........................................................................xci
Conclusions...........................................................................................xciii
Deuxième partie
Les matériels et les mécanismes économiques.....................................................xcv
ii
Chapitre 6
Les mécanismes économiques..........................................................................xcviii
Quelques notions d’économie industrielle.............................................xcix
La concurrence et les structures industrielles.........................................cvii
Les secteurs de l’industrie informatique.................................................cxii
Chapitre 7
Les composants, un secteur concentré..............................................................cxxiii
Historique............................................................................................cxxiii
Le segment et le secteur........................................................................cxxv
Les problèmes techniques....................................................................cxxvi
Economie de la production..................................................................cxxix
Concurrence, prix et parts de marché................................................cxxxiv
Perspectives...........................................................................................cxlv
Chapitre 8
Les matériels, un secteur dispersé..........................................................................cli
Historique.................................................................................................cli
Technologie et économie........................................................................cliii
Segmentation et options stratégiques.......................................................clv
Les caractéristiques du secteur.............................................................clviii
La miniaturisation et ses limites.............................................................clix
Evolution des structures industrielles......................................................clx
Un secteur en pleine santé....................................................................clxiii
Chapitre 9
La différenciation des entreprises........................................................................clxv
La personnalité des entreprises.............................................................clxvi
L’approche relativiste de l’organisation................................................clxxi
Personnalités et structure.....................................................................clxxx
Personnalités par secteur...................................................................clxxxiv
Troisième partie
L’immatériel.......................................................................................................cxcii
Chapitre 10
Le labyrinthe du logiciel et des services............................................................cxciv
Services et produits...............................................................................cxcv
Les diverses formes de logiciel...............................................................ccv
Conclusions..........................................................................................ccxiv
Chapitre 11
L'industrie du progiciel......................................................................................ccxvi
historique et situation..........................................................................ccxvii
Caractéristiques du secteur....................................................................ccxx
Les formes de progiciel......................................................................ccxxiii
Le développement des progiciels......................................................ccxxvii
Economie de la production et structure sectorielle...........................ccxxxii
Les acteurs du progiciel...................................................................ccxxxix
Résumé et perspectives.......................................................................ccxliii
iii
Chapitre 12
Les systèmes d’exploitation et la standardisation.............................................ccxlv
Fonctions et structure des systèmes d’exploitation.............................ccxlvi
Standardisation, innovation et concurrence............................................ccli
L’évolution des systèmes et la place d’Unix........................................cclvii
Perspectives........................................................................................cclxiii
Conclusions..........................................................................................cclxx
Chapitre 13
L’univers des services.......................................................................................cclxxi
Services en informatique et services informatisés............................cclxxiii
Les services de substitution et l’histoire du Service Bureau.............cclxxvi
Les services de support ..................................................................cclxxxiii
Le panorama des années 90.................................................................ccxcii
Conclusions........................................................................................ccxcix
Quatrième partie
Vers un nouvel ordre industriel............................................................................ccci
Chapitre 14
L’informatique éclatée.......................................................................................ccciv
Intégration et dés-intégration des entreprises........................................cccv
Dés-intégration et homogénéisation de l’industrie...............................cccix
Conclusion........................................................................................cccxxiv
Chapitre 15
Les mécanismes intégrateurs........................................................................cccxxvii
Les systèmes et le problème de l’intégration.................................cccxxviii
Partenariats et alliances................................................................cccxxxviii
Vers une recomposition ?...................................................................cccxlv
Conclusions..........................................................................................ccclii
Chapitre 16
Les frontières de l'informatique........................................................................cccliv
Les télécommunications....................................................................ccclxiv
L’évolution à long terme...................................................................ccclxxi
Annexe A
Tableaux des chapitres 4 et 5.......................................................................ccclxxvii
Catégories par spécialisation..........................................................ccclxxvii
Parts de marché...............................................................................ccclxxxi
Analyse par segment de marché.....................................................ccclxxxii
Structure de dépenses..................................................................ccclxxxviii
Croissance du chiffre d’affaires ..........................................................cccxc
Profitabilité par catégorie..................................................................cccxcii
Bibliographie.......................................................................................cccxcvii
iv
Introduction
Le sujet central de ce livre est l’analyse des forces et des mécanismes qui
gouvernent en profondeur l’évolution de l’industrie informatique, afin de proposer une
grille de lecture des événements qui en font l’actualité ainsi qu’une perspective
raisonnée de son devenir. Son but est de montrer l’ordre caché derrière l’apparent
désordre actuel. A la lumière de quelques phénomènes technologiques et économiques
fondamentaux, il cherche à éclairer les mutations en cours et à venir de cette industrie,
l’évolution prévisible de ses produits et ses interactions avec le reste de l’économie.
Cet ouvrage n’est pas un nouveau livre sur les produits et les techniques
informatiques. Mais en analysant les stratégies des offreurs et la dynamique à laquelle
ils obéissent, il éclaire les motivations qui les poussent à transformer le potentiel
technologique en une offre de produits spécifique. A travers les contraintes qu’elle
impose aux acteurs et les opportunités qu’elle leur présente, la structure industrielle
détermine l’offre informatique. Les produits et services disponibles sur le marché
peuvent être analysés comme les instruments visibles de la concurrence entre firmes
productrices. Ils reflètent autant les motivations et les préférences de celles-ci que
l’action réputée impersonnelle de l’évolution technologique ou de la demande du
marché.
De la même façon, cet ouvrage n’aborde pas les questions liées à la mise en œuvre
et aux applications de l’informatique, ni à son influence sur l’économie ou la culture en
général. Mais par extension, en aidant à prévoir l’évolution des produits et des services
informatiques, il peut contribuer à éclairer l’évolution de leurs utilisations et plus
généralement de leur impact sur les autres industries et l’ensemble de notre cadre de vie.
v
Comparé à d’autres ouvrages d’économie industrielle, l’objet de celui-ci – une
industrie particulière – est assez précis pour que les considérations théoriques y restent
toujours confrontées à l’expérience du dirigeant d’entreprises. Il est en même temps
assez large pour ne pas être une monographie purement factuelle et comporter l’amorce
de développements théoriques. Il n’est pas interdit de penser que la même démarche et
les mêmes concepts pourraient se révéler utiles à la compréhension d’autres industries
complexes, voire être le point de départ de contributions plus générales à l’étude des
structures industrielles.
Comme pour tous les livres, le point de départ de celui-ci est mon expérience
personnelle, et plus précisément trois convictions acquises dans ma vie professionnelle.
La première est que les firmes sont différentes les unes des autres non seulement par
leurs productions et leurs résultats, mais aussi par leurs motivations, leur façon de
fonctionner et les possibilités d’action qui leur sont ouvertes. Deuxièmement, la
conviction que n’importe quelle firme ne peut pas réussir dans n’importe quel projet.
Enfin, le constat que les deux vérités ci-dessus sont méconnues de l’immense majorité
des observateurs et des commentateurs, alors qu’elles contribuent fortement à expliquer
la réalité industrielle.
Au lieu d’un concert où chacun jouait avec confiance sa partie spécifique, mais où
la cohérence de l’ensemble n’apparaissait qu’à des niveaux très élevés, je découvrais
des entreprises où la responsabilité de profit était déléguée et revendiquée jusqu’au plus
bas de l’organisation. Dans cette structure, les décisions stratégiques comme les
décisions opérationnelles étaient largement décentralisées, et le système de gestion
relativement simple et peu formalisé. Des unités différentes adoptaient ainsi des
comportements et des méthodes hétérogènes, entraînant des conflits entre groupes de
cultures différentes, et des divergences entre dirigeants quant à la stratégie, à
l’organisation et aux systèmes de gestion.
Il n’a fallu qu’un peu de temps et d’humilité pour comprendre que ces différences
ne sont pas des déviations fortuites qui demandent une remise en ordre rapide, mais
reflètent des différences fondamentales entre des activités de nature différentes. Aussi,
tenter de les éliminer en imposant un même ensemble de valeurs et de méthodes, par
exemple celles qui ont fait le succès du leader de l’industrie, aurait été non seulement
vi
impossible, mais vraisemblablement néfaste. Réussir dans des formes de prestations
différentes exige des organisations, des cultures, des styles de management, des
systèmes de gestion différents.
Ces conflits allaient se révéler critiques quelques années plus tard au moment de
mettre en œuvre des réorientations stratégiques rendues nécessaires par l’évolution du
marché. Cette expérience confirmait ce que j’avais déjà ressenti quelques années plus
tôt à l’occasion de la séparation tarifaire du logiciel et des services. En abordant ces
marchés avec sa culture et son organisation traditionnelles, IBM allait droit à l’échec
alors qu’elle ne faisait que continuer à appliquer les méthodes qui avaient jusque là fait
son succès. Des prestations suffisamment différentes pour exiger des principes
d’organisation et de gestion différents ont beaucoup de mal à coexister dans une même
entreprise.
Plus tard encore, je devais retrouver des problèmes voisins dans des négociations
portant sur l’ouverture de certains services de télécommunications. A l’époque, France
Télécom et quelques farouches nationalistes prêtaient à IBM l’intention de dominer les
réseaux mondiaux et prônaient en l’espèce une position très restrictive, en l’occurrence
contraire aux intérêts des Sociétés de Service que je représentais. Or on pouvait tout
aussi bien penser, comme c’était mon opinion, que l’intérêt d’IBM n’était pas d’entrer
en concurrence avec les grands opérateurs, et qu’elle n’en avait d’ailleurs pas non plus
la capacité. Ou bien ses dirigeants en étaient conscients et elle se tiendrait pour
l’essentiel en dehors du marché des services de télécommunications, ou elle céderait
aux avocats de l’entrée sur ce marché et finirait par échouer en ayant perdu beaucoup
d’argent et d’énergie. Dans un cas comme dans l’autre, il était inutile de prendre des
mesures restrictives.
Faute de comprendre les différences entre les secteurs d’activité, chacun prêtait à
l’autre des motivations et des intentions qui pouvaient lui être étrangères, voire
aberrantes. On projette volontiers sur les autres ses propres motivations, de même qu’on
croit volontiers qu’une firme qui a réussi dans un domaine pourra ipso facto réussir dans
n’importe quel autre. En réalité, les règles du jeu et les facteurs de succès sont si
différents selon les secteurs d’activité que les entreprises doivent adopter des
comportements très différents pour y réussir.
vii
Mythes et idées reçues
Aujourd'hui l'informatique est en crise. Les sociétés jadis les plus prospères
connaissent des années noires tandis que de nouveaux venus comme Intel ou Microsoft
affichent une santé insolente. A un monde de concurrence sans équivoque a succédé un
enchevêtrement d'alliances, où coexistent entre les mêmes entreprises des rapports de
coopération et des rapports de compétition, et où on ne sait plus clairement qui est allié
et qui est concurrent. L'innovation et la création des standards ont échappé aux grands
fournisseurs de matériels, qui semblent livrer des combats d'arrière garde plutôt que
contribuer aux progrès de l'informatique. L’industrie-fiction ne produit plus que des
scénarios-catastrophe.
Pourtant les mythes ont la vie dure. Alors même que le marché du traitement
partagé avait disparu sans espoir de retour, nombreux étaient vers la fin des années 80
viii
ceux qui, avec l'enthousiasme des néophytes, en prédisaient la naissance sous les
espèces des « Services à Valeur Ajoutée ». Ce mythe se prolonge encore de nos jours
par l'annonce de la fusion imminente de l'informatique et des télécommunications, alors
que la téléinformatique existe depuis plus de 35 ans et que les télécommunications
prennent chaque année un peu plus de retard sur les performances des systèmes
informatiques.
Les idées actuellement les plus à la mode ne sont objectivement guère plus
fondées que les mythes des années 80. On pleure sur la mauvaise santé de l'industrie
informatique en oubliant qu'elle donne naissance à une avalanche de produits de plus en
plus performants à des prix sans cesse plus bas, ce qui est le meilleur signe d'une vitalité
exemplaire. On annonce que le marché du matériel est en chute libre, alors qu'il
représente près des deux tiers du marché total et affiche toujours une croissance
suffisante pour attirer de nouveaux offreurs. On dit « pour gagner de l'argent, il faut
sous-traiter la fabrication », mais à qui si toutes les entreprises adoptent la même
stratégie ? On prédit que les constructeurs ne trouveront leur salut que dans les services
car « seuls les services sont profitables ». Outre que cette dernière affirmation est
objectivement fausse, à quels matériels s'appliqueraient alors ces services ?
Un modèle de l’industrie
ix
combinent pour définir une forme particulière du jeu concurrentiel et donc des règles du
jeu et des conditions de succès.
La nature particulière des produits d’une firme non seulement gouverne la forme
de son appareil de production, mais détermine en profondeur l’organisation et la culture
de l’entreprise, qui constituent en quelque sorte sa personnalité. Il existe une
correspondance étroite entre la nature de la production d’une entreprise et un certain
nombre de ses caractéristiques fondamentales, de même que l’anatomie, la physiologie
et même la psychologie d’un sportif correspondent à la discipline qu’il pratique. Un
haltérophile n’est pas constitué comme un coureur de marathon, et un champion du
marathon à toutes chances de ne pas briller au lever de poids, voire de régresser au
marathon dès qu'il commencera à s'entraîner aux poids et haltères. Les armes et les
stratégies gagnantes dans une arène ne sont pas forcément gagnantes dans les autres et
peuvent même y être des handicaps. De la même façon, les mêmes recettes de
fonctionnement qui font le succès de tel constructeur de matériels peuvent conduire à
l’échec telle société de services, et réciproquement.
En même temps, les produits et les services des différents secteurs doivent tôt ou
tard être assemblés en systèmes, que ce soit à l’étape industrielle suivante ou chez
l’utilisateur. Tous les secteurs interagissent entre eux, et leurs frontières sont en
permanence remises en question. Bien que la plupart des acteurs de l’informatique
n’opèrent que dans un nombre restreint de secteurs, certains sont présents dans un grand
nombre d’entre eux, par choix stratégique ou par tradition historique. Il importe
d'examiner comment ce qui se passe dans une arène influence ce qui se passe dans les
autres, comment un acteur doit s'organiser pour jouer dans plusieurs arènes et quelles
sont ses chances de réussite.
x
L’observation de l’industrie à partir de l’intérieur conduit ainsi à en proposer un
modèle pragmatique qui ressemble par bien des côtés à celui de l’évolution naturelle en
biologie. Des entreprises différentes les unes des autres, et offrant des paniers de
prestations différents, sont en concurrence sur le marché. Pour réussir, elles adoptent des
comportements qui se traduisent en particulier par leurs offres, et qui sont déterminés
par des facteurs spécifiques à chaque firme (sa personnalité). Le marché réagit à ces
comportements, et ces réactions déterminent l’évolution des firmes, leur place dans
l’industrie et leur comportement ultérieur.
Précisons que ce travail n’avait aucune ambition théorique. Partant d’une industrie
à propos de laquelle je constate des incompréhensions et des interrogations, il s’agit
simplement de démonter et d’expliquer ses mécanismes à l’aide des outils théoriques
disponibles. Mon objectif n’est pas d’établir des lois économiques nouvelles, mais de
rechercher dans les théories existantes les éléments qui permettent d’expliquer ce que je
constate dans la réalité.
xi
De son côté, la littérature sur les organisations et la décision s’arrête le plus
souvent à la frontière de l’entreprise et n’aborde que rarement les influences réciproques
entre les choix internes et le fonctionnement du marché. D’une façon générale, la
séparation de ces deux disciplines est une faiblesse essentielle au regard de l’objet de cet
ouvrage. L’économie schématise trop la firme, et l’organisation tient trop peu compte de
l’environnement.
Le troisième critère de choix tient à mon expérience personnelle, qui est celle d’un
d’acteur et non d’un théoricien. Parmi les développements théoriques qui sont censés
décrire les décisions de l’entreprise, que ce soit avec l’œil de l’économiste ou avec celui
de l’organisateur, un très grand nombre ne ressemblent ni de près ni de loin à la façon
dont les décisions sont réellement prises. En particulier, dans le monde réel, je n’ai
jamais vu utiliser le raisonnement et la formalisation mathématiques dans des décisions
de gestion. Je ne crois pas raisonnable de croire que les responsables d’entreprise
procéderaient inconsciemment à des raisonnements de nature mathématique, comme les
planètes décrivent des trajectoires elliptiques sans savoir ce qu’est une ellipse. J’incline
au contraire à penser que toute description des choix en entreprise qui exige ce type de
formalisme a toutes chances d’être très éloignée de la réalité.
xii
Au total, ces filtres successifs ont laissé passer étonnamment peu d’apports
théoriques applicables à mon propos, et ont bien entendu favorisé des ouvrages plutôt
récents, pragmatiques et présentés sous forme littéraire. C’est ainsi que tout en tirant
parti de certains apports de la théorie économique, j’ai été amené à m’appuyer fortement
sur les travaux de Porter sur les stratégies concurrentielles. De même, mon analyse du
comportement des entreprises doit beaucoup aux travaux de Lawrence et Lorsch sur
l’organisation, et aux thèses « comportementalistes » illustrées par March et Simon.
Structure de l’ouvrage
Ces constats, comme toutes les analyses qui suivent, considèrent l’industrie
informatique à l’échelle planétaire en ignorant délibérément les éventuelles différences
nationales ou régionales. L’immense majorité des entreprises qui la composent opèrent
en effet au plan international, et les frontières des états ne définissent pas vraiment des
marchés distincts. De la même façon, les politiques industrielles nationales menées par
certains états sont considérées ici comme des épiphénomènes qui ne doivent pas
distraire des mécanismes fondamentaux.
xiii
fournira l’exemple d’un secteur concentré et l’occasion de décrire les mécanismes d’une
concurrence de type monopoliste, qui conduit à un partage du marché à parts fortement
inégales entre un petit nombre d’offreurs. Celui des matériels (Chapitre 8) nous fournira
l’exemple de secteurs dispersés où règne une concurrence à base de niches et de
stratégies diversifiées, conduisant à la coexistence d’un grand nombre d’offreurs de
taille comparable. En même temps que ces notions de base, nous aborderons la
dynamique et les perspectives spécifiques de chacun de ces secteurs.
L'industrie du progiciel fera l’objet du Chapitre 11. Nous utiliserons les notions de
concentration et de dispersion introduites dans les chapitres 6 à 9 pour montrer que cette
industrie s’analyse en fait comme un complexe de sous-secteurs de type plus ou moins
fortement concentré, individuellement soumis à leur propre dynamique concurrentielle,
mais en interaction avec les autres sous-secteurs. Nous traiterons à part dans le Chapitre
12 le cas particulièrement important des systèmes d’exploitation, à propos duquel nous
parlerons de la problématique de la standardisation et de la place du système Unix.
Dans le Chapitre 13, nous verrons comment les services, généralement traités
comme un secteur homogène, forment en réalité un ensemble de secteurs diversifiés où
jouent des logiques économiques variées. Les règles du jeu de ces secteurs impliquent
des comportements différents selon les prestations, et obligent les offreurs à s’adapter en
permanence à une demande mouvante alors que les spécificités culturelles sont dans ce
domaine particulièrement critiques.
xiv
Le Chapitre 15 s’intéresse aux forces qui peuvent pousser à une recomposition. Il
évoque les problèmes que pose aux utilisateurs l’éclatement de l’industrie informatique,
comment les Directeurs Informatiques peuvent réagir et l’offre s’organiser pour traiter
ces problèmes. Les services d’intégration apparaissent alors comme particulièrement
critiques, ce qui nous conduira à examiner la thèse selon laquelle les produits
disparaîtraient derrière les services. Nous verrons aussi comment les acteurs pallient
leur spécialisation en tissant des alliances plus ou moins formelles. Nous évaluerons la
signification industrielle de ces alliances et leur influence probable sur la structure
industrielle.
En refermant cet ouvrage, souhaitons que le lecteur ait acquis une meilleure
compréhension des mécanismes cachés qui régissent l’évolution de l’industrie
informatique, et qu’il puisse ainsi mieux décoder une avalanche de nouvelles et
d’événements quelquefois difficiles à interpréter. Que cette compréhension l’aide non
seulement à satisfaire une légitime curiosité personnelle, mais aussi à mieux assumer
ses responsabilités professionnelles, qu’elles soient celles d’un Directeur Informatique
ou d’un utilisateur, d’un dirigeant de l’un des multiples acteurs de cette industrie, d’un
commentateur, d’un enseignant ou d’un leader d’opinion, voire d’un responsable
politique.
xv
Première partie
Les faits
Assurons-nous bien du fait avant de nous inquiéter de la cause.
Fontenelle
Les états futurs de l’industrie informatique résulteront du jeu des forces naturelles
à partir de son état actuel, qui s’explique lui-même par le jeu passé de ces mêmes forces.
Un examen historique de l’évolution des différentes prestations qui composent
l’informatique, des modalités de leur fourniture par les divers acteurs de l’industrie, des
positions et des stratégies des différents fournisseurs, nous permettra d’identifier les
grands courants qui traversent l’industrie. A l’inverse de bien des ouvrages qui
commencent par énoncer et développer des théories pour chercher ensuite des cas où
elles s’appliquent, nous pourrons ainsi cerner les faits avant de rechercher les théories
qui les expliquent. Il s’agit en somme de bien examiner la surface avant de commencer
à creuser.
Le découpage que nous retiendrons pour les quarante et quelque années d’histoire
de l’industrie informatique, en trois chapitres couvrant respectivement sa naissance
(1951-1968), les crises d’adolescence (1968-1980) et l’apparition d’une autre
informatique (1975-1993), est lié au sujet central de cet ouvrage, qui est la structure
même de l’industrie. En effet, les années 1969 à 1975 ont vu une série d’événements
mettre en cause cette structure, et leurs prolongements se sont répercutés jusque vers le
début des années 80. Ensuite, à la fin cette période naissait la micro-informatique, qui se
distingue de l’informatique traditionnelle au moins autant par sa structure industrielle
originale que par ses technologies.
Dans ce survol historique, il sera beaucoup question d'IBM. Il serait anormal qu’il
en fût autrement, puisque cette société représentait à elle seule, au moins jusqu’en 1985,
environ les deux tiers de l’industrie informatique tout entière. Mais sa domination ne
s’est pas seulement traduite par sa part de marché. Dans toute cette période, ses actions
ont affecté l'ensemble du secteur, et les actions des autres acteurs ont été dans une large
mesure décidées par rapport à IBM. En ce sens, IBM a été plus qu'un concurrent, un
élément essentiel de l'environnement des autres acteurs.
xvi
Cette réflexion n'est pas menée exclusivement par quelques services spécialisés, mais
implique l'ensemble du management ainsi que des groupes d'experts opérationnels. De
ce fait, elle s'appuie non seulement sur des études approfondies, mais aussi sur la grande
variété de tendances et d'opinions présentes en permanence dans la compagnie, qui
constitue par sa taille même une forme de microcosme. Contrairement à une image
réductrice, IBM a toujours été un vivier de réformes et de réformateurs que le
management a su entretenir plus ou moins consciemment, et s'est toujours montrée
capable de donner leur chance aux francs-tireurs et de prendre l'initiative de
changements majeurs.
Même si, comme nous le verrons, certaines décisions n'ont eu pour objet que de
résoudre des problèmes internes, la place dominante d'IBM a fait retentir ces décisions
sur tous les secteurs homologues de l'industrie. L'annonce du 360 en 1964, la séparation
des tarifs (unbundling) en 1969/70, l'annonce du PC en 1981 ou, a contrario, l'abandon
du projet FS en 1975 ont ainsi pris le caractère d'actes fondateurs pour l'ensemble de
l'industrie. C'est autour de ces événements que je structurerai le rapide historique qui
suit.
xvii
Chapitre 1
Naissance de l'industrie (1951-1968)
La mécanographie accouche de l’informatique. Logiciels et services « gratuits ».
Tarifs, profits, progrès et foisonnement. Le 360, ancêtre des systèmes « ouverts ».
Frontières technologiques et intégration. Standards et fragmentation du matériel.
Boîtes ou systèmes ? Un secteur concentré.
En tant qu'industrie, l’informatique est née en 1951 avec la mise sur le marché de
l'UNIVAC 1 par la Société Remington Rand. Avant cette date, Il existait d’une part une
industrie des machines mécanographiques, et d’autre part des expériences de réalisation
de calculateurs à programme enregistré, qui allaient donner naissance aux ordinateurs
mais ne faisaient pas l’objet d’une activité industrielle à proprement parler.
Il n'est pas surprenant que les Sociétés IBM et Remington Rand, qui participaient
à ces travaux précurseurs, aient été les premières à percevoir le potentiel commercial de
cette nouvelle technologie. Remington Rand mit sur le marché l’ordinateur UNIVAC
dès 1951. IBM suivit, après bien des hésitations, avec le 701 en 1952, le 702 et le 650
en 1953 . Ces deux Sociétés furent vite imitées par les autres constructeurs de matériels
2
1 Pour une bonne couverture de la période qui va des origines à l'année 1963, voir le livre de René
Moreau « Ainsi naquit l'informatique » (Dunod - 1981)
2 Pour un historique détaillé du développement des premiers ordinateurs IBM, voir l'excellent
ouvrage de Charles Bashe, Lyle Johnson, John Palmer et Emerson Pugh, « IBM's Early Computers » (The
MIT Press, 1986). Cet ouvrage présente de façon fascinante l'ensemble des choix technologiques et
commerciaux, ainsi que les conflits d'opinion et les rivalités de personnes et d'organisations, qui ont sous-
tendu les développements de produits et les changements d'organisation IBM depuis ses premiers pas
dans le calcul automatique jusqu'en 1962.
xviii
à cartes perforées, et bientôt tous les constructeurs de matériels mécanographiques
(Burroughs et NCR aux USA, BULL en France et ICT au Royaume-Uni) eurent un
département ordinateurs. Très rapidement, ces firmes furent rejointes par des grandes
Sociétés d'électricité ou d'électronique comme General Electric, RCA, Honeywell,
Westinghouse, Bendix, … Plus tard apparurent des firmes nouvelles qui débutaient dans
les ordinateurs en se spécialisant sur des marchés particuliers, comme Control Data en
1957 ou Digital Equipment en 1962.
Par contre, l'offre de logiciels est initialement rudimentaire. Les tout premiers
ordinateurs d’IBM et de Remington Rand sont fournis « nus ». Conformément à la
tradition scientifique qui a présidé à leur développement, ce sont les utilisateurs eux-
mêmes qui développent les logiciels nécessaires et les échangent entre eux, depuis les
assembleurs et les routines mathématiques jusqu'aux codes les plus complexes. Le seul
apport original d'IBM avant 1960 est le langage FORTRAN et les compilateurs
associés, qui accompagnent les ordinateurs scientifiques dès 1957. Le besoin de
logiciels généraux se faisant jour progressivement, IBM formalise son organisation et
ses méthodes de développement de programmes en 1961 (Bald Peak Conference), en y
appliquant des disciplines de gestion dérivées de celles en usage pour les matériels.
A partir des années 1961-1962, chaque annonce de nouveau matériel inclura celle
d'un système d'exploitation plus ou moins perfectionné, mais en tout état de cause
spécifique à ce matériel et à son domaine d’applications prévu. Mais l'offre
commerciale et contractuelle continue à reposer exclusivement sur les matériels. Seul le
matériel et son entretien font l'objet d'une facturation, les logiciels, la formation et
l'assistance à la mise en œuvre étant fournis « gratuitement ». En réalité, le coût global
de ces services est bien évidemment pris en compte dans la tarification du matériel.
C’est à l'échelon commercial local que se négocie avec chaque client la fourniture de
ces services, puisque rien ne spécifie quels logiciels (gratuits) chaque client est en droit
de commander, ni quelle nature et quel volume d'assistance technique (gratuite) il est
fondé à recevoir.
xix
d'utilisation comme la téléinformatique, le traitement d'informations non numériques, la
conduite de processus ou diverses formes d'intelligence artificielle. Dans tous ces
domaines, les premières réalisations opérationnelles voient le jour vers 1960 sous des
formes souvent ambitieuses. Il est à peine exagéré de dire que tous les domaines
d'applications et toutes les formes d'utilisation de l'informatique connues aujourd'hui ont
été expérimentés dès cette époque.
La logique concurrentielle
La gratuité des logiciels et des services fournis par les constructeurs ne laisse pas
de place à des offreurs indépendants, si ce n'est de façon marginale pour des logiciels ou
des services suffisamment différenciés. La diversité et la rapide évolution des matériels
donnent de toute façon aux constructeurs un avantage déterminant dans la fourniture de
tous les services liés aux matériels, qu'il s'agisse de maintenance, de formation ou
d'assistance technique. L'existence d'un tarif d'entretien séparé n'est qu'une disposition
administrative destinée aux rares clients acheteurs de matériels et ne donne pas
xx
naissance à une offre de maintenance tierce. De plus, la prédominance de la location
exclut l'existence de services indépendants d'entretien et celle de services financiers
comme le crédit-bail. Inversement, cette formule expose en permanence le fournisseur
au risque de remplacement de son matériel par un matériel concurrent en cas
d'insatisfaction du client.
Le tarif des matériels est de façon majoritaire un tarif de location donnant droit au
logiciel et aux services. Il est dit « fonctionnel » parce qu'assis sur le service rendu plus
que sur les prix de revient. Il existe maints exemples qu'une machine A moins puissante
qu'une machine B, et donc offerte à un tarif inférieur, soit construite en ajoutant à B un
dispositif de ralentissement ou autre limitation, qui en augmente le prix de revient par
rapport à celui de B. La machine B plus puissante est donc à la fois plus chère pour le
client et moins coûteuse pour le constructeur.
A l'inverse, les tarifs pratiqués par le concurrent dominant, c'est à dire celui qui
jouit globalement de l'avantage concurrentiel maximal, constituent une référence pour
les autres offreurs comme pour le marché. Tant qu'un offreur peut pratiquer des prix
légèrement inférieurs à ceux du concurrent dominant pour des produits comparables, il
est assuré d'obtenir une part de marché et (dans la mesure où ses coûts sont
raisonnables) d'atteindre la rentabilité. Ce phénomène de « price umbrella » a assuré à
l'ensemble de l'industrie une bonne prospérité jusqu'à ce que certains offreurs
xxi
déclenchent une guerre des prix, principalement à la fin des années 60 avec le
phénomène des « mini-ordinateurs ».
Mais cette évolution foisonnante et extrêmement rapide porte en elle les germes
d'une désintégration.
D'une part, dès le début des années 60, chaque machine se présente comme un
catalogue d'unités connectables et personnalisables, réalisant des fonctions différentes à
l'aide de technologies différentes. Chaque système comprend sa propre gamme d’unités
de calcul, de mémoires, de bandes magnétiques, de mémoires à disques, d’imprimantes,
de contrôleurs de communications, … qui ne peuvent le plus souvent pas être utilisées
dans d’autres systèmes. Les grands constructeurs vont chercher à s'organiser pour gérer
séparément les différents types d'unités selon leur technologie, tout en se donnant la
possibilité de les assembler en systèmes de façon très libre. Ainsi une seule gamme
d'unités de bande par exemple pourra se connecter à toutes les unités de calcul,
maximisant à la fois la rentabilité des investissements de développement pour le
constructeur et la souplesse de configuration pour le client. Cette tendance aboutira à
l'annonce du système IBM 360 en 1964, qui marque le début de la standardisation.
D'autre part, la diversification des applications et des modes d'utilisation, ainsi que
leur caractère évolutif, entraîneront une explosion et une diversification des besoins
d'assistance et de formation. En même temps, le poids et la diversité du logiciel
croîtront de façon spectaculaire. Ce qui n'était au départ que services annexes deviendra
pour le constructeur un poste de dépenses majeur en même temps qu'un facteur
concurrentiel souvent déterminant. Le souci de gérer ces activités de façon rationnelle
aboutira à l'annonce de l'« unbundling » par IBM en 1969, qui ouvrira le marché du
logiciel et des services.
xxii
Le 360 et la fragmentation du matériel (1964) 3
En Avril 1964, IBM, qui domine largement toute l'industrie informatique, annonce
la gamme 360. Cette annonce est une des étapes marquantes de l'histoire de
l'informatique. Non seulement les concepts et les standards nouveaux qu'elle définit sont
restés valides jusqu'à ce jour et sont encore à la base des ordinateurs actuels, mais elle
introduit la notion même de standard au cœur de l'industrie informatique, alors que
jusque là les seuls standards concernaient les langages évolués FORTRAN et COBOL.
En ce sens, après le bouillonnement des premières années, cette annonce marque le
début d'une ère « classique » qui ne sera contestée que par la montée du phénomène
micro autour de 1980.
L'objectif est de remplacer toutes les lignes d'ordinateurs existantes par une
gamme unique compatible, au sens où tout programme exécutable par l'un des
processeurs peut être exécuté par tout autre processeur doté d'une capacité mémoire au
moins égale et d'unités d'entrée-sortie équivalentes. De plus, la conception de cette
gamme doit être telle que tous les développements futurs de l'informatique, qu'il s'agisse
de l'évolution des technologies, de l'invention d'organes nouveaux ou de fonctions
nouvelles, ou encore de l'émergence de nouvelles applications ou de nouveaux modes
d'utilisation, puissent s'y intégrer sans en remettre en cause les options fondamentales.
Par exemple, dans les modèles les plus puissants de la gamme, toutes les
instructions sont reconnues et exécutées directement par les circuits, les transferts
d'informations se font par blocs de 8 octets , les fonctions de calcul et celles de gestion
4
xxiii
des entrées et sorties sont réalisées en parallèle par des organes physiquement distincts,
alors que dans les modèles d'entrée de gamme de nombreuses instructions sont simulées
par programme, les transferts se font octet par octet, certaines fonctions logiquement
distinctes sont exécutées par le même organe. Tous les modèles reconnaissent
néanmoins le même jeu d'instructions et peuvent exécuter les mêmes programmes, mais
avec des niveaux de performances et de coût différents.
Par ailleurs, il faut pouvoir connecter aux unités de traitement des périphériques
extrêmement divers tant par leurs fonctions que par leurs performances, et dont
l'évolution doit être indépendante de celle des unités centrales. A cette fin, IBM imagine
de distribuer les fonctions entre unités de traitement et unités de gestion des entrées-
sorties, de telle sorte que les fonctions spécifiques à telle ou telle unité soient réalisées
par une unité de contrôle associée à cette unité, les composants centraux du système se
bornant à lui transmettre les informations de commande nécessaires. Le développement
d’une nouvelle fonction ou d’une nouvelle unité d'entrée-sortie peut ainsi devenir une
activité autonome qui ne demande pas de modifications aux autres unités du système.
Le découplage entre une architecture unique et des réalisations variées est rendu
possible par l'introduction du « microcode », forme de logiciel qui réalise les fonctions
de l'architecture non réalisées directement par les circuits. Un modèle particulier de la
gamme se caractérise par une certaine répartition des fonctions entre le matériel
proprement dit (les circuits) et une couche de logiciel associée à ce matériel, le
microcode. Une évolution technologique, la correction d'une défaillance ou l'adjonction
d'une fonction nouvelle se traduiront le plus souvent par une modification dans le
microcode, qui pourra être reportée dans le matériel lors de l'introduction ultérieure de
nouvelles machines.
jeu de 256, dont les lettres majuscules et minuscules, les chiffres, les signes de ponctuation et des
caractères spéciaux.
xxiv
programmation, et tend à rendre purement conventionnelle la traditionnelle distinction
entre matériel et logiciel.
Au total, avec le système 360, la distinction entre matériel et logiciel devient floue
et en tous cas perd de son importance en termes opérationnels. Il serait plus pertinent de
considérer d'une part l'ensemble formé par le matériel et son système d'exploitation,
composé d'un mélange de matériel et de diverses variétés de logiciel, dont le
constructeur est maître et dont l'utilisateur ignore les détails, et d'autre part les logiciels
d'application qui concernent l'utilisateur. A l'intérieur du complexe formé par le matériel
et le logiciel de base, la frontière entre circuits et programmes résulte d'un arbitrage
technico-économique valable pour un état particulier des technologies, voire pour un
modèle particulier de la gamme, et doit rester sous le contrôle du constructeur. Cette
conception, qui exclut de séparer l’industrie du matériel et celle du logiciel de base,
explique la réticence d'IBM à séparer totalement la facturation du logiciel au moment de
l'unbundling, et influencera fortement le projet FS au début des années 70 . Bien que
5
cette attitude ait été reprochée à IBM comme un abus de position dominante, la validité
de cette vision n'est pas à démontrer puisque les microprocesseurs utilisés aujourd'hui
dans les micro-ordinateurs contiennent une quantité importante de logiciel.
Sur le plan technologique, IBM choisit (le premier parmi les grands constructeurs)
la nouvelle technologie des circuits intégrés pour la réalisation du 360, et se met à
fabriquer ses propres composants. Jusque là, les constructeurs d’ordinateurs achetaient à
des fabricants de composants électroniques les tubes à vide puis les transistors utilisés
dans la fabrication des ordinateurs. La fabrication des composants était ainsi extérieure
à l’industrie informatique. Toutefois, dès 1956, IBM avait décidé de fabriquer elle-
même les mémoires à tores de ferrite, et avait à cette occasion constaté sa capacité à
produire en masse des composants de façon plus fiable et plus économique que ses
fournisseurs habituels, puis avait pris un leadership dans le domaine du « packaging » à
partir de 1959.
Le passage des composants discrets aux circuits intégrés rend la conception des
circuits partie intégrante de la conception de l'ordinateur lui-même. Il est donc naturel
xxv
que les constructeurs entreprennent de développer et d'utiliser leur propre technologie
de composants, se séparant ainsi des fabricants de composants électroniques
traditionnels et couvrant désormais l'ensemble de la filière, depuis le silicium brut
jusqu'au système opérationnel installé chez le client avec les logiciels et les services
nécessaires. Avec le système 360, s'ouvre l'apogée de l'intégration industrielle des
constructeurs de matériel informatique.
A l'origine, les grands choix architecturaux qui ont présidé à la définition du 360
n'ont été qu’indirectement déterminés par des considérations concurrentielles, même si
l'ensemble du programme avait évidemment pour but de maintenir la compétitivité
d'IBM, et si in fine l'annonce en a été précipitée par les menaces d'Honeywell, de
General Electric et de Control Data, qui lancèrent tous trois de nouveaux systèmes très
compétitifs en 1963. Il s'agissait bien plus de structurer de façon optimale le travail des
différents laboratoires de développement d'IBM, en permettant la gestion et l'évolution
séparée des différentes composantes tout en faisant bénéficier de ces développements
l'ensemble de la gamme IBM. En d'autres termes, le but recherché était l'économie
d'échelle maximale au niveau de l'investissement en Recherche et Développement.
Simultanément, la définition d'une architecture standard permettait aux clients d'évoluer
dans la gamme et de profiter des progrès technologiques sans remettre en cause leurs
investissements passés. Elle réunissait enfin tous les utilisateurs dans une même
communauté, facilitant les échanges entre eux et accélérant la diffusion des innovations.
Dès que l'architecture 360 se sera diffusée largement et paraîtra devoir rester
stable plusieurs années, elle constituera un standard de fait sur la base duquel des
entreprises tierces construiront leurs propres offres. Celles-ci seront soit des
compléments, c'est à dire des éléments que le leader ne fournit pas, soit des substituts,
c'est à dire des éléments qui entrent en concurrence avec les offres homologues d'IBM.
De fait, une concurrence différenciée niche par niche voit progressivement le jour
au fur et à mesure que l'architecture 360 pénètre le marché et donne des signes
d'universalité et de pérennité. Apparaissent d'abord des unités connectables compatibles
(bandes Telex en 1967, disques Memorex en 1968, imprimantes, puis écrans), puis des
xxvi
mémoires compatibles enfichables dans les unités centrales IBM. En 1975, apparaissent
enfin des unités centrales compatibles (Amdahl) lorsque la pérennité de l'architecture a
été validée par 10 ans d'existence et confortée pour une durée au moins égale par les
annonces du système 370 (1970), puis de la mémoire virtuelle (1972), toutes deux
extensions compatibles de l'architecture 360. Sans vraiment le vouloir, IBM a inventé
les systèmes ouverts.
A la fin des années 1970, chaque élément des systèmes IBM est en concurrence
avec plusieurs équivalents non IBM parfaitement compatibles, produits par des
entreprises spécialisées, et concurrentiels tant au plan des performances et de la fiabilité
qu'à celui des prix. Cette nouvelle forme du jeu concurrentiel ne touche les autres
constructeurs qu'à proportion de leur succès, la motivation pour développer un
compatible étant fortement croissante avec la part de marché du matériel que le
compatible peut compléter ou remplacer. Vers cette même date, une partie du marché
commence à croire à la stabilisation durable des architectures d'ordinateurs et se tourne
vers l'achat des matériels plutôt que leur location. Apparaissent alors les premières
sociétés de crédit-bail informatique, tandis que se dessine la perspective d'un marché
actif des ordinateurs d'occasion.
Résumé
xxvii
mécanographiques se sont mués en constructeurs d’ordinateurs conservant une activité
de mécanographie résiduelle, qui ne tardera pas à disparaître totalement.
D’autres sociétés ont également abordé ce domaine. A la fin des années 50, de
grandes Sociétés d'électricité ou d'électronique comme General Electric, RCA,
Honeywell et d'autres créent à leur tour en leur sein une activité de fabrication
d’ordinateurs, mais la plupart de ces tentatives avorteront plus ou moins rapidement. En
revanche, des firmes nouvelles qui débutent dans les ordinateurs en se spécialisant sur
des marchés particuliers, comme Control Data (1957) ou Digital Equipment (1962)
connaîtront une meilleure fortune.
Tous les constructeurs offrent en effet des paniers de prestations comparables, et pour
chaque utilisateur l'ensemble de l'offre d'un constructeur (matériel, logiciel et services)
peut se substituer à celle d'un de ses concurrents. Même le Service Bureau constitue une
alternative à l'acquisition d'un ordinateur en propre. En revanche, jusqu'au milieu des
années 60, il n'existe pas de secteurs indépendants de logiciels ou de services.
8 voir le chapitre 6.
xxviii
architecture à une autre, sont élevés et augmentent progressivement avec le stock de
programmes d'application et les effectifs d'informaticiens.
IBM, qui occupait déjà une position dominante dans le secteur des matériels
mécanographiques, maintient cette domination dans l'informatique où sa part de marché
atteindra dépassera les 50% (ou les 70% selon les auteurs) au début des années 1960.
Les forces concurrentielles de ce secteur naissant, en particulier l'importance de la R et
D et les gros besoins de capitaux pour financer non seulement cette R et D et la
croissance, mais aussi le parc locatif, favorisent en effet les firmes les plus importantes
et disposant de la plus forte assise financière. Parmi un faible nombre de grands offreurs
de matériels et services, IBM offre la gamme la plus complète, la plupart de ses
concurrents ne couvrant qu'un segment particulier de besoins du marché avec une
gamme plus étroite.
xxix
Chapitre 2
Les crises d’adolescence (1968-1980)
Un point commun à toutes ces entreprises est que toutes ont échoué pour
l’essentiel, ou du moins que leurs résultats ont été très éloignés des espérances
qu’avaient nourries leurs initiateurs, qu’il s’agisse d’IBM elle-même, de ses concurrents
ou des pouvoirs publics. Voyons-y une indication que la dynamique intrinsèque de
l’évolution d’une industrie tolère mal d’être bousculée par des accélérations forcées.
9Ces procès, et en particulier celui du Gouvernement des USA, font l’objet de plusieurs livres dont
deux écrits par des juristes ou des économistes qui ont été associés aux deux parties.
Pour l’accusation : DeLamarter RT : Big Blue - IBM’s use and abuse of power (Donald Mead,
1986)
Pour la défense : Fisher FM, McGowan JJ, Greenwood JE : Folded, Spindled and Mutilated -
Economic Analysis of US vs IBM (MIT Press, Cambridge, 1983)
xxx
Control Data ouvre le feu en Décembre 1968 en accusant IBM d'avoir annoncé
prématurément le 360/90 dans le seul but de dissuader les clients de commander le
Control Data 6600. Cette action ne vint jamais devant la justice et se termina en Janvier
73 par un accord amiable prévoyant en particulier la cession par IBM à Control Data de
son activité de Service Bureau. Il est remarquable que les dispositions de cet accord
aient eu si peu de rapport avec les motifs de la plainte.
Le Ministère de la Justice des USA intente son propre procès en Janvier 1969.
Sous le prétexte de contester certaines pratiques prétendument illégales, il s'agit en fait
d'attaquer la position dominante d'IBM quelles qu'en soient les causes. Il est à peine
exagéré de dire que pour nombreux des promoteurs de cette action, l'important n'est pas
tellement de savoir si IBM s'est rendu coupable d'actes de concurrence déloyale, mais
bien de mettre un terme à sa position dominante quelles qu'en soient les raisons. Cette
action prend une importance particulière à cause de la nature du plaignant, de
l'importance des enjeux et de la subtilité juridique de l'argumentation.
Le second débat est de savoir si une position dominante est en soi condamnable et
si de ce fait des comportements par ailleurs licites pour des acteurs secondaires doivent
être interdits à IBM. Dans le livre de DeLamarter, l’un des plus critiques envers IBM
qui aient été publiés, il est frappant que le seul grief sérieux, auquel l’ouvrage est
pratiquement entièrement consacré, est que les tarifs d’IBM sont établis de façon à tirer
un profit plus élevé des matériels les moins soumis à la concurrence, et de consentir des
marges moindres sur les autres matériels. La plupart des économistes et des hommes
d’entreprise considéreront cette politique comme allant de soi. Devient-elle un crime
quand elle est pratiquée par IBM ? Plus profondément, dans la mesure où les lois
antitrust sont faites pour encourager la concurrence, est-il légitime d’interdire à un
acteur le comportement même que ces lois sont censées protéger ?
Entre 1969 et 1971, plusieurs procès sont intentés par des sociétés de crédit-bail à
la suite de DP Financial and General, et sont tous abandonnés plus ou moins rapidement
dès que les premiers jugements sont rendus à l'avantage d'IBM. Une deuxième vague est
ensuite intentée par des Sociétés de matériels compatibles à la suite de Telex.
L'affaire Telex est le seul cas où IBM ait été formellement (mais provisoirement)
déclaré coupable de pratiques abusives (alors que Telex était condamné pour vol de
xxxi
secrets industriels). Un premier jugement fut rendu en ce sens en Septembre 1973, puis
la condamnation d’IBM fut annulée par une Cour d'appel en 1975. Entre-temps une
douzaine de petites firmes avaient pris modèle sur Telex et intenté des actions du même
type en demandant, conformément à la législation antitrust, des dommages-intérêts
égaux au triple des dommages prétendument subis (« treble damages »). Pour une firme
en difficulté, traîner en justice une IBM harcelée de procès dont un du Gouvernement
des Etats-Unis apparaissait alors comme un moyen assez sûr d'aboutir à une transaction
financièrement providentielle. Le renversement du jugement Telex en 1975 durcit
l'attitude d'IBM et tarit rapidement ce flot de procès dont le bien-fondé juridique était
pour le moins léger et dont le nombre ne doit pas faire illusion.
Quel est le bilan de cet épisode de querelles juridiques ? Les actions d'IBM ont
certes été quelque peu entravées pendant une dizaine d'années où les juristes ont exercé
un contrôle tatillon sur toutes les décisions d'organisation, de produits et de politique
xxxii
commerciale. De même, la tarification séparée du logiciel et des services a
incontestablement été accélérée, même s'il est probable qu'elle aurait été introduite tôt
ou tard. La combinaison de ces deux effets a permis le démarrage de nombreuses
sociétés de logiciel et de services, ainsi qu'une émancipation progressive des clients
favorable à la multiplication des concurrents, à l'érosion de la part de marché d'IBM et à
l'accélération du progrès technique. Vers la fin de la période des procès, IBM faisait
remarquer avec ironie que la plupart des firmes dont le Gouvernement des Etats-Unis et
la Communauté Européenne recueillaient les plaintes pour abus de position dominante
n'existaient pas au moment où IBM était censée monopoliser l'informatique. De
quelques centaines de firmes en 1964, l'industrie informatique est passée à environ
20000 firmes en 1980 et 50000 en 1992.
En revanche, les procès n'ont eu que très peu d'influence profonde sur la culture et
les habitudes d'IBM. Toutes les personnes qui étaient en contact avec l’extérieur
(commerciaux, acheteurs, managers, …) certifiaient par écrit chaque année avoir relu
les « Règles de Conduite dans les Affaires ». Tous les actes commerciaux étaient passés
au crible par les services de politique commerciale, pour qui il était rigoureusement
impensable de s'écarter du tarif officiel ou des délais de livraison fixés par les usines.
Pour les collaborateurs et les clients d’IBM, qui étaient témoins et quelquefois victimes
des manœuvres plus souples (pour employer un euphémisme) de leurs concurrents, il
était impensable que ceux-ci aient le front de reprocher à IBM des actes de concurrence
déloyale, et inimaginable que des gens sérieux, comme étaient censés l'être le
Gouvernement des Etats-Unis ou la Justice, puissent y accorder crédit. Aussi l'ensemble
du personnel IBM n'a jamais douté qu'IBM finirait par avoir gain de cause. Cette
confiance s'est légèrement érodée quand il apparut avec le temps que l'action du
Gouvernement US était sérieuse, ce qui pouvait faire craindre n'importe quelle issue
tout aussi irrationnelle, et elle a un peu vacillé à la suite du premier verdict dans l'affaire
Telex fin 73.
Au total, que ce soit à travers les différents jugements rendus ou les autres formes
d'aboutissement des actions engagées, la conclusion générale est que la structure de
l'industrie informatique des années 70 résultait du jeu normal des forces économiques et
concurrentielles, et non de machinations ou d'abus de pouvoir. Mais en même temps le
xxxiii
jeu de ces mêmes forces permettait l'apparition de nouveaux acteurs, qui allait conduire
à l'explosion de l'industrie et au déclin progressif de la domination d'IBM.
Motivations et principes
Les premières années du 360 ont été difficiles dans le secteur des logiciels :
retards dans le développement, besoins en mémoire très supérieurs aux prévisions pour
obtenir des performances acceptables, nécessité d'un haut niveau d'assistance et de
formation pour pallier les problèmes rencontrés par les utilisateurs. IBM découvre que
la structure même de son offre fait du logiciel de base un élément critique du système, et
commence à concevoir des inquiétudes quant aux coûts croissant des logiciels et de
l'assistance technico-commerciale, qui pèsent sur la tarification du matériel et sur sa
compétitivité.
Une fois les difficultés initiales surmontées, vers la fin de 1967, les besoins des
clients, et donc leurs demandes de logiciels et d'assistance continuent à se diversifier et
à croître. En réponse à cette demande apparaissent des offres de logiciels et de services
en provenance de sociétés spécialisées. Ces offres ont sur les offres homologues des
constructeurs l'inconvénient de ne pas être gratuites. Elles ont en revanche l'avantage de
pouvoir faire l'objet d'un contrat clair et de ne pas être soumises à la bonne volonté du
constructeur, ainsi que de proposer des compétences applicatives, d'organisation ou de
choix de système que les constructeurs n'offrent pas ou peu.
Vers cette même date, une partie du marché commence à croire à la stabilisation
durable des architectures d'ordinateurs et se tourne vers l'achat des matériels plutôt que
leur location. Apparaissent alors les premières Sociétés de crédit-bail informatique,
tandis que se dessine la perspective d'un marché actif des ordinateurs d'occasion. Se
pose également la question de la fourniture des services traditionnellement liés à
l'acquisition d'un ordinateur dans le cas où le fournisseur est une société financière ou
un vendeur d'occasion.
Enfin, IBM est à ce moment la cible de plusieurs procès. Bien que ces actions ne
concernent que marginalement le logiciel et les services d’assistance, IBM pense sans
doute que « lâcher du lest » dans ces derniers domaines l'aidera à mieux tenir sa position
dans celui du matériel et met donc à l'étude, au début de 1969, la facturation séparée
(« unbundling » ou « tarification dissociée »). Cette nouvelle politique est annoncée aux
USA en Juin de la même année pour s’appliquer immédiatement à l'ensemble de la
gamme. IBM Europe annonce 9 mois plus tard (Mars 1970) que ces nouvelles
dispositions ne sont applicables dans l’immédiat qu’aux nouveaux matériels, et seront
étendues à toute la gamme à partir de Juillet 1972, après une période de transition de 15
mois.
Il est amusant à ce propos que des détracteurs d’IBM lui aient reproché (et que
certains lui reprochent encore maintenant) d’avoir fait preuve de malveillance en
xxxiv
pratiquant une politique de « bundling » jusqu'en 1969. En réalité, jusqu’à ce qu’IBM
prenne l’initiative de facturer séparément le logiciel et les services, aucun constructeur
ne les avait offerts isolément. IBM ne faisait que se conformer aux pratiques unanimes
de l’ensemble de la profession, et à aucun moment n’a regroupé des prestations jusque-
là facturées séparément. Son originalité a été au contraire de prendre l’initiative de
l’« unbundling » et de l’appliquer avec une certaine rigueur bien avant les autres
constructeurs.
Comme l'annonce du 360, cette initiative d'IBM répond plus à des objectifs
propres qu'à la pression directe de la concurrence. Il s'agit d'une part de mieux contrôler
les activités de développement de logiciels et d'assistance aux clients en les adaptant
mieux à la demande, d'autre part d'obtenir un avantage indirect dans un conflit juridique
portant sur le matériel. Comme pour l'annonce du 360, les décisions qui en résultent
contribueront néanmoins à façonner le visage de l'industrie informatique dans son
ensemble.
L'analyse des dispositions prises et de la façon dont elles seront mises en œuvre
éclaire l'attitude d'IBM à l'époque vis à vis du logiciel et des services, attitude qui
n'évoluera que lentement par la suite.
Jusque là, IBM fournissait, pour un prix global attaché au matériel, un panier de
services (logiciels, formation, assistance technique) dont il déterminait unilatéralement
l'étendue pour chaque client. La maintenance du matériel était soit incluse dans le tarif
de location, soit couverte par un contrat de maintenance donnant lieu à facturation
séparée en cas d'achat du matériel. Aucune disposition contractuelle n'existait pour la
maintenance du logiciel, ni pour la formation et l'assistance, ce qui présentait l'avantage
de la gratuité, mais excluait tout engagement formel et toute garantie quant à ces
éléments. Rappelons qu'IBM offrait en outre et de façon séparée des prestations de
traitement en Service Bureau, à travers sa filiale SBC aux USA, via son organisation
10
Le logiciel
Pour le logiciel, restent inclus dans le prix des matériels les logiciels « nécessaires
à l'exploitation » de ceux-ci, c'est à dire les systèmes d'exploitation ou SCP (Systems
Control Programs). Cette décision reflète d'une part l'hypothèse que l'utilisation de tout
ordinateur exige un système d'exploitation, et d'autre part la volonté d'IBM de conserver
un contrôle complet sur ces systèmes. Deviennent facturables séparément les logiciels
remplissant une fonction particulière à telle ou telle application ou forme d'utilisation et
non essentiels à l'exploitation, qui sont rangés dans la catégorie des Produits-
Programmes (Program Products ou PP).
xxxv
Cette facturation du logiciel n'implique pas de modifications dans l'organisation et
les systèmes de gestion. Les sources de programmes restent pour l'essentiel les
Divisions de développement de produits pour les SCP, les Centres de compétence par
industrie (intégrés aux Divisions de Marketing) pour les PP. Les décisions relatives au
logiciel peuvent donc être prises de façon centralisée comme pour les autres produits.
La mise sur le marché des logiciels suit les mêmes règles que celle des autres produits, y
compris la définition de leur tarif. Ils font l'objet d'annonces formelles similaires à celles
des matériels et figurent dans le même catalogue. Ainsi, leur commercialisation et leur
gestion respectent les habitudes établies et ne posent pas de problèmes particuliers de
mise en œuvre.
L'assistance technique
Pour l'assistance technique, la distinction entre une partie « gratuite » et une partie
facturable pose des difficultés plus sérieuses. Cette assistance est fournie pour l'essentiel
par les Ingénieurs Technico-Commerciaux, qui apportent également une aide technique
aux Ingénieurs commerciaux dans leur action commerciale. Sauf à introduire une
spécialisation interne qui serait dommageable pour l'image et l'action commerciale
d'IBM, la séparation entre assistance facturable et assistance gratuite, quel qu'en soit le
principe, doit donc être gérée par chacun des Ingénieurs pour ses propres activités.
La règle retenue pour la première annonce aux USA est draconienne : elle pose en
principe que l'aide (gratuite) apportée par le Technico-Commercial à l'action
commerciale doit se dérouler exclusivement dans les locaux d'IBM. Toute présence du
Technico-Commercial chez un client est donc réputée avoir pour but d'assister ce client,
et est de ce fait facturable. Comme de plus les nouvelles pratiques commerciales sont
aux USA applicables dès leur annonce, les Ingénieurs Technico-Commercial reçoivent
l'ordre de ne plus se présenter chez leurs clients dès le lendemain de l'annonce, tant
xxxvi
qu'un contrat de services d'assistance facturable n'a pas été signé avec le client par
l'Ingénieur Commercial en charge du compte.
Cette décision, qui montrait de la part de ses auteurs une totale méconnaissance de
la réalité du terrain, provoque bien entendu une levée de boucliers non seulement des
clients, mais aussi de tout l'appareil commercial d'IBM. Elle correspond également, sans
que la relation de cause à effet puisse être prouvée, à un ralentissement de la croissance
du chiffre d'affaires qui tombe de plus de 25% par an en 1967 et 1968 à moins de 5% en
1969 et 1970.
Au bout d'un certain temps, la Direction d'IBM devra reconnaître son erreur et
rechercher les moyens de la corriger sans pour autant paraître renier les principes qu'elle
avait édictés quelques mois plus tôt. Le principe de la solution finalement retenue est
d'extraire une partie des effectifs Technico-Commerciaux des Agences commerciales et
de les regrouper dans des Centres dont l'activité sera par définition facturable. L'activité
des Agences est considérée comme gratuite par principe, à l'intérieur de certaines limites
assez imprécises. L'idée semble être que si les Centres peuvent faire état d'un niveau
suffisant de facturation, cette facturation servira en quelque sorte d'alibi pour faire
accepter par les juristes et les autorités extérieures un certain laxisme au niveau des
Agences.
Mais cet appauvrissement des forces commerciales est mal ressenti sur le terrain,
et même si le faux pas initial finit ainsi par être maladroitement corrigé, il n'en a pas
moins gravement entaché l'image d'IBM et ses relations avec la clientèle,
ainsi – pourquoi ne pas le dire ? – que la confiance d'une grande partie d'IBM dans ses
propres dirigeants.
La mise en œuvre de cette politique suppose que soit établie une nomenclature
réaliste des tâches du Technico-Commercial, indiquant pour chacune son caractère
gratuit ou facturable selon le bénéficiaire principal. Une difficulté, ou une possibilité de
souplesse, existe du fait que certaines activités comme l'établissement et le suivi du
planning d'installation, ou encore la sélection des solutions techniques, peuvent être
considérées comme bénéficiant à la fois à IBM et à son client. D'une position ou ces
activités sont définies comme facturables, IBM Europe, sous la pression des USA qui
sont en train de tenter de corriger leur propre décision, glisse rapidement vers une
position où ces activités intermédiaires sont gratuites.
Dans toute cette période de lancement, le souci principal d'IBM est de facturer une
partie de l'assistance technique qu'elle fournit à ses clients en tout état de cause, et non
pas de développer une offre de services nouveaux. La part facturée doit être suffisante
xxxvii
pour aboutir à un contrôle plus efficace des activités du personnel technico-commercial
et pour satisfaire les contraintes juridiques, mais sans pour autant nuire à la
commercialisation du matériel. A aucun moment il n'est envisagé d'ériger cette activité
d'assistance technique en un centre de profit plus ou moins indépendant. IBM applique
d'ailleurs à ces services une politique de tarifs élevés cohérents avec ses pratiques de
rémunération, mais dissuasive pour les clients qui restreignent progressivement leur
recours à IBM aux tâches exigeant une excellente connaissance des produits et/ou des
logiciels. Des politiques analogues, généralement encore moins précises, seront
adoptées par les autres constructeurs, qui dans leur ensemble tiennent à préserver leur
souplesse et leur capacité à utiliser l'assistance comme un argument de vente du
matériel.
La formation
Le principe de facturation retenu par IBM est le suivant : les cours promotionnels
ou d'information générale restent gratuits, et en principe réservés aux entreprises ayant
commandé du matériel ou envisageant de le faire, tandis que tous les cours techniques
ou professionnels sont payants et ouverts à tous. Dans la pratique, ce système se traduit
d'abord par une réorganisation du répertoire des cours afin que le contenu réel de chacun
le range sans ambiguïté dans l'une ou l'autre des deux catégories. A part ces ajustements,
la nouvelle politique de facturation est, jusque vers 1975, plaquée en quelque sorte sur
la structure habituelle du curriculum et la formation reste gérée comme partie de
l'activité commerciale.
xxxviii
exprimer que l'objectif majeur de l'activité de formation reste le support aux ventes de
matériel, indépendamment de son caractère facturable.
Pour améliorer sa productivité, ainsi d'ailleurs que celle des élèves, IBM remplace
entre 1976 et 1980 une grande partie des cours magistraux par des ouvrages
d'autoformation, quand la matière enseignée ne demande pas une interaction fréquente
entre l’élève et l’instructeur, ce qui était le cas de la quasi-totalité des cours gratuits. Ne
subsistent alors sous forme magistrale que de brefs séminaires de présentation des
produits à un extrême, des cours techniques avancés comprenant une forte dose de
travaux pratiques à l'autre extrême, plus quelques cours intermédiaires dont l'audience
relativement faible ne justifie pas d'investir dans l’autoformation. La quasi-totalité des
instructeurs peut alors se consacrer à des cours de haut niveau qui présentent le triple
avantage d’apporter la contribution maximale à l’objectif d’autonomie technique des
clients, de présenter pour les instructeurs le plus haut intérêt professionnel et de pouvoir
être facturés très cher.
Organisation et stratégie
xxxix
80, et n’évoluera de façon significative qu'en 1987 avec la création de l'organisation
« Intégration de Systèmes ».
Conçue au départ comme une action défensive contre l'explosion des coûts de
logiciels et d'assistance, ainsi que comme une manœuvre politique vis à vis des
concurrents et du Gouvernement US, la tarification dissociée s'est traduite par la
facturation d'activités dans lesquelles IBM était déjà présente pour soutenir son activité
principale de matériels. Mais loin d'entrer dans le domaine des services de façon
agressive, IBM a utilisé la facturation pour limiter son implication dans les tâches qui
n'étaient pas essentielles pour le soutien du matériel. Elle a en quelque sorte créé un
marché pour ce qu'elle ne veut pas faire, donc un marché sur lequel elle ne sera pas
concurrentielle.
Pour ce qui lui semble critique pour le matériel, elle a soit maintenu la gratuité,
soit exploité un avantage déterminant (par exemple la connaissance du matériel pour la
formation technique) pour s'assurer de fournir le service malgré les prix élevés que lui
imposent ses pratiques de rémunération et de tarification. C'est pourquoi jusqu'à un
passé très récent les effectifs consacrés aux services ont toujours été gérés comme partie
des effectifs et des coûts commerciaux, et que jamais n'a été créée une organisation
réellement autonome dont l'évolution aurait été fonction de sa rentabilité propre. Le
revenu de services a longtemps été un sous-produit et non un objectif.
xl
Emergence d’un secteur des services
La facturation même partielle des services ouvre des marchés aux sociétés de
services indépendantes, en particulier dans le domaine des applications ou pour des
tâches d'un niveau incompatible avec les tarifs des constructeurs. Un nouveau secteur
des services « intellectuels », portant essentiellement sur le développement de
programmes d'application et la mise en place de systèmes complets, se crée tant comme
une évolution naturelle des Sociétés de Service Bureau que par apparition de nouvelles
firmes spécialisées. Jusqu'aux années 90, ce secteur se développera rapidement en
profitant en particulier de la pénurie de personnel compétent.
En matière de formation, la voie choisie par IBM de se concentrer sur les cours
pratiques de haut niveau liés aux produits, et de leur appliquer sa politique traditionnelle
de prix élevés, ouvre un large champ aux entreprises indépendantes de formation, dont
IBM souhaite favoriser le développement. Par exemple, sa politique exclut d'offrir des
cours de programmation sous forme magistrale bien que l'existence de tels cours (offerts
par des tiers) contribue positivement à son objectif principal d'autonomie technique des
utilisateurs. La stratégie choisie par IBM en matière de formation a ainsi été très
favorable aux entreprises indépendantes, pour lesquelles IBM crée la demande et établit
un régime de prix élevés, tout en n'étant présente que dans des segments très
particuliers.
xli
marché IBM représente entre 50% et 70% du marché potentiel total des services
informatiques. Il a permis l'essor des sociétés de services indépendantes et l'apparition
d'une industrie du logiciel, bien que timide et peu distincte des sociétés de services
informatiques au début. Il a poussé les utilisateurs à devenir de moins en moins
dépendants d'un constructeur dominant, ce qui a contribué, avec la standardisation des
matériels, à la désagrégation de l'offre des grands constructeurs et à l'essor des offreurs
spécialisés et des intégrateurs indépendants. Au total, par ses effets indirects,
l'unbundling a contribué à la réduction progressive de la part de marché d'IBM.
Dans ce secteur, non seulement il est possible de développer des matériels plus
étroitement adaptés en s'affranchissant des contraintes d'une architecture universelle,
mais le besoin de support technique peut être réduit grâce à la compétence de base des
utilisateurs. De plus, les acheteurs sont souvent des laboratoires jaloux de leur
indépendance et très enclins à se démarquer à la fois des services centraux dont ils
dépendent et du constructeur le plus lié à ces services centraux. C'est en exploitant ces
caractéristiques, et en utilisant souvent des pratiques commerciales agressives
contrastant avec les manières à la fois policées et condescendantes d'IBM, que
fleurissent des sociétés spécialisées dans les « mini-ordinateurs », comme Digital
Equipment en 1965, Data General en 1969, Prime, Modcomp, Hewlett-Packard, etc.
Control Data elle-même, plus connue par la suite pour ses super-ordinateurs, avait
ouvert cette voie en 1958 avec l’une de ses premières machines le Control Data 160.
xlii
chez Digital Equipment ou Hewlett-Packard. C'est pourquoi il est littéralement absurde
de s'étonner que « les constructeurs traditionnels aient été absents des débuts de la mini-
informatique ». Celle-ci est par définition un ensemble d'attaques ponctuelles menées
par de nouveaux entrants contre les constructeurs établis, avec des arguments et des
méthodes de nature commerciale, et non pas une innovation de nature technologique qui
aurait échappé aux constructeurs traditionnels.
Contrairement à ce que veulent faire croire les fabricants de minis, il n'y a pas
opposition entre des constructeurs de « mainframes » rétrogrades et des constructeurs de
minis progressistes. Il y a d’un coté des constructeurs généralistes offrant une gamme
étendue de matériels plus ou moins universels sur une large échelle de puissances, et de
l’autre des constructeurs spécialisés qui ne couvrent qu'une partie sélectionnée de
l'éventail des applications et de l'échelle des performances, couverte également par les
généralistes, quelquefois même avec des matériels et des approches commerciales
spécialisés. Dans les secteurs communs, chacun se bat avec des arguments différents,
mais il s'agit purement d'arguments commerciaux destinés à vendre des solutions
voisines et non, comme on a voulu le faire croire, de deux conceptions opposées de
l'informatique.
L'émergence des minis fait apparaître de nouveaux acteurs, mais ne modifie pas
en profondeur les forces concurrentielles (au sens de Porter) ni la structure du secteur,
contrairement à ce qui se passera pour les micro-ordinateurs. Les constructeurs de
minis, tout comme IBM, offrent dans leur créneau des configurations complètes et un
service complet de formation, d'assistance et d'entretien, adapté bien entendu au
segment qu'ils visent. Tout en étant en concurrence avec les constructeurs généralistes,
ils se conforment aux règles du jeu établies par eux. Le phénomène mini n'est que la
médiatisation accidentelle d'une tendance générale de l'informatique, à savoir
l'apparition permanente de matériels de plus en plus performants à des niveaux de prix
de plus en plus bas.
offre incluant l'ensemble des services requis par les utilisateurs, etc. Comme tel, Digital
Equipment connaît maintenant les mêmes problèmes qu'IBM après avoir été le plus
performant de ses challengers.
La montée des minis aura son impact le plus important en matière de services
avec l'érosion du marché du Service Bureau. La disponibilité de matériels puissants à
bon marché permet aux utilisateurs de s'équiper de moyens propres adaptés à leurs
besoins au lieu de recourir à des moyens partagés. C'est ainsi que le Service Bureau
disparaît progressivement entre 1975 et 1983 dans sa presque totalité, entraînant la
11 L’auteur du présent ouvrage s’efforçant d’écrire en français, on n’y utilise pas le terme hélas
pourtant répandu de « système propriétaire ». Quand IBM (ou tout autre) propose un système qui est
propre à ses matériels, c’est IBM qui est propriétaire du système et non le système qui est propriétaire (de
quoi d’ailleurs ?).
xliii
disparition, la régression ou la reconversion des entreprises qui s'y étaient spécialisées.
N'en subsistent que les services qui reposent sur des compétences ou des bases de
données très spécialisées, ou qui impliquent par nature le partage d'informations entre
les firmes utilisatrices .
12
IBM a toujours voulu être présente dans le segment des ordinateurs de bas de
gamme, afin de s'implanter très tôt chez le maximum de clients et de suivre leur
évolution en comptant sur leur fidélité. C’est pourquoi elle avait introduit dès 1957 des
machines comme le 610, l'un des premiers ordinateurs scientifiques destinés à un usage
individuel, suivi par le 1620 en 1959, le 1440 en 1962, ou encore le système 3000
annoncé en 1961 (en Europe seulement) et qui connut un éphémère succès commercial
avant d'être retiré du marché à la fin de la même année.
Après 1964, tout en offrant des réalisations d'entrée de gamme du 360, les
concepteurs de petits systèmes se heurtèrent aux limites de cette architecture. Toute
architecture générale, quelle qu'elle soit, a en effet des exigences qui déterminent un
coût plancher pour sa réalisation dans un état donné des technologies, et donc un niveau
de prix en dessous duquel elle ne peut être réalisée de façon économique . De plus, les
13
petits systèmes ont des besoins spécifiques peu compatibles avec l'architecture générale
360 telle qu'elle avait été conçue en 1964, en particulier dans le domaine de la
convivialité, puisqu'ils doivent pouvoir être entièrement mis en œuvre par une seule
personne non informaticienne.
C'est pourquoi l'annonce du 360 n'empêcha pas IBM de continuer à mettre sur le
marché, pour des besoins spécifiques, des systèmes non conformes à cette architecture
et incompatibles entre eux : le 1800 pour le contrôle de processus dès 1964, puis son
successeur le Système/7 en 1970, le 1130 pour le calcul scientifique personnel en 1965
(avec le premier OS individuel sur disque), le Système/3 pour la gestion des petites
entreprises en 1969. Dans ce segment des petits systèmes, par définition non couvert par
l'architecture 360 et son effet unificateur, se perpétuait la dynamique anarchique des
années antérieures.
Grâce au progrès technologique, le prix des petits systèmes n'a cessé de diminuer
en même temps que leurs fonctionnalités se développaient. De plus, il apparut vite que
les méthodes commerciales traditionnelles, reposant sur des contacts commerciaux et un
support technique individualisés, s'appliquaient mal à un marché de masse où la valeur
de chaque vente est relativement faible. L’élargissement du marché, joint à la baisse des
prix unitaires, demandait de plus en plus des formes de commercialisation et de support
technique différentes.
12 Paradoxalement, ce marché moribond du traitement soulèvera vers 1986-1988 l'intérêt vite déçu
des entreprises de télécommunications sous l'appellation médiatique de « Services à Valeur Ajoutée ».
Voir chapitre 16.
13 Un problème analogue se pose d'ailleurs en haut de gamme à cause des limitations de
l'architecture.
xliv
C'est pour permettre dans ce domaine une rupture avec la tradition IBM que fut
créée la « General Systems Division » (GSD) en 1974. Cette Division, qui regroupait
toutes les fonctions de développement, de fabrication, de vente et de support pour les
petits systèmes, était directement rattachée à la Direction du Groupe et comportait dans
chaque pays une organisation entièrement séparée de celle de la « Data Processing
Division » (DPD) en charge des systèmes 360/370. Pour la première fois, IBM se
scindait en entités industrielles indépendantes et concurrentes, comme elle en était
menacée par les actions en justice alors en cours. Quitte à devoir être découpée, IBM
traçait elle-même les pointillés...
Au départ tournée vers les segments de marché non couverts par la gamme 360 et
vers la mise en place de nouvelles formes de commercialisation de masse, la GSD allait
progressivement se poser en concurrente de la DPD sur des marchés de plus en plus
étendus. Ayant en effet la maîtrise de sa ligne de produits, par principe non conformes à
l'architecture 360/370, elle allait chercher à accompagner ses clients dans la croissance
de leurs besoins en faisant évoluer vers le haut ses gammes introduites en 1974, voire en
développant des systèmes très innovants et puissants comme le Système/38 en 1980.
Dans le même temps, DPD continuait à prolonger vers le bas sa gamme 360/370,
principalement pour répondre aux besoins de ses grands clients en équipements locaux.
GSD avait un avantage déterminant dans les petites entreprises par ses pratiques
commerciales, et DPD un avantage dans les grands comptes par la cohérence de sa
gamme. Mais la concurrence était suffisamment sérieuse pour que de nombreuses
tentatives soient entreprises pour la gérer au niveau de chaque pays, sans grand succès il
faut le dire. Pour les clients, il y avait bien deux IBM en concurrence, ce que certains
déploraient tandis que d'autres s'en félicitaient.
Cette situation allait durer jusqu'en 1983, date à laquelle IBM recombina DPD et
GSD et revint à une organisation unifiée pour la commercialisation, au sein de laquelle
peuvent donc se faire les arbitrages commerciaux entre produits concurrents issus de
divisions de développement relativement autonomes. Le dernier des grands procès,
celui du Ministère de la Justice des USA, venait de se conclure par l'arrêt des poursuites,
déclarées non fondées par leur auteur. IBM présentait de nouveau au marché un visage
unique, mais les nouvelles formes de commercialisation et les nouveaux canaux de
diffusion mis en place par GSD demeuraient. IBM avait renoncé à se faire ouvertement
concurrence, mais avait pris l'habitude de vendre ses produits à travers tous les canaux
de distribution disponibles : ventes directes, agents, revendeurs, sociétés de services,
etc.
Il est probable que cet exercice de concurrence interne a été enrichissant pour
IBM, donnant raison à ceux qui critiquaient la position du Gouvernement US en
prédisant que plusieurs petites IBM seraient beaucoup plus efficaces qu'une grande, et
donc plus dangereuses pour les concurrents. Rétrospectivement, la fusion de 1983 entre
DPD et GSD peut être considérée comme un pas de clerc à la lumière de la
réorganisation majeure qui est en cours depuis 1991.
xlv
FS ou la fin d'une illusion (1971 - 1975)
Au début des années 1970 se déroula à l'intérieur d'IBM un projet dont la nature et
le contenu détaillé sont restés un secret bien gardé. Il s'agit du projet FS (Future
Systems), quelquefois également désigné par AS (Advanced Systems).
Que ce projet n'ait pas été plus largement connu de la profession est d'autant plus
remarquable qu'il a impliqué en 1973/1974 près de 2000 personnes. Il faut dire que des
précautions exceptionnelles (même pour IBM) avaient été prises pour en assurer la
totale confidentialité. Dans la meilleure tradition des services secrets, le projet était
cloisonné de telle sorte que l'immense majorité des participants n'en connaissaient que
la petite partie strictement nécessaire à l'exécution de la tâche particulière qui leur était
confiée, de sorte que très peu de gens ont pu avoir une vue d'ensemble du projet et
comprendre ses implications stratégiques. Vingt ans plus tard, je pense pouvoir en
évoquer quelques aspects généraux sans trahir le secret auquel j'ai été tenu.
C'est pour définir le plan d'action par lequel pourrait se concrétiser cette deuxième
stratégie qu'une Task Force est réunie à Armonk au deuxième trimestre 1971. Ses
objectifs sont :
–de proposer une architecture de systèmes et un plan de développement de produits
qui permettent de prendre une avance concurrentielle importante par un saut
technologique majeur,
–de rendre obsolètes les ordinateurs existants,
xlvi
–de redonner une base technologiquement justifiée à un regroupement tarifaire des
prestations et au retour à une tarification fonctionnelle.
Il faut souligner le très grand soin avec lequel IBM voulait vérifier que toute
modification de la structure de son offre, qu'il s'agisse de matériels, de logiciels et de
services, serait justifiée par des arguments technologiques incontestables et non
seulement commerciaux ou financiers. A cette époque, IBM était en effet la cible de
plusieurs procès dont celui du Gouvernement des Etats-Unis, et était plus soucieuse que
jamais de ne rien faire qui puisse sembler susceptible d'être interprété comme un abus
de position dominante.
illimitée, jointe aux faibles coûts projetés pour les mémoires, rend possible l'utilisation
d'un système d'exploitation unique pour toute la gamme, incorporant toutes les
techniques nécessaires pour favoriser le développement des applications et l'exploitation
des centres informatiques dans tous les modes opératoires.
Pour tenir compte de l'évolution (en cours et à venir) des modes d'exploitation, le
groupe de travail propose une redistribution radicale des fonctions traditionnelles du
matériel et des logiciels système entre différentes couches de câblage et de microcode.
Certaines fonctions logicielles complexes se retrouvent ainsi câblées au coeur du
système, et la plupart des fonctions jusque là assurées par le système d'exploitation et
ses extensions deviennent câblées ou microcodées, avec la possibilité de plusieurs
niveaux de microcode.
Au final, la « machine » proposée inclut tout ce qui était le logiciel de base pour
les systèmes antérieurs dont le 360, y compris la gestion des communications et la
gestion des bases de données. De même, l'« unité centrale » inclut une grande quantité
de mémoire à semi-conducteurs et d'unités de disques, ainsi que l'équivalent d'une
bonne partie des unités de contrôle de transmission et d'entrée-sortie. Outre les
14 Dans un tel système, chaque élément d'information est repéré par une référence fixée une fois
pour toutes. Le système peut déplacer l'information entre les différents supports de façon invisible pour
l'utilisateur, et la restituer à l'utilisateur quel que soit le support sur lequel elle réside.
xlvii
programmes d'application pour lesquels IBM n'a pas d'ambition, seules les unités
d'entrée-sortie (terminaux) et les appareils de stockage de très grande capacité restent
physiquement séparées et donc vulnérables. Cette structure très intégrée reposant sur
des composants spécifiques doit permettre de maintenir son unité au secteur face aux
attaques ponctuelles des matériels compatibles.
Le projet, qui vers la fin de 1974 occupait à plein temps la quasi-totalité des
ressources de développement d'IBM, est arrêté au début de 1975, et remplacé par une
politique d'évolution compatible conservant la base 360/370. Les raisons de l'arrêt du
projet n'ont évidemment pas été rendues publiques, même à l'intérieur d'IBM. D'une
façon synthétique, on peut les résumer comme suit.
Par ailleurs, malgré les outils prévus pour faciliter la migration des anciennes
applications, la conversion à FS posait un problème sérieux de coût, de logistique et de
charge du personnel client. A l'inverse, éviter ces problèmes en continuant d'utiliser FS
en mode 370 privait les utilisateurs de la plupart des avantages du nouveau système. Il
était donc à craindre qu'au moment ou FS arriverait sur le marché, son avantage par
rapport aux compatibles 370 développés entre temps ne soit pas déterminant aux yeux
des clients. Or l'énormité même du travail à accomplir pour développer FS avait tari tout
autre développement à l'intérieur d'IBM, laissant un champ libre aux annonces des
autres constructeurs. Enfin, l'éventail des possibilités alternatives ouvertes aux clients
était beaucoup plus large qu'à l'époque du 360 et comprenait maintenant non seulement
l'utilisation de matériels concurrents compatibles ou non, mais aussi celle de matériels
IBM d'occasion à bas prix.
Quelles que soient les raisons qui ont motivé à l'époque la Direction d'IBM à
accepter « l'échec le plus coûteux de son histoire », cette décision a une signification
profonde : IBM renonçait ainsi à son projet explicitement formulé de revenir à la
structure industrielle du début des années 60, où son leadership technologique lui
conférait un quasi-monopole sur tous les secteurs de l'industrie. L'annonce du 3033 en
1977 signifiait que l'informatique ne connaîtrait plus de révolutions mais des évolutions
progressives. De plus, en renonçant à FS, IBM renonçait à être maîtresse du jeu et
admettait d'être un acteur parmi d'autres, participant à un jeu concurrentiel dont elle ne
fixait plus les règles.
Le « monde » IBM évolue ainsi dans les années 70 vers une structure plus
complexe faite de sous-secteurs où des offreurs secondaires sont en concurrence avec le
xlviii
leader dans le créneau qu'ils ont choisi (par exemple les compatibles ou le matériel
d'occasion), ou offrent des éléments complémentaires que le leader a choisi de ne pas
fournir (par exemple dans le domaine des logiciels ou des services). Dans ce « monde »
multifournisseurs, IBM doit lutter non seulement contre Univac et Control Data, mais
aussi contre Amdahl, Hitachi, Memorex, etc.
xlix
Chapitre 3
Une autre informatique apparaît (1975-1993)
l
informaticien. Autour de ce système se développe une panoplie de logiciels d'un
nouveau type dont les meilleurs exemples sont le traitement de textes (Wordstar 1979)
et le tableur (Visicalc 1979). De plus, au lieu de se contenter de diffuser des matériels au
meilleur coût via des distributeurs, cette société, sous l'impulsion de ses fondateurs, se
pose en prophète et en église d'une nouvelle culture. Ainsi se crée autour d'Apple une
mystique de la micro-informatique « conviviale » opposée à la grande informatique
sclérosée, qui se teinte des accents d'une croisade contre le grand méchant IBM. Ce
discours va gagner progressivement le milieu des entreprises, même si le micro-
ordinateur lui-même n'y pénètre en réalité qu'à dose homéopathique.
IBM avait toujours cherché à être présente dans l'informatique personnelle, avec
le 610 puis le 1620 dans les années 50, le 1130 (premier ordinateur individuel utilisant
un système sur disque) en 1965, et même le premier portable en 1975 avec le 5100. Elle
est pourtant restée étrangère au nouveau phénomène micro jusqu'en 1981, bien que la
nouvelle religion y ait fait un nombre croissant d’adeptes dont la voix était de plus en
plus forte. Il est probable que l'identification générale de la micro-informatique avec le
marché du grand public a joué son rôle en détournant de ce secteur l'attention des
dirigeants d'IBM pendant plusieurs années, malgré la montée en puissance visible
d'Apple.
IBM finit par réagir, mais d'une manière tout à fait inhabituelle. Le Personal
Computer lancé par IBM en 1981 utilise un processeur Intel, des disques Tandon et un
système d'exploitation sous-traité à Microsoft. Comme les pionniers de la micro en
1975, IBM ne réalise que l'assemblage et la commercialisation en gros, la vente au
détail étant réalisée par des distributeurs indépendants. Mieux encore, le système
comprend un système de « bus » permettant l'adjonction de cartes d'extension fournies
par d'autres constructeurs. De même, le système d'exploitation retenu (MS-DOS) facilite
le développement et l'incorporation de logiciels par des tiers. Bref, le PC, contrairement
à toutes les autres machines d'IBM, est un système délibérément ouvert aux logiciels et
aux extensions d'autres fournisseurs. On explique généralement cette démarche
inhabituelle par l'urgence, mais il est probable que là encore la conviction qu'il s'agissait
d'un marché sans relation avec les marchés traditionnels de la Compagnie a joué son
rôle.
En quelque sorte, IBM prend la voie Tandy plutôt que la voie Apple, qui (peut-
être inconsciemment) aspire à être le fournisseur de micro-informatique, comme IBM
est le fournisseur de référence de grande informatique. Pour devenir l'anti-IBM, Apple a
suivi le modèle IBM, comme Digital Equipment quelques années plus tôt à l'occasion
du phénomène des minis. Pour s'opposer à Apple, IBM se pose au contraire comme
catalyseur d'une galaxie d'entreprises indépendantes, en comptant sur leur créativité et
leur dynamisme pour faire de son matériel le standard de fait.
li
logiciels ont été écrits pour qu'un retour en arrière soit possible. A supposer que
l'intention d'IBM ait été de faire revenir le marché à des systèmes « maison », il est clair
que ce retour ne s'est pas produit.
Un monde éclaté
A l'inverse de l'action fédératrice d'Apple, les modalités choisies par IBM pour
entrer dans ce marché encouragent une structure éclatée où coexistent de nombreux
fournisseurs de matériel dont aucun n'exerce plus de leadership sur le secteur, où les
différentes unités de l'ordinateur sont produites par des constructeurs différents, où les
producteurs de matériel et ceux de logiciel forment deux secteurs distincts, et où seul le
distributeur est l'interlocuteur obligé du client.
Les fournisseurs choisis par IBM pour les composants et le système d'exploitation
acquièrent rapidement et durablement une situation de quasi-monopole. Intel fournit les
trois-quarts des processeurs utilisés dans des PC, le reste étant fourni par des
fournisseurs de « clones » parmi lesquels IBM. Symétriquement, le système
d'exploitation MS-DOS de Microsoft équipe la quasi-totalité des PC après avoir éliminé
ses prédécesseurs. Au contraire, de nombreuses sociétés se lancent sur le marché des
unités centrales, qu'elles construisent en assemblant un processeur, un écran et des
disques acquis auprès de firmes spécialisées, et qu'elles équipent du système MS-DOS
acquis chez Microsoft. Dès 1982, on estime à 60 le nombre de marques de compatibles
PC à base de processeurs Intel, et le volume total de leurs ventes dépasse déjà celles
d’Apple. A part IBM, aucune de ces firmes n'atteindra jamais une part de marché
supérieure à 15% et la plupart se contenteront de moins de 3%.
lii
permet de comparer les coûts par Mips et par Mega-octet de mémoire centrale pour
15 16
liii
icônes. Il faudra attendre 1984 pour qu’apparaissent sur la famille PC des interfaces
graphiques vaguement comparables à celle qu’offre depuis longtemps Apple, et 1990
pour disposer sur PC avec Windows 3 d’un système graphique concurrentiel.
Toutes ces entreprises cherchent à toucher le marché le plus large possible, mais la
plupart n'ont pas les moyens de mettre en place leur propre réseau de vente et de
distribution. Quant aux grands constructeurs traditionnels, leur réseau commercial n'est
adapté ni à la clientèle des PC ni à la logistique requise pour de grandes quantités à
faible coût unitaire. C'est pourquoi se mettent en place des organismes de distribution
qui vont de la boutique au rayon d'un magasin grande surface généraliste en passant par
le réseau spécialisé en microinformatique. Les modalités de distribution deviennent
rapidement un argument de vente au même titre que les caractéristiques du matériel.
liv
fournisseur de matériel, en l'occurrence IBM. Dans le monde du PC, alors que des
dizaines de firmes se partagent le marché des matériels sans qu'aucune n’y atteigne une
part de marché de 20%, Intel et Microsoft sont en position de monopole dans leur
secteur et dominent le « monde du PC » dans la mesure où ce sont leurs produits qui
donnent son unité au secteur, et leurs décisions qui en déterminent l'évolution globale.
Comme cela avait été en partie vrai pour le 360, IBM a créé avec le PC une
industrie qu'elle ne contrôle pas et où elle occupe une place minoritaire. Certes
l'ensemble des compatibles PC et PS/2 représentent en 1992 près de 90% du marché
contre 10% pour Apple et 2% pour les autres architectures (Commodore, Atari), mais
dans ces 90% IBM est minoritaire (bien que premier) avec environ 15% des ventes
totales, alors qu'elle en représentait 32% en 1986. Dans l'intervalle, les fournisseurs de
compatibles ont exploité les progrès de la technologie pour diminuer les prix de marché
de façon continuelle et spectaculaire, au prix de leur survie pour certains.
Il est permis de penser que ce mirage du grand public, s'il a coûté beaucoup
d'argent à pas mal d'entreprises plus ou moins éphémères, a néanmoins joué un rôle
positif. Que se serait-il passé si les promoteurs de la microinformatique – les Steve Jobs,
les Bill Gates – avaient pensé qu'ils entreraient un jour en compétition directe avec les
grands comme IBM qui dominaient l'informatique de l'époque ? La conviction d'opérer
dans un marché nouveau disjoint du marché de la grande informatique leur a
probablement donné l'audace nécessaire. Parallèlement, la même conviction que la
17 Masson - 1991
lv
microinformatique s'adresse au grand public et non aux entreprises en tient écartés les
constructeurs traditionnels, qui pourtant possédaient les technologies nécessaires et
avaient déjà lancé des ordinateurs personnels destinés à l'usage professionnel. Le
démarrage réussi de la microinformatique résulte en partie d'une même erreur
d'appréciation de son potentiel par les pionniers qui l'ont promue et par les grands
constructeurs qui l'ont négligée.
Le remplacement des grands systèmes par des micro-ordinateurs est encore resté
marginal par rapport au nombre total de grands systèmes installés. Faire migrer des
applications existantes vers des micro-ordinateurs suppose que ceux-ci puissent être
assemblés en complexes équivalents aux grands systèmes en fonctions et en puissance.
Cela exige aussi un investissement considérable en redéfinition et redéveloppement
d'applications, que le gain potentiel de coût d'exploitation n'a que rarement justifié aux
yeux des utilisateurs de grands systèmes. De plus, une telle opération implique un risque
que peu de Directions informatiques ont estimé raisonnable de courir.
Mais l'avantage des micros continue à s'accentuer avec les années et accroît la
pression concurrentielle pour faire profiter toute l'informatique des coûts que permet la
diffusion à très grande échelle. Il faut pour cela trouver des moyens simples et
lvi
performants de répartir les applications entre systèmes interconnectés, ou de construire
des grands systèmes avec les mêmes composants que les PC. Tel est l'enjeu réel des
développements en cours dans le domaine des architectures client-serveur, des systèmes
distribués et des multiprocesseurs.
Le monde Unix
Au début des années 80, alors que le raz de marée des PC commence tout juste à
déferler, quelques firmes au premier rang desquelles Sun Microsystems, cherchent à
pénétrer sur le marché sans devoir consentir l'investissement considérable que
représente l'écriture et la maintenance d'un système d'exploitation. Or un système appelé
Unix jouit d'une grande popularité dans les milieux scientifiques que visent justement
ces nouveaux fournisseurs.
Au début des années 80, Unix se présente comme un système disponible, non
protégé par un constructeur, conçu pour permettre une évolution facile, et bénéficiant de
la dynamique d'innovation des centres de recherche les plus actifs. Son existence permet
aux constructeurs qui l'adoptent de se reposer sur une source indépendante de logiciel de
base pour concentrer leurs efforts et leurs investissements sur le matériel. Par la suite,
presque tous les constructeurs inscriront à leur catalogue des systèmes Unix à côté de
leurs systèmes propres, mais en les faisant bénéficier d'efforts de promotion très
lvii
variables selon qu’ils entrent plus ou moins en concurrence avec leurs matériels
traditionnels.
lviii
foisonnement des solutions alternatives et des querelles qui résultent de ce
foisonnement. Si rien de ce genre n'existe dans le monde du PC, c'est simplement parce
que toute l'industrie s'est rangée très tôt, à tort ou à raison, derrière MS-DOS.
Au total, la structure actuelle du monde Unix (et Risc) est plus proche de la
structure traditionnelle que de celle du monde PC. Comme dans le monde traditionnel,
la concurrence se joue principalement entre des acteurs qui offrent chacun une solution
informatique complète constituée par sa propre combinaison d'un matériel utilisant un
processeur spécifique et d'un système d'exploitation propre bien que dérivé d'Unix. La
structure du monde Unix ne se distingue de la structure classique que par la
multiplication des alliances visant à partager les éléments coûteux en investissements
comme les composants ou les modules de système d'exploitation, et par l'activité de
normalisation intensive. Le phénomène des alliances et le mouvement de normalisation
des systèmes sont le plus souvent présentés comme touchant l'ensemble de
l'informatique, alors qu'ils se limitent largement au monde Unix et ne portent au sens
strict que sur le dixième du marché.
Contrairement à une opinion répandue, le monde Unix est tout le contraire d'un
monde standardisé. C'est au contraire dans le monde Unix que la concurrence spécifique
aux systèmes d'exploitation est la plus intense, puisque dans le monde traditionnel elle
est partiellement éclipsée par la concurrence sur les matériels et qu'elle n'existe plus
dans le monde PC depuis l'adoption généralisée de MS-DOS et maintenant de Windows.
C'est justement parce que le besoin de standards y est criant et qu'aucun offreur ne
domine le marché que le monde Unix consacre tant d'efforts à la standardisation.
Mais à l'inverse, grâce à ces efforts, c'est du monde Unix que sortent les standards
de toute l'industrie. L'innovation étant l'autre face de la concurrence, le monde Unix est
le foyer d'innovation privilégié pour tous les domaines liés aux systèmes d'exploitation,
entre autres la structure des systèmes, le multiprocessing, les systèmes distribués, la
disponibilité et la sécurité, etc. De plus, le niveau de puissance de la plupart des
systèmes Unix est comparable à celui des « minis » traditionnels, et les offreurs d'Unix
ont une motivation concurrentielle immédiate pour doter Unix de toutes les fonctions
des mini-ordinateurs, elles-mêmes dérivées des grands systèmes, ainsi que pour attaquer
le marché des grands systèmes via le développement de multiprocesseurs. La
dynamique propre du monde Unix et sa position à la charnière de l'informatique
lix
traditionnelle et de la microinformatique en font la matrice des bouleversements encore
à venir .23
Le panorama en 1993
Selon leur appartenance à ces trois mondes, les acteurs industriels sont plus ou
moins spécialisés et forment des secteurs plus ou moins identifiables. Les acteurs du
monde traditionnel et ceux du monde Unix offrent en général une palette de prestations
incluant le matériel, les logiciels de base et les services, alors que la spécialisation par
nature de prestations est la règle du monde PC. Dans le monde traditionnel et le monde
Unix, la concurrence entre les acteurs porte sur la totalité de ce panier de prestations y
compris les composants, et donc chaque acteur développe et produit ses propres
processeurs et ses propres systèmes d'exploitation, même si dans ce dernier domaine le
monde Unix se réclame d'un même système standard. Le monde PC a adopté une
architecture de processeur unique et un système d'exploitation unique, et la concurrence
entre acteurs d'un même secteur se concentre sur les produits spécifiques de ce secteur.
Enfin, chacun des acteurs de ces trois mondes peut viser un marché plus ou moins
vaste : la totalité du marché informatique pour les constructeurs les plus traditionnels
dont IBM est l'exemple, des niches plus ou moins étroites pour les offreurs plus récents.
Ces trois mondes sont encore plutôt juxtaposés que concurrents, quoi qu'en aient
dit les chantres du « petit chaudron » et même si quelques acteurs sont présents à la fois
dans deux ou trois. En 1992, on peut estimer que l'informatique traditionnelle
représentait encore 45% des ventes, la microinformatique 41% et le monde Unix 13%.
Ni le monde PC ni le monde Unix n'offrent encore aux grands systèmes d'alternative
techniquement viable et suffisamment crédible pour vaincre l'inertie des organisations
utilisatrices, justifiée par les enjeux et les coûts de conversion. Le concept client-serveur
n'est pas encore considéré comme mature par la majorité des utilisateurs. Dans le monde
Unix, la floraison des solutions alternatives et les incompatibilités qui en résultent
(malgré les efforts de normalisation) ont pour conséquence une complexité des choix
qui rebute encore le gros du marché, hormis quelques niches comme celle de stations
graphiques pour lesquelles ces difficultés ont été localement résolues. Il n'y a pas eu
mouvement d'ensemble de l'industrie vers une structure nouvelle, mais juxtaposition de
trois mondes différents.
23 voir Chapitre 12
lx
Néanmoins, ces trois mondes s'influencent mutuellement. La chute des prix des
micros tire vers le bas les prix des stations Unix, qui par continuité tirent vers le bas le
prix des systèmes traditionnels. La montée en régime des micros et des stations a
fortement ralenti la progression des grands systèmes et fait régresser le marché des
mini-ordinateurs qui avaient été les vedettes des années 70/80.
Mais, en même temps que la baisse des prix se poursuit dans les micros et aggrave
encore la différence avec les prix de l'informatique traditionnelle, les performances et la
richesse fonctionnelle des petits systèmes se rapprochent de celles de systèmes
traditionnels, en particulier grâce aux développements liés à Unix. Les tensions
concurrentielles s'exaspèrent, et les mondes où règne la concurrence interne la plus
dynamique acquièrent de plus en plus d'avantages concurrentiels, précisément dans les
domaines où la concurrence est la plus vive : les prix pour les micros, les systèmes
d'exploitation pour le monde Unix.
La situation actuelle est instable. Il paraît probable que la fin du siècle verra la
fusion des trois mondes en une structure unique où régnera la logique sectorielle et
concurrentielle du monde PC, et qui offrira des solutions techniques combinant le
meilleur d'Unix, du monde PC et du monde traditionnel. Quelle sera la structure de ce
nouveau monde ? Quelles formes d’intégration ou de spécialisation y seront dominantes
parmi les quatre dimensions de spécialisation possibles : par type de matériel, par
marché, par nature de prestation ou par stade de production ?
Dans le même temps où se produit cette évolution, l’informatique envahit tous les
secteurs d’activité. Des produits courants comme les voitures automobiles, les appareils
ménagers, l’audiovisuel ou les jeux contiennent de plus en plus d’« intelligence ». Le
destin de l’informatique est-il de devenir invisible en s’intégrant complètement dans les
produits spécialisés par fonction ? Et dans le même mouvement, l’industrie
informatique est-elle destinée à se fondre dans les autres industries et à disparaître en
tant que telle ? L’ensemble de ces questions sera reprise dans la quatrième partie après
que nous aurons analysé secteur par secteur les mécanismes profonds qui président à la
structuration de l’industrie.
lxi
Chapitre 4
La structure de l'industrie
L’objet du présent chapitre est d’analyser quelques chiffres concernant les firmes qui
composent l’industrie informatique, afin d’en établir une typologie et de tenter d’y
discerner les signes d’une structure et de comportements types.
Dans leur ensemble, les statistiques qui sont régulièrement publiées concernant
l’industrie informatique ne s’attachent pas à définir de façon précise une typologie des
firmes. La plupart d’entre elles postulent une décomposition traditionnelle du marché en
grands segments comme les grands systèmes, les moyens systèmes, les PC, les stations
de travail, les matériels périphériques, les logiciels et les services. Mais à cette
segmentation du marché ne correspond pas nécessairement une spécialisation des
firmes. Dans la réalité, la majorité des firmes opèrent dans plusieurs de ces segments.
Par exemple, presque toutes les firmes de grands et moyens systèmes fournissent
également des logiciels et des services. A l'inverse, beaucoup de commentateurs
regroupent dans un même secteur les progiciels et les services, ce qui n'aurait de sens
que si la majorité des firmes présentes dans l'un était aussi présente dans l'autre.
Certains analystes rangent un peu hâtivement les acteurs de l’industrie informatique
dans des secteurs parallèles aux secteurs de marché ci-dessus, en affectant plus ou
moins arbitrairement à chacun un segment de marché dominant. Cette approche
simplificatrice ignore la composition réelle des offres des différents intervenants et la
fréquence relative des diverses combinaisons. Pour obtenir une image plus exacte de
l’industrie informatique, nous devons analyser le contenu de l’offre de chaque entreprise
pour identifier des groupes de firmes offrant des paniers de prestations similaires. Si de
plus il s’avère que les firmes qui composent chacun de ces groupes présentent d’autres
points communs, nous pourrons penser que la structure ainsi définie est significative.
Rares sont les sources qui fournissent une analyse raisonnablement fiable de la
composition du chiffre d’affaires d’un nombre suffisant d’entreprises. Nous utiliserons
un classement (publié chaque année par la revue Datamation), où le chiffre d'affaires
des 100 premières Sociétés d'informatique américaines est ventilé selon dix rubriques
qui désignent autant de natures de produits, donc de segments de marché : grands
systèmes (large), moyens systèmes (mid), PC, stations de travail, périphériques de
communication (com), autres périphériques (péri), logiciels (soft), maintenance, autres
services (serv) et autres prestations (other).
Comme toutes les statistiques, celles-ci sont évidemment imparfaites. Premièrement,
elles ne sont malheureusement disponibles que pour les fournisseurs américains. Nous
avons néanmoins complété cet échantillon de 100 sociétés américaines par 10 grandes
entreprises japonaises et européennes pour lesquelles les données se trouvaient
disponibles (Fujitsu, Hitachi, NEC, NTT, British Telecom, CAP Gemini, Canon,
lxii
Nomura, Finsiel et Racal)[1]. Notre échantillon totalise ainsi un chiffre d’affaires
informatique de près de 272 milliards de $, soit 80% d’un marché mondial que d’autres
statistiques, comme celles de McKinsey que nous utiliserons par la suite [2], évaluent à
338 milliards pour la même année. Il manque essentiellement quelques grandes firmes
européennes comme Siemens, Olivetti, Bull et ICL, ou japonaises comme Toshiba,
Matsushita ou Mitsubishi, ainsi que de nombreuses sociétés de services très actives en
Europe. Nous examinerons par la suite dans quelle mesure ces omissions pourraient
modifier nos conclusions relatives à la structure du secteur.
Remarquons au passage qu’il est inexact de considérer que le chiffre d’affaires total
de l’industrie informatique est égal à la somme des chiffres d’affaires des firmes
mentionnées. En effet, les fabricants de périphériques et les sociétés de progiciels
vendent une part importante de leur production aux constructeurs de matériel qui
refacturent ces prestations à leurs propres clients.
Deuxièmement, les activités de fabrication de composants d’une part, de distribution
d’autre part, ne sont pas reconnues comme partie intégrante de l’industrie informatique.
Les entreprises spécialisées dans ces domaines ne figurent pas dans le classement. Si
Intel et Motorola sont mentionnées, c’est uniquement pour leurs activités secondaires
dans les grands systèmes et les cartes d’extension pour le premier, les systèmes moyens
et les périphériques de communication pour le second.
Enfin, les chiffres fournis ne sont certainement pas rigoureux. Ils reposent
essentiellement sur les déclarations des entreprises, qui se réfèrent à des définitions
implicites des produits probablement différentes de l'un à l'autre. Par exemple, le fait
que certains constructeurs de matériel ne déclarent aucun revenu de maintenance peut
impliquer qu’ils facturent cette activité avec le matériel et non qu’ils en soient absents.
Nous nous garderons donc d’interpréter ces chiffres comme autre chose que des ordres
de grandeur. Compte tenu du caractère général de nos conclusions, nous considérerons
néanmoins que l'image de l'industrie qu’ils permettent de dessiner est probablement un
reflet assez fidèle de la situation mondiale.
nb segments 9 8 7 6 5 4 3 2 1
firmes 3 4 4 4 1 6 12 37 39
part marché 34% 21% 4% 2% 0% 3% 7% 14% 15%
lxiii
Les généralistes
Les 11 principaux généralistes sont les offreurs historiques, tous issus de l’activité
de constructeur de matériel : IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard,
Hitachi, NCR/ATT, Unisys, Wang, Data General et Texas Instruments.
La part du matériel dans leur chiffre d’affaires va de 39% pour Unisys à 83% pour
Hitachi, mais en ajoutant la maintenance à l’activité matériel, on obtient un total qui va
de 60% pour Unisys et 64% pour IBM à 89% pour Wang et Data General, et 91% pour
Hitachi. L’histoire de ces firmes généralistes autorise à considérer comme significatif le
total du matériel et de la maintenance, puisque toutes ces firmes ne maintiennent que
leur propre matériel et qu’aucune n’offre de prestations de tierce maintenance.
La part de la maintenance chez ces généralistes varie d’ailleurs considérablement :
de 0 pour Fujitsu et Texas Instruments à 31% pour Digital Equipment et Data General et
42% pour Wang. On peut avancer deux explications possibles à ces variations : d’une
part les techniques de maintenance et la politique de facturation utilisées par chaque
firme peuvent aboutir à des proportions différentes entre le CA maintenance et le CA
matériel correspondant ; d’autre part certaines firmes dont les ventes de matériel ont
connu une récession marquée peuvent avoir encore un parc installé important dont la
maintenance engendre un chiffre d’affaires hors de proportion avec les ventes courantes
de matériel ; c’est probablement le cas de Wang et de Data General.
Ces 11 généralistes restent donc dominés par leur activité d’origine de constructeur
de matériels. Parmi les autres firmes, présentes sur moins de 7 segments, deux
présentent cette même caractéristique sans être clairement spécialisées dans un segment
de matériel particulier : ce sont Control Data et Wyse, que nous regrouperons avec les
généralistes
Généralistes
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
IBM 12.7 8.9 11.9 2.9 17.6 12.3 3.4 11.8 10.0 8.5
Fujitsu 22.0 12.0 13.0 7.5 17.5 15.5 3.0 0.0 9.5 0.0
NEC 20.0 12.9 25.9 1.0 11.9 13.0 0.0 5.5 9.7 0.0
Digital Equipment 0.3 17.6 3.2 7.9 5.6 21.2 1.8 31.2 11.1 0.0
Hewlett-Packard 0.6 10.5 5.7 12.1 3.3 36.2 5.0 2.2 4.7 19.8
Hitachi 35.6 3.7 7.9 2.0 8.6 30.0 4.0 8.3 0.0 0.0
ATT/NCR 1.4 4.9 9.6 0.0 2.7 21.8 31.7 16.4 11.5 0.0
UNISYS 0.3 0.0 0.1 0.1 0.1 0.0 0.0 0.2 0.2 0.1
Wang 0.0 0.2 0.1 0.0 0.0 0.1 0.0 0.4 0.1 0.0
Data General 0.0 0.3 0.1 0.1 0.0 0.1 0.0 0.3 0.1 0.0
Texas Instruments 0.2 0.1 0.2 0.0 0.0 0.2 0.0 0.0 0.2 0.1
Control Data 0.2 0.0 0.0 0.3 0.2 0.0 0.0 0.3 0.1 0.0
Wyse 0.0 0.0 0.2 0.2 0.0 0.6 0.0 0.0 0.0 0.0
Au total, les 13 firmes qui figurent dans le tableau ci-dessus peuvent être
considérées comme des généralistes. Ces 13 firmes représentent 59% du chiffre
d’affaires total de l’échantillon de 110 firmes. Au niveau mondial, il faudrait y ajouter
Siemens-Nixdorf, Toshiba, Olivetti, Bull, ICL et Mitsubishi, respectivement numéros 8,
lxiv
10, 12, 13, 17 et 26 par ordre de chiffre d'affaires, ce qui augmenterait encore la part des
généralistes dans le marché global.
Pour la plupart de ces généralistes, les activités de progiciels et de services sont des
prestations annexes qui ne sont fournies qu’en relation avec leur activité principale de
vente de matériel et ne représentent pas plus de 20% de leur chiffre d’affaires. Apprécier
le caractère « annexe » d’une prestation comporte une part de subjectivité. Par exemple,
des firmes considérées comme spécialisées en matériel comme NCR, Unisys ou Control
Data réalisent entre 11% et 17% de leur CA en services hors maintenance. Le cas de
Control Data est particulièrement intéressant, dans la mesure où cette Société a filialisé
une part de son activité de services dans la société Ceridian, mais en conserve
néanmoins une part supérieure à 12% de son propre chiffre d’affaires.
On peut donc penser qu’une proportion de 12 à 15% de services représente le niveau
normal de l’assistance annexe aux matériels et qu’une proportion inférieure ne permet
pas de considérer la firme correspondante comme réellement mixte. Or, dans le cas
d’IBM les services hors maintenance ne représentent que 10% du chiffre d’affaires, soit
moins que pour les cinq firmes précitées. Mais bien que ce chiffre caractérise une
activité de services purement annexe, et plutôt moins importante relativement au
matériel que celle des autres constructeurs, la taille d’IBM lui donne la première place
sur le marché des services et conduit souvent à la considérer comme une société de
services au même titre que les firmes spécialisées.
lxv
spécialité, avec le pourcentage de leur chiffre d’affaires réalisé dans chacun des
segments, est donnée en annexe A (tableaux A-II à A-XII) :
La plupart de ces affectations sont évidentes, mais certains cas demandent une
explication complémentaire. Dans les catégories de spécialistes en systèmes centraux
coexistent deux types de firmes : celles qui ne commercialisent que les unités de
traitement en laissant leurs clients s’adresser à d’autres fournisseurs pour les
périphériques et les services (comme Convex, Stratus et la plupart des constructeurs de
PC), et celles qui offrent des systèmes plus complets entraînant des chiffres d’affaires
non négligeables dans ces segments annexes. Sont dans ce dernier cas Amdahl pour les
grands systèmes, Tandem pour les moyens, Apple ou CompuAdd pour les micros. On a
également admis qu’un chiffre d’affaires important dans la maintenance ou les services
n’est pas nécessairement révélateur d’une activité réellement mixte, c’est à dire où les
services seraient commercialisés indépendamment des matériels.
Notons enfin que Motorola et Intel n’apparaissent dans les statistiques de
Datamation que pour leurs activités de fournisseurs de systèmes moyens et les
périphériques de communication pour le premier, de grands systèmes et de cartes
d’extension pour le second. Bien que primordial dans le domaine de l’informatique, leur
rôle principal de fabricant de composants n’est pas pris en compte dans ce classement et
la présence de ces deux firmes parmi les spécialistes respectivement des
communications et des périphériques ne doit pas faire illusion, surtout dans le cas
d’Intel.
lxvi
– 3 (Finsiel, Sterling Software, Nynex) offrent de façon à peu près équilibrée du
logiciel et des services ;
– 1 (MAI), offre de façon à peu près équilibrée des services et de la maintenance.
A part Prime/Computervision, dont l’histoire est celle d’un constructeur de matériel,
la part des services dans l’offre des firmes mixtes est élevée. De fait, presque toutes sont
au départ des sociétés de services qui ont greffé sur cette activité une offre de matériel
ou de progiciel.
Les différences entre les années 1992 et 1993 font intervenir à la fois des évolutions
réelles de la composition de l’offre des firmes et des reclassements d’activités
identiques dans des catégories différentes. Sous cette deuxième rubrique, on trouve
typiquement des regroupements du matériel périphérique avec les systèmes centraux
concernés, des ventilations différentes entre maintenance et autres services, voire des
regroupements de la maintenance avec les matériels ou les logiciels maintenus. Les
seules entreprises qui changent de catégorie en 1993 sont Ceridian qui isole une part
importante de matériel et devient donc mixte, et Gerber qui en précisant sa production
entre dans la catégorie des périphériques.
Généralistes et spécialistes
Large 3
Mid 3
9 ++
PC
Stat 3
Soft 15 ++
Peri 15 ++
Comm 7+
Maint 1
Serv 27 ++ Spec
2 Autres
Other
Gen
0 10000 20000 30000 40000 50000 60000
CA 1992 (M$)
Données Datamation - Analyse GD
G. Dréan - 1997
lxvii
Les treize généralistes dominent largement les segments des grands et des moyens
systèmes, ainsi que le segment maintenance. Ils ne sont clairement minoritaires que
dans le segment des services hors maintenance. Pour les PC, les stations et les
périphériques, les spécialistes du segment occupent ensemble presque tout le reste du
marché, ne laissant qu’une place marginale aux spécialistes des autres segments et aux
firmes mixtes. Ce phénomène de bipolarisation est moins net pour le software, les
périphériques de communication, la maintenance et les services. Dans le segment
maintenance, c’est même la firme spécialisée qui n’occupe qu’une part de marché
marginale, laissant la seconde place aux spécialistes des autres segments et aux firmes
mixtes.
Une analyse plus détaillée segment par segment est donnée en annexe. Les tableaux
A-XV à A-XXIII contiennent, pour chacun des segments, la liste des firmes de
l’échantillon des 110 qui y sont présentes, classées dans l’ordre décroissant de leur part
de ce marché donnée en colonne 2. Pour chaque firme sont rappelées sa catégorie de
spécialisation ainsi que la part du segment considéré dans le chiffre d’affaires
informatique de la firme, qui mesure son degré de spécialisation relativement à ce
segment.
lxviii
n’apparaissent qu’aux sixième, huitième et douzième places, avec des parts inférieures à
5%. Comme pour les grands systèmes, on ne peut pas parler de secteur autonome.
Il est tentant de regrouper grands et moyens systèmes, où la situation et un grand
nombre d’acteurs sont identiques, et entre lesquels la séparation est d’ailleurs assez
arbitraire. Sur le segment composite sont présentes 23 firmes dont 12 des 13
généralistes qui y occupent les six premières places par ordre de part de marché, et un
total de 89%. Les spécialistes de l’un ou de l’autre, au nombre de six, n’apparaissent
qu’à partir de la septième place avec une part maximale de 3.5%. Les autres firmes n’y
jouent qu’un rôle modeste avec des parts de marché inférieures à 0.5%.
Cette image ne serait probablement pas remise en question si nous prenions en
considération l’ensemble de l’industrie mondiale. En effet, la catégorie des généralistes
s’étendrait alors à des firmes comme Bull, Olivetti et ICL, et sa domination en serait
encore renforcée puisqu’il n’existe hors de notre échantillon que très peu d’autres firmes
présentes dans les grands ou les moyens systèmes. De plus, il est probable que presque
toutes les firmes productrices de ce type de systèmes ont une taille suffisante pour
figurer dans notre échantillon et que l’extension à des firmes de taille inférieure
n’introduirait pas de modifications notables.
PC (tableau A-XVII)
La situation est visiblement différente pour le segment des micro-ordinateurs. Douze
des 13 généralistes figurent parmi les 25 firmes présentes, mais ne totalisent que 51% de
ce marché. En revanche, 9 firmes spécialisées en occupent 47% et apparaissent dès la
deuxième et la troisième place (Apple et Compaq). Les firmes mixtes autres que les
généralistes jouent là aussi un rôle mineur.
Le segment est donc satisfait par deux types de firmes : d’une part des spécialistes
pour lesquels la micro-informatique représente plus de 65% de leur activité, et d’autre
part des firmes pour lesquelles ce segment représente une part minoritaire (moins de
30%) de leur activité.
Si nous prenions en compte la totalité de l’industrie informatique mondiale, on
verrait alors apparaître sur ce segment d’une part les quelques autres généralistes non
américains, mais aussi un grand nombre d’entreprises trop petites pour figurer dans
l’échantillon retenu par Datamation. En nombre d’acteurs, ceci donnerait une très nette
majorité aux firmes spécialisées, et il est fort possible que ceci ait même pour effet
global de donner aux firmes spécialisées la plus grande part du chiffre d’affaires.
On peut donc considérer qu’il existe un secteur autonome d’offreurs spécialisés en
micro-ordinateurs, qui comprend d’ailleurs un grand nombre de petites firmes. Ce
secteur est en concurrence sur le marché avec celui des grands généralistes.
lxix
huitième place, les autres places jusqu’à la onzième étant tenues par sept généralistes et
Prime/Computervision qui s’intercale à la neuvième.
Là encore, on peut donc considérer qu’il existe un secteur autonome d’offreurs
spécialisés en stations, en concurrence sur le marché avec les grands généralistes. Mais
contrairement au cas des PC, ce secteur spécialisé est formé d’un petit nombre de
firmes. Prendre en considération l’ensemble de l’industrie mondiale ne modifierait
probablement pas cette conclusion.
lxx
des généralistes toujours plus ou moins présents, on trouve un grand nombre de
spécialistes qui jouent un rôle important malgré leur taille souvent modeste.
Conclusions
En règle générale, on ne peut pas associer à chacun des segments de marché un
groupe de firmes qui réaliserait l’essentiel du chiffre d’affaires de ce marché et ne serait
que marginalement présente sur les autres. Les secteurs de l’industrie ne peuvent donc
pas être définis par une correspondance simple avec les segments de marché. Il en
découle en particulier que les comportements des offreurs sur la plupart de ces marchés
ne sont pas déterminés par des considérations propres à ce marché, mais par une
stratégie plus générale. Par exemple, les marchés des grands et des moyens systèmes
sont largement dominés par des acteurs pour qui ces marchés ne représentent qu'un part
minoritaire de leur offre, et pour qui le champ de la concurrence est significativement
plus vaste. Il est donc important de bien distinguer les notions de « segment de marché »
(l'ensemble des acheteurs actuels ou potentiels d'un produit[3]) et celle de « secteur
d'industrie » (ensemble des firmes qui fabriquent des produits étroitement
lxxi
substituables[4]), et à l'intérieur d'un secteur de distinguer des catégories différentes
d'acteurs selon par exemple leur degré de spécialisation.
L’analyse des prestations des 110 firmes dont la décomposition de l’activité est
connue nous permet d’en répartir la grande majorité en huit secteurs :
– les généralistes (IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard,
Hitachi, NCR/ATT, Unisys, Wang, Data General, Texas Instruments, Control Data
et Wyse), auxquels s’ajoutent au niveau mondial Siemens, Toshiba, Olivetti, Bull,
ICL et Mitsubishi ;
– les firmes spécialisées par niche de systèmes conventionnels (Amdahl, Cray,
Convex pour les grands systèmes, Tandem, Sequent et Stratus pour les systèmes
moyens) ;
– les constructeurs de PC (Apple, Compaq, Dell, AST, Gateway 2000, Packard
Bell, Commodore, Tandy, CompuAdd), plus un grand nombre de firmes
européennes, japonaises et américaines de moindre importance ;
– les constructeurs de stations (Sun, Silicon Graphics, Intergraph) ;
– les firmes de software (Microsoft, Computer Associates, Novell, Lotus, Oracle,
Wordperfect, Borland, Legent, Autodesk, SAS, Cadence, Adobe, Mentor
Graphics, Informix, Sybase), et un grand nombre de firmes de moindre
importance, principalement américaines ;
– les constructeurs de périphériques (Canon, Seagate, Xerox, Conner, Quantum,
Maxtor, Lexmark, Intel, Storage Technology, Western Digital, Micropolis, EMC,
Tektronix, Kodak), avec un grand nombre de firmes de moindre importance,
américaines, japonaises et européennes ;
– les constructeurs de périphériques de communication (Northern Telecom,
Motorola, Racal, 3COM, Synoptics, Cabletron, Digital Communications), plus un
grand nombre de firmes de moindre importance, américaines, japonaises et
européennes ;
– les sociétés de services (EDS, Computer Sciences, Andersen Consulting, ADP,
CAP, TRW, First Data, Nomura, Price Waterhouse, Ceridian, PRC, SHL, Ernst
and Young, Coopers and Lybrand, Systematics, General Electric, Martin Marietta,
Boeing, Shared Medical Services, Science Applications, Policy Management,
Litton, Grumman, Fiserv, Computer Task Group, American Management
Systems), et un grand nombre de firmes de moindre importance dans le monde
entier.
Pour obtenir un panorama complet, il faut ajouter deux autres secteurs spécialisés :
celui des composants et celui de la distribution. Intel et Motorola quitteront alors le
secteur des périphériques où les range artificiellement le classement de Datamation pour
rejoindre celui des composants.
Par ailleurs, il faudrait séparer les constructeurs de périphériques en différents
secteurs selon la nature des produits, comme le classement Datamation le fait pour les
périphériques de communication. Un secteur des mémoires comprendrait des firmes
comme Seagate, Conner, Quantum, Maxtor, Storage Technology, Western Digital,
Micropolis et EMC, alors qu’un secteur « sorties sur papier » pourrait comprendre
Canon, Xerox, Lexmark et Kodak en concurrence avec Hewlett-Packard. De la même
lxxii
façon, le secteur des services devrait être décomposé en secteurs spécialisés, tant est
grande la variété des formes de services.
lxxiii
Les différences entre ces types d’entreprise apparaissent encore plus clairement sur
les diagrammes suivants, où chaque firme est représentée par un point ayant pour
coordonnées son pourcentage de R&D (en abscisse) et de dépenses de vente et
d’administration (SG&A) en ordonnée, et ceci pour l’année 1993. Les trois zones en
grisé représentent les plages où se concentrent la plupart des firmes de micro-
informatique (en bas à gauche), de progiciel (en haut à droite), et les généralistes (zone
intermédiaire), pour l’ensemble de la période considérée.
Dépenses 1993
0,8
0,7
0,6
pro
gici
0,5 els
SG&A 0,4
0,3 généraliste
s
0,2
PC
0,1
0
0,00% 5,00% 10,00% 15,00% 20,00% 25,00%
R&D
Données McKinsey - Analyse GD
G. Dréan - 1997
En ignorant pour l’instant quelques cas aberrants comme ceux d’Apple, dont nous
avons déjà vu qu’il appartient en fait à la catégorie des généralistes, ou encore
d’Ultimate et de Novell, nous voyons que ces plages sont suffisamment étroites et
disjointes pour représenter des types d’entreprises différenciés. De plus, on constate que
ces plages sont très stables dans le temps pour les dernières années, le seul mouvement
notable étant une dérive de la zone des PC vers le bas et la gauche, reflétant sans doute
une rigueur de gestion croissante avec le temps.
Le cas du progiciel appelle quelques commentaires. Ses coûts de reproduction très
faibles entraînent automatiquement des valeurs élevées pour les deux autres types de
dépenses que sont la R&D et les dépenses générales, situant donc la zone du progiciel
en haut et à droite du diagramme. Mais les points représentant les différentes entreprises
restent assez dispersés. Il est probable que les dimensions importantes de la zone du
progiciel s’expliquent essentiellement par le fait que dans ce secteur, la distinction entre
développement, production et commercialisation a été interprétée différemment selon
les entreprises. Par exemple, la frontière entre R&D et production n’a peut-être pas été
située de façon identique par toutes les firmes, ou encore les dépenses de documentation
ont pu être considérées comme des coûts de développement par les uns, comme
dépenses commerciales par d’autres. C’est pourquoi il ne faut sans doute pas attacher
une importance excessive aux points aberrants que nous mentionnions plus haut.
lxxiv
Mis à part ces inexactitudes possibles, la position des firmes sur le diagramme, et
leurs déplacements éventuels au cours du temps, représentent assez bien leur mode de
fonctionnement et leurs choix stratégiques. Le pourcentage de R&D tendra à être
d’autant plus élevé que la firme cherche à offrir des produits originaux, par opposition à
une activité de pur assemblage de produits standard. La part de dépenses commerciales
et d’administration reflète également pour une part l’originalité des produits, qui tend à
exiger un effort commercial particulier, mais surtout le mode de commercialisation
direct ou indirect, le poids des dépenses publicitaires et d’une façon générale le train de
vie de l’entreprise.
Ces explications aident à interpréter la place des autres firmes. Les constructeurs de
systèmes spécialisés ont des taux de SG&A comparables à ceux des généralistes, sauf
Amdahl et Cray qui ont des taux inférieurs, tandis que leurs taux de R&D sont presque
tous supérieurs à ceux des généralistes. C’est en particulier les cas des offreurs de
stations de travail. Les fabricants de périphériques ont des dépenses de vente et
d’administration plus modestes, probablement parce qu’une part plus ou moins
importante de leur production est commercialisée indirectement à travers les offreurs de
systèmes, tandis que leur taux de R&D les rapproche soit des généralistes soit des
micros suivant la vocation de leurs produits.
Dépenses Services
80,00%
70,00%
60,00%
50,00%
Shared Med 91
30,00% ADP
Les services se répartissent sur tout le plan, confirmant ainsi qu’il s’agit d’un
ensemble d’activités très hétérogène. C’est aussi pour cette catégorie que la proportion
de firmes qui publient ces informations est la plus faible, ce qui peut laisser planer des
doutes sur la fiabilité des quelques chiffres publiés, pour les mêmes raisons d’ailleurs
que pour les progiciels. Néanmoins, on peut observer que des sociétés comme Hoskyns
ou Sema, qui offrent des services d’intégration ou de développement, se situent dans
une zone voisine de celle des PC, alors que la structure de dépenses des firmes de
lxxv
traitement comme Policy Management, ADP ou Shared Medical Systems les rapproche
des généralistes voire du progiciel.
Synthèse
En combinant cette approche de classification avec l’analyse des combinaisons de
prestations, on est conduit aux conclusions suivantes :
Il existe un modèle spécifique aux firmes spécialisées dans le progiciel, qui sont
généralement totalement absentes du marché des matériels, et n’offrent que le minimum
de prestations annexes comme la maintenance ou les services. Ces firmes ont une forte
activité de R&D et une activité commerciale hypertrophiée, mais un coût de production
faible en valeur relative.
Les firmes où le matériel domine appartiennent à deux types distincts :
– un type classique avec une activité de R&D suffisante pour développer des
produits propres, et une forte activité commerciale. Ce type comprend les
généralistes historiques et leurs concurrents plus spécialisés dans certains types de
matériel dont les périphériques associés aux systèmes classiques, ainsi qu’Apple
dans le secteur de la micro.
– un type lié à la micro-informatique compatible, avec des activités de R&D, de
vente et d’administration réduites à leur plus simple expression, donc une
domination absolue de la production.
Les constructeurs généralistes appartiennent au type classique et cherchent à offrir à
la fois une large gamme de matériels y compris des périphériques, ainsi que la
maintenance, les logiciels et les services associés à ces matériels. Ce modèle est celui
des premiers temps de l’informatique ; pour les firmes qui suivent ce modèle, l’objectif
principal est toujours de fournir à leurs clients des systèmes complets, même si les
différentes prestations sont devenues plus ou moins indépendantes sur le plan tarifaire et
commercial, ainsi que dans l’organisation interne des entreprises. Il est également suivi
par des firmes comme Prime, les fournisseurs de stations de travail, ainsi que par Apple
en micro-informatique.
Les constructeurs de matériel spécialisé ont choisi de se limiter à une niche précise,
qu’il s’agisse d’unités centrales ou de périphériques. En règle générale, ces
constructeurs essaient de ne fournir que le minimum de logiciel ou de prestations
annexes. Les plus anciens, comme Tandem, Stratus, Evans & Sutherland ou Memorex
se rattachent au type classique tandis que les constructeurs de compatibles IBM et de
périphériques associés se conforment au modèle qui est devenu la règle dans la micro-
informatique à partir de 1981. On retrouve la séparation historique entre le monde
traditionnel et le monde PC, le monde Unix comme le monde Apple fonctionnant plus
comme le monde traditionnel que comme celui de la micro-informatique compatible.
Dans le domaine des services apparaissent deux types extrêmes : celui des services
« intellectuels » dont la structure de coûts ressemble à celle du matériel micro-
informatique avec des coûts de production élevés et des coûts de R&D et de
commercialisation faibles, et à l’opposé celui des services « de traitement » dont la
structure de coûts ressemble à celle du progiciel avec des coûts de R&D et de
lxxvi
commercialisation élevés. Non seulement cette catégorie regroupe deux formes
d’entreprises diamétralement opposées, mais les similitudes de structure de coûts avec
d’autres secteurs semblent paradoxales : les services de développement de logiciel se
comportent comme les firmes de matériel micro et non comme celles de progiciels,
tandis que les services de traitement se comportent plus comme des firmes de progiciel
que comme des firmes de matériel.
La structure de dépenses des firmes mixtes rapproche certaines de l’un des modèles
dominants ci-dessus. Par exemple, MAI se rattache normalement au modèle de la
micro-informatique, Datapoint à celui des constructeurs classiques et Ask Computers à
celui du progiciel.
Conclusions
L’examen des chiffres, malgré les réserves sur leur fiabilité et la représentativité
partielle de l’échantillon, nous a permis de rattacher la plupart des 110 firmes à un petit
nombre de modèles d’entreprise. Mais ces catégories ne sont pas exactement parallèles
à la segmentation conventionnelle du marché.
A chaque segment de marché est bien associée une certaine population d’entreprises
qui s’y sont spécialisées. L’ensemble de ces spécialistes constitue d’ailleurs la majorité
des entreprises d’informatique. Mais il existe également un groupe de généralistes, dont
chacun est présent dans presque tous les segments en concurrence avec les spécialistes,
et qui bien que moins nombreux réalisent plus de la moitié du chiffre d’affaires de
l’industrie. En dehors des spécialistes et des généralistes, il existe relativement peu de
firmes dont l’activité principale se partage entre deux ou trois segments. Dans la plupart
des cas il s’agit de firmes dans une situation transitoire, par exemple des entreprises de
systèmes « clés en mains » qui restreignent leur offre au progiciel (comme
Computervision ou Ask), ou à l’inverse des entreprises de services qui complètent leur
offre par des matériels spécialisés. En tout état de cause, ces entreprises mixtes ne
tiennent qu’une place marginale dans les segments de marché où elles sont présentes.
La plupart des segments sont donc servis par des entreprises appartenant à des
groupes différents, et certains groupes sont caractérisés par leur présence sur plusieurs
segments. Autrement dit, la définition classique d’un secteur d’industrie comme
« l’ensemble des firmes produisant un certain produit » ne nous permet pas de répartir
les firmes en groupes homogènes et raisonnablement disjoints.
La principale distinction est donc entre généralistes et spécialistes, ceux-ci se
distinguant à leur tour selon leur activité. En analysant de plus près la structure de
dépenses de chaque entreprise, nous avons isolé parmi ces spécialistes deux
personnalités très typées : les constructeurs de matériels microinformatiques et de
périphériques associés, avec des dépenses commerciales et de R&D réduites au
minimum, et à l’opposé les producteurs de progiciel, avec des dépenses de R&D
importantes et des frais commerciaux et généraux hypertrophiés. Les entreprises de
services forment une population hétérogène, où certaines ont une structure de dépenses
voisine de celle des matériels microinformatiques et d’autres une structure voisine de
celle des progiciels.
Ce critère définit trois types de spécialistes : le progiciel à un extrême (avec les
firmes de service spécialisées dans le traitement), le matériel micro-informatique (avec
lxxvii
les services d’assistance et de développement) à l’autre extrême, et les entreprises des
autres catégories avec des profils plus équilibrés qui ne diffèrent pas radicalement du
profil des généralistes. Les spécialistes des grands ou des moyens systèmes, comme
ceux des stations de travail et Apple, se rangent dans cette catégorie des entreprises plus
conventionnelles.
Notons enfin que les spécialistes des grands systèmes et des moyens systèmes, ainsi
que ceux de la maintenance, sont peu nombreux et ne tiennent qu’une place modeste sur
les segments de marché correspondants.
Ces conclusions seraient globalement inchangées si nous considérions l’ensemble de
l’industrie mondiale et non un échantillon des plus grandes firmes principalement nord-
américaines. La plus grande différence serait l’apparition parmi les grands acteurs de
firmes non spécialisées en informatique comme Fujitsu, NEC, Hitachi, Siemens, Canon,
etc. Il s’agit d’un phénomène typiquement japonais et un peu européen, puisque aux
USA les groupes non spécialisés ne jouent plus un rôle de premier plan en informatique
depuis leurs tentatives des années 60. Par ailleurs, la prise en compte des petits acteurs
accentuerait encore le contraste entre des secteurs concentrés comme les matériels
conventionnels, qui comporte peu d’acteurs en dehors des grands, et des secteurs
dispersés comme le matériel micro-informatique, le progiciel ou les services, où les
petites firmes sont légion.
[1]
A la date de rédaction du présent chapitre, cet ensemble de données enrichies n’est disponible
que pour l’année 1992. C’est pourquoi l’étude qui suit repose sur les données relatives à cette année, bien
que le classement Datamation 93 ait été publié en Juin 1994. Nous mentionnerons les différences
significatives entre 1993 et 1992, qui ne remettent pas en question la typologie qui suit.
[2]
McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994).
[3]
Kotler, Principles of Marketing
[4]
Porter, Competitive Strategy
lxxviii
Chapitre 5
Structure et performances
A partir de ce constat, tel qu’il s’exprime dans les résultats publiés par les
entreprises, l’objet du présent chapitre est de déceler les corrélations qui peuvent
apparaître entre les types d’entreprise et les performances, que nous caractériserons par
deux indicateurs : le taux de croissance du CA et le taux de profit net. Les sources
utilisées sont les statistiques publiées par le Groupe McKinsey dans la série de ses
rapports sur l’industrie informatique, dont les éditions récentes couvrent les années
1985 à 1993 . Nous en avons éliminé les firmes dont l’activité informatique représente
24
une trop faible part du total pour que le taux de profit soit représentatif de cette activité.
Dans les analyses qui suivent, nous utilisons la classification des entreprises selon
la nature de leur production que nous avons présentée au chapitre précédent. Cette
analyse diffère de celles qui sont régulièrement publiées dans la presse, et qui
s’attachent à l’évolution des segments de marché, c’est à dire des différents produits et
services qui composent l’offre informatique indépendamment de leur source. Pour les
entreprises qui sont spécialisées dans chacun de ces segments, leur taux de croissance
reflète pour l’essentiel l’évolution de la demande du marché pour les produits du
segment, et au niveau individuel l’adéquation des produits de chaque entreprise à cette
demande. La croissance est donc une caractéristique plus liée au marché qu’au type
d’entreprise, sauf s’il est possible de mettre en évidence des cas où une entreprise
évolue de façon différente des autres entreprises du même secteur, et où cette différence
de comportement correspond à une différence de personnalité.
Les taux de profit, en intégrant les coûts de production et donc les caractéristiques
économiques de chaque entreprise, peuvent en revanche fournir des indications sur le
24 McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994)
lxxix
mode de fonctionnement concurrentiel des différents secteurs, comme nous le verrons
au chapitre suivant. Enfin, nous avons vu dans le chapitre précédent que chaque
segment est servi par des entreprises de nature différente, et qu’à l’inverse il existe des
entreprises qui opèrent sur plusieurs segments. Il est donc intéressant de comparer dans
chaque segment de marché le comportement des spécialistes à celui des généralistes et
des firmes mixtes.
Cet indicateur est néanmoins très imparfait. D’une part, il intègre l’effet des
fusions et acquisitions, des séparations d’entreprises en unités distinctes, et plus
généralement de toutes les autres variations possibles du périmètre des entreprises. Par
ailleurs, le taux de croissance n’est pas nécessairement un bon indice de la santé de la
firme. Une entreprise peut à la fois croître vite et perdre de l’argent, donc se condamner
à régresser voire à disparaître ; à l’inverse, une réduction drastique du périmètre
d’activité, et donc du chiffre d’affaires, peut être une bonne façon de restaurer la
profitabilité. Enfin, comme nous le verrons par la suite, il existe des secteurs où la part
de marché n’est pas un avantage en soi, et donc où la croissance n’est pas
nécessairement l’objectif prioritaire. Pour toutes ces raisons, nous privilégierons par la
suite l’étude de la profitabilité par rapport à celle de la croissance.
Les taux de croissance des firmes de notre échantillon, pour les années 1986 à
1993, figurent en annexe dans le tableau A-XXV.
La constat le plus évident est que les généralistes et la plupart des firmes mixtes
connaissent une régression depuis 1990, et en tous cas croissent moins vite que les
lxxx
firmes spécialisées dont elles réunissent les productions. Les chiffres semblent indiquer
que le simple fait d’offrir une gamme étendue de produits et des services diversifiés
mais étroitement coordonnés est devenu un handicap par rapport à une stratégie de
spécialisation sur tel ou tel de ces produits ou services. L’exception que constitue
Hewlett-Packard confirme a contrario cette thèse : cette société s’est constamment
distinguée des autres grands généralistes traditionnels en fonctionnant comme un
conglomérat de divisions spécialisées indépendantes plutôt qu’en s’efforçant d’offrir
une gamme intégrée. En tout état de cause, la place des généralistes dans l’industrie
informatique est en régression, comme d’ailleurs celle des autres firmes mixtes.
L’informatique devient progressivement dominée par les firmes spécialisées.
Profitabilités comparées
Les analyses qui suivent portent sur le profit net après impôt des entreprises.
L’avantage essentiel de cet indicateur est d’être facilement disponible au niveau global
de chaque entreprise. A l’inverse, il est sans signification pour notre étude dans les cas
où l’activité informatique n’est qu’une partie non individualisée de l’ensemble des
productions de l’entreprise, comme c’est le cas par exemple des grands groupes
japonais ou de nombreuses sociétés de service. Nous avons donc éliminé les firmes qui
ne sont pas spécialisées en informatique et celles dont la profitabilité n’est pas publiée.
Le taux de profit net après impôt n’est qu’un des indicateurs possibles de
profitabilité. De nombreux analystes lui préfèrent le taux de rentabilité du capital investi
(ROIC) ou la rentabilité des actifs (return on assets), dont le sens économique est plus
clair . Malheureusement, ces indicateurs sont beaucoup moins facilement disponibles
25
pour un nombre suffisant d’entreprises que le profit après impôts. De plus, c’est à cette
dernière notion de profitabilité, c’est à dire le bénéfice par rapport au chiffre d’affaires,
que s’intéressent en général la plupart des commentateurs non économistes.
25 Comme nous le rappellerons au Chapitre 6, la théorie économique montre que sous certaines
conditions dites de concurrence « pure et parfaite », le marché tend vers un état d’équilibre où, dans
toutes les entreprises, le taux de rentabilité des capitaux est égal au taux d’intérêt du marché.
lxxxi
Analyse par catégorie
Pour chaque catégorie, les graphiques suivants montrent les taux de profit
minimum et maximum atteints chaque année par les firmes de l’échantillon, ainsi que la
médiane de la catégorie (le niveau tel que le nombre de firmes ayant un profit supérieur
est égal à celui des firmes ayant un profit inférieur) et la moyenne de la catégorie (total
des profits nets divisé par le total des chiffres d’affaires). Le détail des chiffres est
donné en annexe (tableaux A-XXVI à A-XXXV).
Ces graphiques et ces chiffres doivent être interprétés avec précaution. Certaines
catégories comme les grands et les moyens systèmes, les stations ou les périphériques
de communication ne sont représentés que par très peu de firmes. Les valeurs
maximales et minimales peuvent être aberrantes par rapport aux autres valeurs, et
donner une fausse idée de la distribution des profitabilités autour de la médiane. Un
écart important entre la moyenne et la médiane peut indiquer un avantage ou un
désavantage de taille potentiel, mais peut aussi être dû à des résultats aberrants pour une
firme importante. C’est pourquoi les commentaires doivent se référer aux tableaux des
valeurs détaillées données en annexe.
Les spécialistes des grands systèmes (tableau A-XXVII) sont en trop faible
nombre (3) pour être décrits autrement qu’en termes d’histoires individuelles. Dans les
années fastes (1985 à 1988), leurs résultats sont parmi les meilleurs de toute l’industrie
informatique. Ils entament une chute spectaculaire à partir de 1991. En regardant de
près, on voit que Convex et Amdahl chutent ensemble de plus de 8% à zéro ou moins en
1991, tandis que Cray qui était déjà tombé en 1989 de plus de 20% aux environs de
13% les rejoint autour de zéro en 1992. Amdahl continue sa chute en 1993, rejoint par
Convex, tandis que Cray remonte à près de 7%.
30%
Moyenne
20% Mediane
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
lxxxii
fond depuis 1989, et ne redresse sa profitabilité en 1993 qu’en perdant près de 40% de
son chiffre d’affaires. Là encore, les firmes sont trop peu nombreuses (5) pour qu’on
puisse tirer quelque enseignement statistique. L’allure générale des plages est voisine de
celle des généralistes, avec des dispersions encore plus grandes en 1991 et 1992.
30% Moyenne
Mediane
20%
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
Pour les spécialistes de matériel de type traditionnel, l’année 1991 marque une
rupture. Dans les années 1985 à 1990, le profit médian pour toutes ces catégories est
voisin de 10%. On constate de très bonnes réussites dans des niches particulières (Cray,
Pyramid), et à l’exception de Norsk Data, seules les firmes en phase de démarrage sont
dans le rouge. A partir de 1991, les profits commencent à baisser. Les maxima
deviennent modestes à l’exception de Stratus, et nombreuses sont les firmes déficitaires.
Profitabilité - micros
30% Moyenne
Médiane
20%
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
lxxxiii
Commodore. En 1993, si on excepte le désastre de Commodore, aucune autre firme ne
descend sous -1.4%, ce qui correspond à une plage analogue à celle de 1991. De 1986 à
1992, le profit moyen varie dans une bande étroite entre 3 et 6 %, mais tend à baisser
depuis 1991. Le maximum, voisin de 13% (Compaq) en 1990, est en baisse régulière
(8.5% pour AST en 91, 7.3% pour Apple en 92, 6.4% pour Compaq en 1993).
Profitabilité - stations
30% Moyenne
Mediane
20%
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
Les spécialistes des stations (tableau A-XXX) sont eux aussi en très faible nombre
(3) et se situent dans des plages toujours étroites, avec une tendance générale à la baisse
et des niveaux moyens comparables à ceux des PC. Compte tenu de la taille de
l’échantillon, cette catégorie de spécialistes ne semble pas se comporter différemment
de celle des PC.
Profitabilité - périphériques
30% Moyenne
Mediane
20%
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
lxxxiv
rouge, mais les positions individuelles des firmes varient considérablement d’année en
année. On ne perçoit de tendance clairement défavorable qu’en 1993, où la majorité des
firmes est en pertes, et où presque toutes voient leur profit baisser, sauf EMC qui
dépasse allègrement 16%, le deuxième n’atteignant que 8%.
Profitabilité - communications
30%
20%
10%
0%
-10%
Moyenne
-20% Mediane
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
Profitabilité - progiciels
30%
20%
10%
0%
-10%
-20%
Moyenne
-30% Mediane
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
lxxxv
Ultimate depuis 1991, Informix en 1990, Borland en 1989, 1991 et 1992. Même Novell
qui était en tête en 1991 et 1992 à plus de 25% devant Microsoft passe dans le rouge en
1993. Notons néanmoins que si les minima sont fortement négatifs, le nombre de firmes
déficitaires est chaque année faible : une sur 13 en 1989, 3 en 1990, 1991 et 1992. Les
moyennes se situent toujours au-dessus de 10% sauf en 1991.
Profitabilité - services
30% Moyenne
Mediane
20%
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
Comme pour les PC, le profit moyen pour l’ensemble des services est
remarquablement stable entre 4 et 6%, avec une très légère tendance à la baisse depuis
1992. La dispersion est toujours relativement faible malgré le grand nombre de firmes,
et aussi malgré l’hétérogénéité du secteur. En 1990 et en 1992, une seule firme était
dans le rouge, et toutes les autres se situaient au-dessus de 2%. En 1991, les trois
dernières firmes se situaient à -9%, -3% et 0%, et les 18 autres au-dessus de 2%. Ce
n’est qu’en 1993 que la situation commence à se dégrader un peu plus.
Si on distingue les sous-secteurs, les profits moyens sont tout aussi stables : entre
9% et 11% pour le traitement, entre 4% et 5% pour le développement de 1985 à 91,
avec une chute en 1992.
Les maxima récents se situent entre 13 et 15% de façon régulière, et pour les
années antérieures Volmac apparaît comme un phénomène exceptionnel en atteignant
21% avant 88 et 19% en 1989, alors que son suivant immédiat est toujours dans la plage
des 13 à 15%. Ces performances élevées sont toujours le fait de sociétés de traitement
applicatif nord-américaines telles que Shared Medical Systems, First Data, ADP, Policy
Management, les offreurs de services plus classiques se contentant de profits presque
toujours inférieurs à 8%. Depuis 1989, le secteur connaît chaque année une ou deux
sociétés en pertes (parmi celles de l’échantillon).
lxxxvi
Profitabilité - généralistes
30%
20%
10%
0%
-10%
Moyenne
-20% Mediane
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
La situation des généralistes (tableau A-XXVI) est bonne jusqu’en 1987 sauf pour
Wang et Data General, tandis que Bull est tout juste positif. On constate à partir de 1989
une tendance générale à la baisse : Digital Equipment et Bull sont dans le rouge à partir
de 1990, IBM à partir de 1991, et Unisys de 1989 à 1991. La seule entreprise qui obtient
un résultat à peu près stable est Hewlett-Packard qui passe néanmoins de 7% en 1985
(troisième rang) à 5% en 1992 et 6% en 1993, ce qui est pour ces deux années la
meilleure performance de la catégorie.
30%
Moyenne
20% Mediane
10%
0%
-10%
-20%
-30%
85 86 87 88 89 90 91 92 93
Données McKinsey - Analyse GD
Depuis 1989, les firmes mixtes (tableau A-XXVII) ont des profitabilités
moyennes presque toujours négatives, et des maxima modestes inférieurs à 9% qui se
réduisent à 4.3% en 1992. L’année 1993 semble aberrante avec MAI qui, après des
pertes considérables de 1989 à 1992, remonte soudain au chiffre exceptionnellement
élevé de 24% (mais en ayant perdu en 1993 près de 60% de son chiffre d’affaires 1992).
Mis à part ce point aberrant, la majorité des firmes est dans le rouge en 1991 et 1992, et
de façon souvent très lourde. La tendance générale est défavorable, et il semble clair que
lxxxvii
les résultats des firmes mixtes sont toujours moins bons que ceux des firmes
spécialisées dans les prestations individuelles qui composent leur portefeuille.
Une première conclusion générale est que pour presque toutes les combinaisons
de catégorie et d’année, les plages de variation du profit net sont assez larges voire très
larges. Les moyennes sont de ce fait peu représentatives, et les caractéristiques
individuelles de chaque firme comptent au moins autant que le secteur ou la catégorie à
laquelle elle appartient. Il faut de plus tenir compte du nombre de firmes représentées,
qui est quelquefois trop faible pour qu’on puisse en tirer des conclusions significatives.
20%
10%
0%
-10%
-20% Moyenne
Mediane
-30%
Notons que cette situation est très différente de celle de 1987 que nous avons
choisie comme représentative de l’ordre qui prévalait à la fin des années 80. Si les
dispersions étaient également élevées, les profits moyens par catégorie étaient beaucoup
plus homogènes et généralement supérieurs. La baisse des profits moyens a été
lxxxviii
relativement faible dans les stations, les systèmes moyens et les services, forte pour les
PC, les généralistes et les périphériques et dramatique pour les firmes mixtes et les
grands systèmes.
20%
10%
0%
-10%
-20%
Moyenne
Mediane
-30%
On peut s’interroger sur les raisons de la grande variabilité des résultats entre
firmes d’une même spécialisation. Un premier cas est celui des entreprises débutantes
(startups), dont les premières années sont des années d’investissements assortis de
pertes d’exploitation souvent lourdes, comme pour Convex, Sequent ou Teradata en
1985, ou Exabyte et Sybase en 1987. Une grande dispersion des résultats peut aussi
révéler l’hétérogénéité d’un secteur qui regroupe des activités présentant des
caractéristiques différentes. Dans le domaine des périphériques, les périphériques de
communication ont un comportement différent des autres mais la distinction entre les
périphériques micro et les autres ne montre pas de différences frappantes. Pour les
services en revanche, si l’évolution générale des sous-secteurs est parallèle, les services
de développement occupent toujours clairement la partie basse de la plage des profits, et
les services de traitement la partie haute.
Dans les segments homogènes et après élimination des startups, la dispersion des
résultats doit être rapprochée des modalités de gestion des firmes. Les directions des
entreprises consacrent en permanence des efforts considérables à rechercher un résultat
satisfaisant. Il faut donc admettre que, sauf exception, des résultats négatifs ne sont pas
le signe de l’incapacité ou de la négligence du management, mais d’une impossibilité
profonde de faire mieux dans les limites de l’exercice comptable considéré, et ceci après
avoir exploité toutes les opportunités de redressement réellement disponibles.
Dans les chapitres ultérieurs, nous serons amenés à analyser les relations
temporelles entre la formation des dépenses et la formation des revenus dans
l’entreprise. Contentons-nous ici de rappeler que dans la réalité industrielle, l’entreprise
décide des dépenses, mais c’est le marché qui décide des recettes. Plus précisément,
l’entreprise commence par engager des dépenses dans l’espoir d’un revenu futur, et ce
lxxxix
n’est que plus tard qu’elle constate les revenus correspondants. Les produits de chaque
exercice comptable servent en partie à payer la production de ces produits eux-mêmes,
mais aussi à investir pour préparer les exercices suivants. Si le chiffre d’affaires d’un
exercice se révèle inférieur aux attentes, il est généralement impossible de réduire les
dépenses dans les mêmes proportions sans réduire les investissements de l’exercice et
compromettre ainsi l’avenir même de l’entreprise.
A l’inverse, quand par chance le revenu se révèle supérieur aux prévisions, ceci
n’entraînera que relativement peu de dépenses supplémentaires pour les firmes à cycle
long qui réaliseront ainsi des profits élevés. Les entreprises à cycle court ne pourront
réaliser ce revenu qu’en consentant des dépenses supplémentaires qui ramèneront le
profit au voisinage du niveau prévu.
En résumé, une grande dispersion des profits pour une période donnée
caractériserait des secteurs où le cycle dépenses-recettes est long et où le coût marginal
est une faible part du coût moyen.
xc
barre du profit zéro, tandis que dans un secteur à cycle long le point minimum pourra
stagner à des valeurs fortement négatives.
Facteurs de profitabilité
Sur le graphique suivant figurent les firmes qui offrent du matériel, des services
ou les deux. L’année concernée est 1992. Nous avons éliminé les cas extrêmes qui
correspondent à des situations anormalement déficitaires, par exemple les startups.
Net% 30%
20%
10%
0%
-10%
-20%
-30%
0% 20% 40% 60% 80% 100%
Part Services
xci
verrons plus tard qu’il n’y a aucune raison logique) de penser que développer les
services permet aux constructeurs d’améliorer leurs résultats. L’observation des chiffres
réels peut tout au plus inciter à penser que viser une part de services supérieure à 20%
semble une façon de limiter les risques de pertes, mais tout en plafonnant également les
gains possibles.
La dernière question que nous aborderons à partir des statistiques est celle de la
relation entre la profitabilité et le taux de croissance des firmes. Dans leurs analyses, les
chercheurs de McKinsey ont conclu que les résultats financiers ne sont pas liés à la
croissance du revenu, et de fait le coefficient de corrélation calculé sur l’ensemble des
firmes est faible.
Mais cette conclusion reste-t-elle vraie pour chacune des catégories d’entreprises
prises isolément, dont nous avons des raisons de penser que les dynamiques sont
différentes ? Le tableau ci-dessous donne les coefficients de corrélation catégorie par
catégorie, en distinguant les périodes 1986-1988 d’une part, 1989-1993 d’autre part.
Cette séparation renvoie au fait que les années 1988-1989 semblent marquer une rupture
dans le comportement de plusieurs secteurs. Lorsque le nombre d’observations pour une
catégorie et une période est inférieure à une quinzaine, la valeur du coefficient de
corrélation a été considérée comme non significative (ns). Nous avons utilisé la
décomposition en sous-catégories selon le poids des coûts de production.
Corrélation profit-croissance
86-88 89-93 86-93
xcii
services traitement -0.72 0.43 0.08
mixed 0.62 0.56 0.57
software 0.50 0.56 0.52
Selon ce modèle, les secteurs où les profits sont dispersés devraient aussi
présenter la plus grande corrélation entre profit et croissance, sans toutefois que cette
corrélation atteigne une valeur très élevée. Cette hypothèse se vérifie bien dans le cas
des généralistes et des systèmes moyens pour les corrélations élevées, des stations et des
services (hors facilities management) pour les corrélations nulles, des grands systèmes
dans le cas intermédiaire. Les résultats sont moins clairs pour les PC où la corrélation
est moyenne et la dispersion faible, et les progiciels où la corrélation est également
moyenne, mais la dispersion grande.
Conclusions
L’analyse des performances des entreprises de notre échantillon ne valide que très
imparfaitement les idées reçues. On y lit bien les difficultés et la régression des
xciii
généralistes ainsi que de la majorité des constructeurs traditionnels, en particulier depuis
la rupture de 1988, et corrélativement la montée en puissance des spécialistes. D’une
industrie dominée par une poignée de généralistes, l’informatique devient
progressivement l’affaire d’un grand nombre de spécialistes offrant chacun un élément
du système. Cette transition est actuellement au voisinage de son point de basculement,
puisque les généralistes réalisent encore environ la moitié du chiffre d’affaires total de
l’industrie.
Il ne semble pas que cette évolution laisse beaucoup de place à des firmes mixtes,
qui fonderaient leur stratégie sur l’association de prestations sélectionnées trop peu
nombreuses pour en faire des généralistes. Un grand nombre d’entreprises offrent des
services ou du logiciel à titre annexe en support de leurs produits principaux, mais les
performances réalisées par les quelques rares firmes alliant à parts voisines matériel et
services, ou progiciel et services, ne sont pas de nature à leur susciter beaucoup
d’émules. En particulier, contrairement à une idée répandue, nous n’avons pas constaté
de lien entre une part importante de services, au-delà des 10 à 15% annexes aux
produits, et une amélioration de la profitabilité.
Au-delà des différences évidentes dans les prestations, nous avons pu déceler des
comportements différents selon les secteurs, que la structure des dépenses contribue à
expliquer. En particulier, il nous est apparu que les modalités de la relation temporelle
entre les dépenses nécessaires à la mise sur le marché d’un produit et les recettes
provenant de ce produit ont une influence profonde sur le fonctionnement de la firme.
Cette relation est liée au cycle de production, et donc à la nature de chaque produit ainsi
qu’à la stratégie mise en œuvre par chaque firme. Les différences entre productions à
cycles courts et productions à cycles longs semblent assez bien rendre compte de la
dispersion des profits et de la corrélation (ou l’absence de corrélation) entre profit et
taux de croissance.
Mais, quelles que soient les caractéristiques globales qu’il est possible d’attacher à
chaque secteur pris en particulier, cette analyse met en lumière la grande dispersion des
résultats à l’intérieur de chaque catégorie, et donc l’importance des stratégies
individuelles, de leur adaptation au secteur et de la qualité de leur exécution.
xciv
Deuxième partie
Les matériels et les mécanismes économiques
A ... E ... I ... Cela est vrai ... Vive la science !
Molière
Dans la suite de cet ouvrage, nous allons rechercher des explications rationnelles
aux phénomènes que nous observons dans l’industrie informatique. Résumons tout
d’abord les grandes constatations structurelles qui se dégagent du survol historique et
statistique qui précède.
L’informatique à ses débuts est un produit unique, dans la mesure où toutes les
firmes offrent des paniers de prestations complets équivalents. De plus, assez
rapidement, les firmes d’informatique se trouvent toutes spécialisées dans ce produit.
L’informatique se constitue ainsi comme un secteur bien délimité, puisque formé de
firmes spécialisées, et homogène puisque composé de firmes toutes conformes au
modèle intégré. Après que les principales firmes aient absorbé l’activité de fabrication
des composants dans les années 60, le secteur acquiert son autonomie totale par rapport
aux industries électriques et électronique, tout en restant homogène.
xcv
structuration du marché selon les produits et services offerts. Les firmes spécialisées
sont les plus nombreuses, mais la plupart des segments de marché sont dominés par une
poignée de firmes qui offrent chacune la quasi-totalité des formes de produits et de
prestations. En dehors de ces généralistes, il existe peu de firmes offrant une
combinaison particulière de prestations, et les combinaisons représentées sont elles-
mêmes en petit nombre. Ces classes d’entreprises définies par leurs prestations semblent
se rattacher à leur tour à quelques grands modèles qui se distinguent par la structure de
leur compte d’exploitation et leur comportement en réaction aux aléas du marché.
Les moteurs de cette évolution ont été dans tous les cas les décisions des firmes, et
celles de l’acteur dominant qu’a été IBM ont été particulièrement déterminantes. Ces
décisions ont eu constamment pour objectif d’exploiter le potentiel de progrès
technologique au mieux des intérêts propres de la firme. Les initiatives des
organisations extérieures à l’industrie, en particulier des pouvoirs publics, n’ont eu en
fin de compte que peu d’effet. En revanche, les réactions des marchés ont favorisé les
offres les plus en harmonie avec la demande, et sanctionné voire éliminé les entreprises
dont le comportement était trop en désaccord avec les attentes des clients.
Tel est, brièvement résumé, l’ensemble de faits dont nous nous proposons de
rechercher les causes. Comment expliquer cette tendance à la désintégration ? Pourquoi
seules certaines combinaisons de prestations semblent-elles viables ? Peut-on justifier
dans chaque secteur les tailles relatives et les parts de marché des acteurs présents ?
Comment expliquer la disparition de la suprématie d’IBM et les difficultés actuelles des
généralistes ? Quelle relation logique lie les types d’entreprise aux choix de prestations
et les performances aux types d’entreprise ? Comment décrire les interactions entre
l’informatique et les autres industries ?
xcvi
nous essaierons de faire apparaître les liens qui existent entre la nature des productions
d’une part, l’organisation et la culture de l’entreprise d’autre part.
xcvii
Chapitre 6
Les mécanismes économiques
Cette discipline n’existe en tant que telle que depuis les années 70, bien que son
objet ait été abordé antérieurement, par exemple par Marshall ou Chamberlin . Nous en 26
retiendrons en particulier une thèse fondamentale qui rejoint l’un des postulats
empiriques du présent ouvrage : la structure industrielle résulte de l’action de la
concurrence et des forces économiques.
26 Pour le lecteur qui souhaiterait une vue plus complète de l’économie industrielle, le livre de
Rainelli “Economie Industrielle” (Dalloz, 1993) présente une bonne synthèse récente et contient de
nombreuses références.
xcviii
ainsi qu’à une analyse plus précise des phénomènes de concurrence inspirée des thèses
de Porter.
Les marchés étant par hypothèse limités, les firmes productrices sont en
concurrence entre elles. Bien que la concurrence sur les marchés des facteurs de
production soit quelquefois importante, la concurrence la plus déterminante a lieu sur le
marché où l’entreprise offre ses produits. Ce marché permet à la demande de
sanctionner le comportement des offreurs en agissant directement sur les performances
économiques et la santé financière des entreprises. Celles-ci essaient d’anticiper cette
sanction en s’organisant pour offrir des produits susceptibles de satisfaire le marché. A
travers la sélection immédiate des produits, le marché sélectionne ainsi les organisations
et les formes d’entreprise les mieux adaptées à la satisfaction permanente de la
demande. C’est cette sélection indirecte des firmes qui détermine la structure de
l’industrie.
Pour atteindre leurs objectifs, les firmes doivent prendre une multitude de
décisions d'importance variable, et qui s'inscrivent dans des cycles temporels différents.
En particulier, la nature et le prix des produits offerts sur le marché à un instant donné
résultent en grande partie de décisions prises longtemps auparavant, sur la base d’une
projection subjective de la demande, interne à chaque firme productrice et fortement
influencée par les caractéristiques de la firme, et qui peut se révéler notablement
différente de la demande réelle. Au moment où l’offre et la demande se rencontrent sur
le marché, l’offre de produits a été déterminée par les firmes productrices sur des bases
internes et prévisionnelles, et la demande qui s’exprime effectivement à cet instant peut
s’écarter considérablement des hypothèses qui ont présidé à la détermination de l’offre.
Si par exemple une firme met sur le marché en 1994 un produit dont la conception
et le développement ont duré un an, avec l’espoir que les ventes de ce produit soient
27 Dans cet ouvrage, nous utiliserons fréquemment le terme «produit» pour désigner aussi bien des
services que des produits. La distinction entre ces deux notions sera examinée dans les chapitres suivants,
principalement le chapitre 11 «Le labyrinthe du logiciel et des services».
xcix
importantes au bout de deux ans, on peut au mieux espérer que la définition du produit
intègre l’idée que la firme se faisait en 1992 de la demande à ce moment et de la
demande en 1996. En tout état de cause, la demande réelle en 1994 n’a contribué en rien
dans la définition du produit. Si Sperry Rand et IBM ont créé les ordinateurs en 1951 et
Apple les micros en 1977, ce n’est évidemment pas parce que le marché du moment le
demandait.
L'offre de produits et de services résulte donc des décisions que prennent les
acteurs industriels en fonction de leurs possibilités, de leurs objectifs, de l'image qu'ils
ont de leur environnement concurrentiel et de l'idée qu'ils se font du marché. En
particulier, la fixation des niveaux de prix, qui joue un rôle déterminant dans la
concurrence entre firmes et technologies rivales, procède de la stratégie concurrentielle
de chaque firme. C’est la raison pour laquelle, contrairement à la vision habituelle, nous
pensons réaliste de considérer que, au moment où se passent les transactions sur le
marché, il n'existe pas de relation causale directe allant de la demande vers l'offre. En
d’autres termes, dans le court terme des échanges, l’offre précède la demande.
Pour chacun des offreurs, la demande qui s'est réellement concrétisée pour ses
produits, en volume et en prix, détermine son revenu, son équilibre financier et donc sa
viabilité et sa survie. Les offreurs dont les produits rencontrent durablement une forte
demande prospéreront et croîtront, tandis que ceux qui se trompent trop souvent devront
jeter l'éponge et disparaître.
c
La sélection naturelle opère ainsi à trois niveaux : celui de la sélection des produits par
le marché, celui de la sélection des organisations et des comportements à l’intérieur de
chaque firme, et enfin celui de la sélection des firmes et des modèles d’entreprise.
L'industrie évolue ainsi selon un processus en quelque sorte darwinien dans lequel le
marché joue le rôle de l'environnement et la personnalité profonde des firmes celui du
matériel génétique, chaque firme déterminant son comportement d'offreur selon sa
personnalité.
Un schéma évolutionniste
Secteur
Secteur
Le Marché
développements inaugurés par Adam Smith au XVIIe siècle, gravite autour du modèle de
28 Les lecteurs qui souhaiteraient rafraîchir leurs connaissances en économie sont invités à se
reporter à un ouvrage didactique classique, par exemple l’excellent « Economics » de Samuelson
(McGraw Hill), qui a fait l’objet de nombreuses éditions.
La plupart des manuels reflètent l’état des principaux courants de la pensée économique aux
alentours des années 50, et contiennent de nombreuses références bibliographiques. Dans le présent
ouvrage, nous ne mentionnerons les références que pour des travaux plus récents ou peu connus.
ci
référence de l’économie néoclassique. Ce modèle suppose un très grand nombre
d’agents, chacun très petit par rapport au marché et tous conformes à un modèle unique,
l’« homo economicus », qui est lui-même un modèle simplifié du comportement humain
individuel.
cii
Au total, le secteur va tendre vers une situation d'équilibre « à long terme » où :
–les prix et les quantités échangées correspondent au point d'équilibre entre les
intérêts des offreurs et ceux des acheteurs,
–chacun des offreurs opère à une échelle au moins égale à l'échelle optimale de
production,
–la rentabilité des capitaux investis est égale au taux d'intérêt du marché.
Il faut noter que l’existence d’un état d’équilibre n’implique pas que l’économie
réelle fonctionne dans cet état. Dans la réalité, il est possible que l’équilibre soit déplacé
par l’évolution des technologies avant même d’être atteint. De fait, il est extrêmement
rare de constater des équilibres stables, surtout dans un domaine aussi mouvant que
l'informatique. D'une façon générale, et même si la théorie économique tend à
privilégier l'étude des états d'équilibre, plus faciles à traiter par des outils
mathématiques, nous en retiendrons plutôt les conclusions relatives aux mécanismes et
aux tendances d'évolution.
Or ces derniers cas sont moins rares que les économistes classiques ne veulent
l’admettre. Si par exemple le coût variable est le même pour chaque unité produite, le
coût moyen de chaque unité est égal à la somme de ce coût variable et du quotient du
coût fixe par la quantité produite, et donc d'autant plus faible que la quantité est élevée.
Or, dans les activités de production industrielle, cette hypothèse est généralement vraie
pour un très large intervalle de volumes, voire acceptée comme valable quel que soit le
volume dans les décisions de management. Dans ce cas, le même raisonnement que ci-
dessus montre que le premier qui prend un avantage sur ses concurrents finira par les
éliminer tous. De plus, dès qu’un offreur atteint une part de marché suffisante, ses
actions peuvent avoir une influence sur le prix de marché, et il peut manipuler les prix
dans le cadre de sa stratégie concurrentielle.
ciii
où la taille du marché est un petit multiple de l'EOP, on se trouve dans une situation dite
d'oligopole où un petit nombre de firmes se disputeront le marché.
Le cas du monopole, où le bien n’est offert que par un seul producteur, a été très
tôt formalisé et traité. Contrairement aux offreurs sur les marchés concurrentiels, le
monopoleur a le pouvoir de fixer unilatéralement le prix du bien. On montre qu’il peut
maximiser son profit en limitant les quantités offertes et en vendant à un prix supérieur
à celui qui prévaudrait en situation concurrentielle. Il est protégé de l'entrée de
concurrents par le niveau des investissements que ceux-ci devraient consentir pour
mettre en place un appareil de production compétitif. Ceci lui permet le plus souvent de
réaliser de façon durable un profit supérieur à celui qui correspond au taux d'intérêt des
capitaux investis (les économistes parlent alors de « rente »).
La théorie classique décrit les agents producteurs comme étant en concurrence sur
des marchés pour la fourniture de biens. Le paradigme du marché autorise a priori tout
agent à intervenir à tout moment sur tous les marchés comme offreur aussi bien que
comme demandeur. On constate néanmoins que pour la plupart des biens certains
acteurs sont toujours offreurs et d’autres sont toujours demandeurs. A chaque bien (ou
marché) est donc associé un groupe relativement stable d’agents producteurs de ce bien,
qui forment l’« industrie » associée au marché. Dans la mesure ou l’ensemble des
demandeurs du bien n’est lui-même qu’une partie de l’ensemble des agents, on utilise
également le terme de « marché » pour désigner « l’ensemble des acheteurs réels ou
potentiels du produit ». A chaque produit correspond ainsi un marché et une industrie.
29 30
La théorie postule aussi que chaque décision de vente ou d'achat est indépendante
des autres décisions du même agent sur ce marché et sur les autres marchés. A chaque
bien correspond un marché et vice-versa, et les marchés sont totalement indépendants
29 Kotler, Principles of Marketing
30 Il s’agit là d’une autre acception du mot marché, qui dans le vocabulaire économique habituel
désigne le dispositif physique ou institutionnel qui permet les transactions entre vendeurs et acheteurs
civ
les uns des autres. Les phénomènes économiques peuvent alors être étudiés séparément
pour chaque bien ou marché. L’économie est vue comme une juxtaposition de marchés
disjoints correspondant chacun à un bien isolé. Les interactions entre ces marchés se
résument aux arbitrages que font d’une part les consommateurs en affectant leurs
ressources à l’acquisition de différents biens, d’autre part les producteurs en affectant
les facteurs de production.
Dans cette vision, deux producteurs distincts produisent soit des biens identiques
totalement substituables l’un à l’autre, soit des biens totalement différents et
indépendants l’un de l’autre. De plus, un producteur est implicitement associé à un
produit et un seul. S’il offre plusieurs produits, la théorie économique classique les
traite indépendamment en supposant implicitement que l’offreur se comporte sur chaque
marché de la même façon que s’il opérait exclusivement sur ce marché. La théorie
classique postule ainsi une structure industrielle faite de la juxtaposition de groupes de
firmes tels que toutes les firmes d’un groupe offrent un même produit, et que tous les
groupes, donc tous les produits, sont indépendants les uns des autres.
La notion de produit ou de bien est elle-même moins évidente qu’il n’y paraît :
par exemple, un service de transports entre Paris et Lyon n’est pas substituable à un
service de transports entre New York et Chicago. Ce n’est donc pas le même produit
bien que ce soit le même secteur d’industrie. Deux produits, même voisins, ne sont
jamais identiques, et à l’inverse deux produits très différents peuvent s’influencer
réciproquement, par exemple les progiciels et les unités de disques . De plus, des 31
produits différents sont souvent liés entre eux au stade de leur utilisation ou au stade de
leur production. Par exemple, la demande sur le marché des progiciels dépend du
nombre d’ordinateurs en service, et la demande en composants électroniques dépend de
la demande en ordinateurs. Ces interdépendances sont d’autant plus significatives qu’on
se propose d’étudier une industrie comme l’informatique, où coexistent un grand
nombre de types de produits liés entre eux par des relations complexes.
31 Cette influence est d’ailleurs multiforme : d’une façon générale, la consommation de progiciels
crée une demande de capacité de stockage sur disques, mais il existe des logiciels de compression de
données qui réduisent cette demande.
cv
La tentative la plus ambitieuse de formaliser un modèle général est due à
Chamberlin (The Theory of Monopolistic Competition, 1933). Dans ce modèle, on
considère que chaque producteur offre un bien dont il a le monopole, et que deux biens
offerts par deux producteurs différents ne sont ni totalement identiques ni totalement
différents, mais présentent un certain degré de substituabilité caractéristique de ce
couple de biens. Les cas de la pure concurrence et du monopole deviennent des cas
particuliers, le premier correspondant au cas où les produits de nombreux producteurs
sont totalement substituables, le second au cas où le produit d’un certain producteur n’a
aucun substitut. Dans le cas général, le comportement de chaque offreur ressemble plus
à celui d’un monopoliste qu’à celui du producteur infiniment petit de la théorie
classique, d’où le nom de « concurrence monopoliste » donné à ce modèle.
32 Les deux ouvrages de référence de Porter sont « Competitive Strategy » (1980) et « The
Competitive Advantage » (1985), tous deux publiés par The Free Press, New York. Le premier a été
publié en français sous le titre « Choix Stratégiques et Concurrence » (Economica, 1982) et le second
sous le titre « L'Avantage Concurrentiel » (InterEditions, 1986).
cvi
Nous devrons toutefois en adapter les concepts et les outils au propos du présent
ouvrage. Les ouvrages de Porter s’adressent aux responsables d'entreprise afin de les
aider à formuler des stratégies efficaces compte tenu de leurs activités et de leur
environnement particuliers. Dans cet esprit, ils cherchent à recenser de façon exhaustive
les facteurs susceptibles d'être pris en compte, même si leur analyse doit rester
incomplète ou imprécise. A l’inverse, Porter admet implicitement que ses lecteurs se
situent à l’intérieur d’une firme particulière appartenant à une structure industrielle
donnée et que chacun d’entre eux sait de façon pragmatique quelles sont les firmes dont
il doit tenir compte dans l’établissement de sa stratégie concurrentielle.
Nous pourrons simplifier le modèle proposé par Porter en ne retenant que les
éléments qui sont en relation directe avec la structure industrielle. Certains facteurs
peuvent se révéler importants pour la détermination de la stratégie d'une firme en
particulier, mais peuvent être considérés comme mineurs pour l'étude de la structure
globale ; nous pourrons donc sans dommage les évacuer de notre modèle. De même,
nous pourrons ignorer les facteurs qui ne concernent pas l’industrie informatique, ou qui
agissent de la même façon sur toutes les firmes.
Selon Porter, la concurrence dans une industrie donnée est gouvernée par l'action
de cinq forces fondamentales :
–la menace de nouveaux entrants,
–la rivalité entre les concurrents existants,
–la pression exercée par les produits de remplacement,
–le pouvoir de négociation des clients,
–le pouvoir de négociation des fournisseurs.
Forces concurrentielles
déterminent:
intensité de la concurrence
substituts
structure de l'industrie
profitabilité potentielle
stratégies possibles
cvii
Chacune de ces forces synthétise de nombreux facteurs se rattachant au produit ou
service concerné, au système de production, à la firme productrice ou au secteur
d'industrie. De l'interaction de ces cinq forces dépendent en particulier l'intensité de la
concurrence et le niveau de profitabilité potentiel du secteur, le nombre de concurrents
en présence et la répartition des parts de marché, les règles du jeu concurrentiel et
l'éventail de stratégies possibles.
Notion de secteur
Porter utilise le terme d’« industry » pour désigner « un groupe de firmes qui
fabriquent des produits étroitement substituables ». C'est en somme l'ensemble des
acteurs qui luttent entre eux pour un marché donné et que structure le jeu des forces de
la concurrence. Ce terme a été assez heureusement remplacé par celui de « secteur »
dans la traduction française, car ce qu’il désigne est beaucoup plus étroit que ce
qu’évoque habituellement le mot « industrie ». Dans cette acception, le présent ouvrage
adopte le terme de « secteur » en conservant au mot « industrie » son sens plus large et
plus flou. Cette notion de secteur est différente de la notion de marché ou de segment de
marché, qui se définit comme « l'ensemble des acheteurs réels et potentiels d'un
produit » (Kotler, Principles of Marketing, 1980).
Comme les économistes classiques, Porter reconnaît qu’il est difficile de fixer
exactement les bornes d'un secteur, comme d’ailleurs de séparer les candidats à l’entrée
des concurrents existants ou de distinguer les produits de remplacement des produits
courants. Mais la nature même de son propos l’autorise à éluder explicitement la
question. Le praticien auquel il s’adresse sait quels sont pour lui les produits et les
concurrents pertinents, et peu importe au fond le tracé exact des frontières du secteur
cviii
pourvu que tous les concurrents soient pris en compte d’une façon ou d’une autre, selon
l’importance de la menace qu’ils représentent.
Nous devrons donc adapter ce modèle pour identifier des critères objectifs et
généraux de structuration de l’industrie, et tenir compte des relations de covariance ou
d’antagonisme entre certains produits, et donc les secteurs correspondants, ainsi que du
fait que la plupart des firmes offrent plusieurs produits et opèrent de ce fait dans
plusieurs secteurs.
Par exemple, la plupart des firmes de progiciel sont présentes dans plusieurs
domaines d'application, et presque toutes les firmes de matériel offrent aussi des
services. Lorsque de nombreuses firmes sont présentes dans une même configuration de
secteurs élémentaires, on peut considérer que cette situation définit un secteur
composite, mais il est souvent utile de prendre en compte le fait que certains de ces
secteurs sont en réalité la juxtaposition de secteurs élémentaires pouvant soit obéir à des
logiques différentes, soit se situer à des phases différentes d'évolution sectorielle.
La bonne méthode consiste à faire porter l'étude d'abord sur les secteurs aussi
« élémentaires » que possible, correspondant à des produits incontestablement
substituables. Ce n'est que dans un deuxième temps, après avoir étudié des secteurs
« purs » au sens des corps purs en chimie, que nous pourrons tenir compte des
similitudes et des interrelations entre secteurs.
Dans une première approche, nous nous en tiendrons aux quatre grandes
catégories traditionnelles que sont les composants, les matériels, les logiciels et les
services, tout en cherchant s’il existe des différences dans l’action des forces
concurrentielles à l’intérieur de ces catégories.
Ceci suppose, entre autres hypothèses, que les offreurs puissent librement entrer et
sortir du marché sans encourir de dépenses particulières, et faire varier leur production
par quantités infinitésimales.
cix
le risque qui lui est associé. A l’inverse, en présence d’obstacles à la sortie, les offreurs
malchanceux ne quitteront pas le secteur tant que leur rentabilité restera suffisante pour
les dissuader de payer le prix de la sortie. Au total, la présence de barrières à l’entrée
tend à maintenir la profitabilité du secteur au-dessus de la moyenne et celle de barrières
à la sortie en dessous. Dans un cas comme dans l’autre, le processus de convergence est
enrayé et les rentabilités des firmes présentes peuvent rester durablement différentes les
unes des autres.
Types de secteurs
Obst. entrée
concentration
rentabilité
secteur concentré secteur très concentré
concurrence vive concurrence modérée
profits moyens profits élevés
profits risqués profits stables
facilité sortie
sécurité
cx
des besoins en capitaux importants, ainsi qu’un volume minimal de production et des
prix-plafond qui sont ceux des firmes déjà en place, augmentant ainsi son risque. On
retrouve ici la théorie économique qui montre que l'échelle optimale de production est
d'autant plus élevée que le rapport entre les frais fixes et les frais variables de
production est élevé.
Pour le moment, nous déciderons arbitrairement de focaliser notre étude sur les
ordinateurs dits « universels », tout en retenant que les technologies et les composants
de l’informatique sont aussi utilisés dans d’autres machines, mais à des fins particulières
correspondant aux fonctions propres à ces machines. Ce n’est qu’après avoir examiné
l’industrie informatique dans ce sens étroit que nous reviendrons sur la question des
objets informatisés et que nous essaierons de comprendre les phénomènes industriels
qui se situent aux frontières de l’informatique stricto sensu.
Vus par leurs utilisateurs, les systèmes informatiques (que nous assimilons aux
ordinateurs) sont toujours constitués par des matériels interconnectés, sur lesquels
s’exécutent des logiciels qui en définissent les fonctions applicatives. La part matérielle
peut être aussi simple que la combinaison d’une unité centrale, d’un écran, d’un clavier
cxi
et d’une imprimante, ou bien comprendre tout un réseau de centres de traitement
comportant chacun de nombreuses unités de calcul et de stockage, et accessible à partir
de milliers de terminaux. Il existe une grande variété de matériels qui se distinguent par
leur fonction primaire (calcul, stockage, lecture et production d’informations sous
différentes formes physiques, communication entre systèmes informatiques, …), ainsi
que par les modalités et les performances d’exécution de ces fonctions. Ces divers
matériels peuvent être acquis séparément auprès de fournisseurs concurrents.
cxii
réalisée par d’autres moyens comme la poste ou les transports routiers, qui sont ainsi
substituables aux télécommunications et pourraient eux aussi être candidats à entrer
dans le champ de notre étude.
Une échelle optimale de production élevée, provenant par exemple d’un ratio des
coût fixes aux coûts variables très élevé, constitue le plus important des obstacles à
l’entrée. Cette situation est de façon extrême celle des composants électroniques où les
investissements sont de l'ordre du milliard de dollars alors que les coûts marginaux sont
très faibles. C’est aussi celle des progiciels dont le coût de reproduction par exemplaire
est très faible alors que le coût (fixe) de développement peut être élevé.
Les services ne se laissent pas appréhender de façon simple. Certains comme les
services de conseil et d'assistance sont caractérisés par une échelle de production très
faible et donc sont exempts d'obstacles à l'entrée. D'autres, comme les
télécommunications, exigent des investissements matériels considérables entraînant des
frais fixes élevés et une échelle de production constituant un obstacle quasi-
infranchissable. Dès maintenant, nous voyons que le secteur des services est très
hétérogène et devra faire l'objet d'une subdivision en sous-secteurs.
Un autre obstacle à l'entrée d'un nouveau concurrent est formé par les coûts que
les clients doivent consentir pour changer de produit, ou les autres inconvénients liés à
ce changement. Ces obstacles dépendent de la différenciation du produit, de la fidélité
de la clientèle existante, et des coûts de transfert pour le client. Le candidat à l'entrée
cxiii
peut réduire ces coûts en choisissant de copier des produits existants, en particulier
lorsque ceux-ci font l'objet d'un standard ou d'une norme. Cet obstacle à l'entrée sera
donc important en l'absence de normalisation, faible pour les services et les matériels
standardisés et très faible pour des services banalisés comme l'assistance technique ou le
développement de logiciels.
Le besoin de capitaux
Le besoin de capitaux est directement lié à la structure des coûts pour l'activité
considérée et se rapproche donc de l'échelle de production, si ce n'est qu'il s'agit ici du
besoin en valeur absolue alors que l'échelle de production se rattache au besoin en
capitaux à travers son rapport aux coûts variables. Par exemple, les composants et les
progiciels ont tous deux une échelle de production élevée, mais le besoin en capitaux de
l'activité progiciels est beaucoup plus faible en valeur absolue.
Une firme qui dispose de technologies originales peut rendre difficile l’entrée de
concurrents en leur interdisant d’accéder à ces technologies grâce à des brevets ou tout
autre dispositif de protection. Même en l’absence de telles dispositions de propriété
industrielle, l’investissement et le temps nécessaire à l’acquisition d’un niveau de
compétence concurrentiel peuvent représenter un obstacle à l’entrée non négligeable.
cxiv
protection juridique n’est pas pleinement efficace et constitue un problème majeur
d’actualité.
Nous avons vu que le secteur des composants et fortement concentré alors que
celui des matériels est dispersé. De plus, les composants représentent une part critique
des matériels, et les fournisseurs de composants peuvent exercer une menace crédible
d’entrée dans le secteur du matériel. En revanche, les constructeurs de matériel ne
forment un débouché critique que pour ceux des fournisseurs de composants qui sont
hautement spécialisés en informatique. Le secteur des composants jouit donc d’un
pouvoir important sur ses clients les constructeurs de matériel et peut dans une large
mesure leur imposer ses conditions et empocher la plus grande part de leur valeur
ajoutée combinée.
Dans le cas des offreurs de services qui incorporent à leurs prestations du matériel
ou du progiciel, comme c’est le cas des services de traitement, de l’intégration de
cxv
systèmes, ou du facilities management, les deux secteurs sont dispersés. Mais d’une part
ces achats sont plus critiques pour les sociétés de service que pour les constructeurs, et
d’autre part les constructeurs peuvent exercer une menace permanente d'intégration en
aval des services, alors que l’inverse est peu crédible. Le pouvoir des fournisseurs de
matériels et progiciels est donc relativement supérieur à celui de leurs clients les
offreurs de services. Cette conclusion doit néanmoins être tempérée par le rôle de
prescripteur et de distributeur que peuvent jouer ces derniers.
Nous pouvons maintenant compléter la distinction entre secteurs que nous avions
ébauchée au chapitre précédent à partir de l’échelle optimale de production.
Une grande échelle optimale de production due à des frais fixes élevés par rapport
aux frais variables, et/ou une forte différenciation des produits entraînant pour le client
des coûts de transfert élevés en cas de changement de fournisseur, constituent de fortes
barrières à l'entrée et font du secteur un secteur concentré où la concurrence se joue
entre un petit nombre de grandes firmes. Un exemple typique est celui des
microprocesseurs.
Une échelle de production élevée va de pair avec des coûts fixes élevés et un fort
besoin de capitaux, que nous ne considérerons donc pas comme des facteurs de
structuration indépendants. D’autres facteurs qui poussent à la concentration d’un
secteur sont principalement l’utilisation de technologies protégées ou peu répandues et
l’absence d’obstacles à la sortie.
Dans les secteurs concentrés, les firmes peuvent espérer atteindre une profitabilité
élevée, mais la part de marché joue un rôle déterminant. Plusieurs études ont cherché à
comprendre s’il existe une configuration stable des parts de marché, en partant du
principe que la concurrence est la plus intense entre firmes de taille comparable et doit
devenir plus modérée entre firmes de taille très différente. De façon empirique, on
constate souvent une tendance vers une configuration où un leader occupe 55% à 65 %
du marché, un challenger environ 30%, avec quelques firmes secondaires se partageant
quelque 10 à 15% . C’était par exemple le cas de l’informatique jusqu’aux années 80
33
avec IBM dans le rôle du leader, et c’est maintenant les cas des microprocesseurs avec
Intel, des progiciels système et de chacun des principaux logiciels utilitaires avec
Microsoft, ou des logiciels de réseau avec Novell.
opèrent de nombreuses firmes concurrentes. Les parts de marché y sont plus faibles, la
33 Ce constat a été érigé en règle par Henderson, du Boston Consulting Group, sous le nom de
« règle de 3 et 4 », qui s’énonce « dans une industrie stable, il n’y a que trois concurrents significatifs et
leurs chiffres d’affaires sont dans les rapports 4-2-1 »
34 Nous avons préféré le terme « dispersé » à « fragmenté » pour traduire le mot « fragmented »
utilisé par Porter. D’une part c’est un meilleur antonyme de « concentré », et d’autre part ce choix nous
permet de réserver le mot « fragmenté » pour désigner une industrie où les différents biens sont produits
par des firrmes spécialisées distinctes, par opposition à une industrie « intégrée ». Voir les chapitres 14 et
15.
cxvi
firme la plus importante ayant rarement plus de 15% du marché et les 10 premières ne
totalisant le plus souvent pas 50%. La profitabilité potentielle y est également faible,
même pour les firmes les plus performantes. Cette situation peut être due à une échelle
optimale de production réduite grâce à des frais fixes modérés, ainsi qu'à une
banalisation ou une standardisation des produits qui facilite le changement de
fournisseur. Elle est aggravée par l’utilisation de technologies banales ou la présence
d’obstacles à la sortie.
Notion de métier
Plusieurs secteurs au sens de Porter (groupe de firmes qui fabriquent des produits
étroitement substituables) peuvent se caractériser par des appareils de production très
voisins et donc avoir en commun tous les facteurs de structuration qui se rattachent au
système de production, alors même que leurs produits ne sont pas substituables. Nous
utiliserons le terme de « métier » pour désigner un tel groupe de secteurs. C’est par
exemple le cas de l’assemblage des matériels, qui peut concerner aussi bien des
imprimantes que des unités de calcul ; c’est aussi le cas des progiciels, puisqu’un
tableur et un gestionnaire de communications, bien que non substituables, font
néanmoins appel au même processus de production.
Le jeu des forces concurrentielles au niveau d’un métier se situe quelque part
entre un secteur au sens strict et une industrie au sens large. En effet, la similitude de
l’appareil de production poussera certains acteurs d’un même métier à être présents dans
plusieurs secteurs, voire à tirer de cette présence un avantage concurrentiel et à protéger
cet avantage en établissant des liaisons entre des produits appartenant a priori à des
secteurs distincts. Ce phénomène a dominé le secteur des matériels avant que la
standardisation ne vienne isoler les différents types d’unités les uns des autres et
permettre le cloisonnement entre sous-secteurs. Il joue maintenant un rôle de plus en
plus visible dans les progiciels où les leaders comme Microsoft ou IBM, et leurs
challengers immédiats comme Lotus ou Novell cherchent à couvrir un domaine
d’application aussi étendu que possible. Nous reviendrons sur cette problématique dans
le chapitre consacré au progiciel. En revanche, le fonctionnement du marché, et en
particulier les effets de substitution entre produits concurrents et la répartition des parts
de marché, doivent bien être analysés secteur élémentaire par secteur élémentaire.
A ce stade de notre étude, on peu donc prévoir que le secteur des composants se
caractérise par un faible nombre d'acteurs et une rentabilité élevée, celui des matériels
par un assez grand nombre d'acteurs et une rentabilité moyenne, celui des services par
un grand nombre d'acteurs et une rentabilité faible. Pour les secteurs des matériels et des
progiciels, il ne nous a pas été possible de caractériser de façon simple des facteurs tels
que la différenciation des produits et les coûts de changement de fournisseur. La
structuration de ces secteurs doit donc tenir compte du phénomène de standardisation :
un haut degré de normalisation des produits abaisse les barrières à l'entrée, donc
augmente le nombre de concurrents et diminue la profitabilité potentielle par rapport à
un secteur où les concurrents offrent des produits plus différenciés.
cxvii
Le secteur des progiciels présente un caractère paradoxal à l’observateur
superficiel, car tout à la fois les obstacles à l'entrée et à la sortie y semblent faibles, et
les économies d'échelle y sont très fortes, la plus grande part des coûts étant supportée
en phase de développement. On y constate d’ailleurs la coexistence d’un grand nombre
de firmes avec des profitabilités très élevées. La réalité est que les firmes de progiciels
ne constituent pas un secteur unique, mais autant de secteurs que de domaines
d’application (systèmes d’exploitation, gestion de réseaux, traitement de textes,
tableurs, utilitaires, …), ces nombreux secteurs formant un métier unique. La dispersion
n’est ici qu’apparente et concerne le niveau du métier. Chaque secteur élémentaire obéit
à une logique de concentration, ce qui explique les fortes rentabilités constatées.
Le secteur des services est encore plus hétérogène puisqu’il contient des types de
services divers assis sur des appareils de production très différents dans leurs
caractéristiques économiques, en particulier leur échelle de production. Même en
première approximation, les services ne peuvent pas être analysés comme un secteur
homogène, ni même comme un métier au sens d’un ensemble de firmes dont les
appareils de production ont des caractéristiques voisines. Ceci explique la diversité des
situations dans un domaine où coexistent des métiers et des secteurs différents, comme
nous le verrons au chapitre 13.
Attrait et rentabilité
Obst. entrée
concentration
rentabilité
très attractif
télécoms
composants
mat original
temps partagé progiciels
traitement infogérance
backup
dévelopt
mat standard maintenance intégration
formation
assistance
conseil
peu attractif
facilité sortie
sécurité
G. Dréan - 1994
Cycle de vie
Les cinq forces de la concurrence évoluent dans le temps, et avec elles la structure
et les caractéristiques des secteurs, qui connaissent en général un cycle de vie passant
par les phases d'introduction, de croissance, de maturité et de déclin. En règle générale,
au fur et à mesure que le secteur évolue vers la maturité et le déclin, le pouvoir des
clients augmente, les produits se standardisent, la concurrence tend à s'intensifier et la
profitabilité à diminuer. Mais il arrive que certains des sous-secteurs nouvellement créés
reprennent le cycle à son début et présentent une structure très différente de celle du
secteur dont ils sont issus.
cxviii
Pour illustrer cette analyse, appliquons-la à la totalité du macro-secteur
informatique, en reportant l’étude de chaque branche au chapitre concerné.
La pénétration du marché est variable selon les segments. Elevée pour les grands
organismes et les petites entreprises très techniques, elle est encore moyenne pour les
autres petites entreprises, et relativement faible pour les travailleurs individuels et les
particuliers. Selon le produit et le marché, le taux de pénétration peut correspondre à la
phase d'introduction, à la phase de croissance, de maturité ou de déclin. Il en va de
même des phénomènes d’apprentissage des acheteurs, dont les niveaux de compétences
sont extrêmement divers.
cxix
phase de maturité peut ainsi donner naissance à un secteur nouveau où jouera la
dynamique d’une phase d’introduction. La notion de cycle de vie n'a pas grand sens
pour l'ensemble de l'informatique : les progiciels multimédia sont en phase
d'introduction alors que les grands et moyens systèmes entrent en phase de déclin et que
le service de traitement à façon a dépassé la phase de déclin. La position dans le cycle
de vie constitue un nouveau facteur de différenciation interne à l’informatique, qui
contribue à enlever toute pertinence à une analyse globale.
cxx
Chapitre 7
Les composants, un secteur concentré
Historique
A l'origine, les ordinateurs utilisaient les mêmes composants électroniques que les
autres matériels et les constructeurs s'approvisionnaient auprès de fabricants tels que
General Electric, RCA, Sylvania, Raytheon … pour lesquels l’informatique n’était
qu’un client très marginal. L'industrie informatique naissante était ainsi distincte de
celle des composants, qui existait avant elle. De nombreux fournisseurs de composants
tenteront d'ailleurs de prendre pied dans l'informatique, et tous abandonneront tôt ou
tard.
cxxi
plus être séparée de celle des matériels où ils sont utilisés. A partir de 1964, à la suite
d'IBM, chaque constructeur d'ordinateurs conçoit et produit lui-même l'essentiel des
composants qu'il utilise. En même temps que l’industrie informatique se détache ainsi
de l’industrie électronique généraliste, la production de composants s’intègre dans
l'activité de chacun des constructeurs. Cette intégration reste à ce jour une
caractéristique du monde de l'informatique traditionnelle.
cxxii
Le segment et le secteur
Remarquons que, sauf pour Intel et AMD, les composants informatiques ne sont
qu’une part minoritaire de la production totale de semi-conducteurs. On estime que pour
1992, le chiffre d’affaires total de l’industrie des semi-conducteurs a été de 59 milliards
de $ (pour 130 milliards de composants électroniques), dont 27 milliards (45%) destinés
aux ordinateurs. Ces 27 milliards se répartissent en 25% environ pour les
microprocesseurs, 30% pour les mémoires et le reste pour les autres composants (puces
spécialisées, cartes, …).
cxxiii
Les problèmes techniques
Rappels de technologie
Les puces électroniques utilisées dans les ordinateurs sont de petits rectangles de
silicium sur lesquels sont gravés des circuits. Les dimensions des cotés de ces rectangles
sont de l'ordre de un à trois centimètres. Les circuits électroniques gravés sur la puce
peuvent réaliser des fonctions de mémorisation et de traitement d’information. Certaines
puces ne contiennent que de la mémoire, tandis que les microprocesseurs contiennent
principalement des circuits de traitement, ainsi que la mémoire directement nécessaire
au fonctionnement de ces circuits. Nous reviendrons plus loin sur cette différence entre
les puces mémoire et les microprocesseurs, qui joue un rôle important dans la
dynamique de l’industrie.
La largeur des traits gravés sur le silicium, pour constituer par exemple un
conducteur, caractérise un niveau de technologie. Les microprocesseurs récemment mis
sur le marché ont une largeur de trait inférieure à 1 micron (µ), c'est à dire un millième
de millimètre. Pour les puces les plus récentes, cette largeur est de l’ordre de 0.5µ. Il est
difficile de se représenter ce que signifient ces dimensions. Imaginons qu’une puce
comme le PowerPC soit agrandie de façon à permettre le passage d'êtres humains au
lieu d'impulsions électroniques. Il faudrait pour cela remplacer les traits de 0.5µ par des
sentiers de 1 mètre de large. La puce aurait alors la taille d’un carré de plus de 20 km de
coté, et la distance moyenne entre deux sentiers voisins (la largeur des plates-bandes ou
l’épaisseur des haies) serait de 6 mètres. La complexité de tels circuits est donc
équivalente à celle d'un labyrinthe de couloirs de 1 m de large qui couvrirait totalement
la région parisienne selon une grille de 6 mètres sur 6, et sur 4 à 6 niveaux. Cette
complexité contribue à expliquer l'importance des dépenses de recherche et
développement nécessaires à la conception des microprocesseurs.
Avec les technologies actuelles, une puce typique contient 4 millions de bits de
mémoire, ou environ 3 millions de transistors pour les microprocesseurs. Avec une
largeur de trait de 0.35µ, les puces mémoire de la prochaine génération contiendront 16
millions de bits, et les microprocesseurs une dizaine de millions de transistors.
Les limites théoriques sont encore lointaines puisqu'on sait aujourd'hui faire
fonctionner en laboratoire des éléments de quelque nanomètres (millionièmes de
millimètre) soit 100 fois plus fins que les circuits actuels du commerce, donc
potentiellement 10000 fois plus denses. Au niveau de la fabrication, on commence à
maîtriser en laboratoire les techniques qui permettront de graver industriellement des
cxxiv
circuits de 0.1µ, ce qui représente l’horizon actuel des techniques de fabrication et
annonce des puces à 256 millions de bits ou plus de 100 millions de transistors.
Les performances globales de la puce sont déterminées d’une part par son
architecture, d’autre part par la vitesse d'horloge, qui détermine le nombre de
changements d'état des composants actifs par unité de temps. L’architecture d’une puce,
qui définit en particulier le répertoire d’instructions qu’elle sait reconnaître et exécuter,
influe aussi sur ses performances à travers les facteurs suivants :
–la quantité d'information qui circule en parallèle entre les différents blocs
fonctionnels de la puce (32 bits pour la plupart des puces courantes, 64 bits pour les
plus modernes),
–la quantité d'information qui circule en parallèle entre la puce elle-même et le reste
de l'ordinateur, et qui peut être différente de celle qui circule à l'intérieur,
–la possibilité d'exécution simultanée de plusieurs opérations à l'intérieur de la puce.
Une puce est dite « superscalaire » si elle contient plusieurs unités de traitement
capables d’exécuter en parallèle des instructions différentes, et « pipeline » si les
étapes successives d’une même instruction sont exécutées par des unités différentes,
ce qui permet à plusieurs instructions successives d’être simultanément en cours
d’exécution. Ces deux approches peuvent se combiner dans une même puce.
Une puce, définie par son architecture et sa technologie, peut fonctionner à des
vitesses d'horloge différentes. La vitesse maximale est limitée par les possibilités
d'évacuation de la chaleur dégagée par la puce. En effet, comme dans tout conducteur, la
circulation de l'électricité produit de la chaleur. Plus la densité des circuits et la vitesse
d'horloge sont élevées, plus le dégagement calorifique par unité de surface est grand
(certains circuits actuels rayonnent autant qu'un matériau chauffé à 1200°C, soit 6 fois
plus qu'une plaque de cuisson). Il est possible de diminuer le dégagement calorifique et
la consommation en réduisant la tension de fonctionnement, mais ceci diminue
également l’intensité des signaux et il faut alors veiller à ce que ceux-ci puissent être
distingués du bruit électronique présent dans les circuits. Les puces les plus récentes
fonctionnent sous une tension de 3.3 volts contre 5 volts pour la génération précédente.
La réduction progressive des tensions de fonctionnement est une constante de
l’évolution technologique.
Une puce donnée peut fonctionner dans une assez large plage de vitesses. Plus que
de la puce proprement dite, la vitesse d’horloge maximale est directement fonction de la
capacité d’évacuation de la chaleur, qui dépend elle-même de l’environnement dans
lequel la puce est destinée à fonctionner. Un ordinateur portable ne peut comporter
aucun dispositif particulier d’évacuation de la chaleur, et les puces qui lui sont destinées
ne pourront pas dépasser une certaine densité et une certaine fréquence. Au contraire, un
gros ordinateur peut contenir un dispositif de refroidissement très puissant qui autorise
les densités et les fréquences d’horloge maximales pour la technologie électronique
considérée.
cxxv
La fabrication des puces
Sur la tranche de silicium, les circuits sont formés d’un certain nombre de
couches, (typiquement entre 5 et 15) portant chacune un dessin particulier réalisé avec
une substance chimique particulière (dopant ou conducteur métallique). Chacune de ces
couches est créée en un cycle comprenant quatre opérations principales : dépôt d’une
résine photosensible, photolithographie, gravure et dopage. Les tranches sont ainsi
soumises à une série de traitements chimiques et thermiques successifs permettant de
graver les motifs correspondants aux différents niveaux et aux différents réactifs utilisés
dans la fabrication, et de déposer les substances constituant les circuits. Ce processus
utilise une succession de masques, qui doivent être positionnés avec une exactitude
cohérente avec la dimension des circuits eux-mêmes, c’est à dire au dixième de micron
près. La fabrication exige donc des équipements permettant des positionnements stables
à des précisions inférieures au micron, enfermés dans des salles anti-vibrations elles-
mêmes construites dans des bâtiments antisismiques. Les réactifs utilisés, en général
sous forme gazeuse, sont nombreux, souvent toxiques, et doivent eux-mêmes être
exempts de toute impureté de taille supérieure à 0.2µ. C’est dire que leur circulation
exige des systèmes très particuliers.
cxxvi
Economie de la production
Mais, quelle que soit la densité des circuits, il est impossible de réduire les
dimensions des puces en dessous de certaines limites. Leur raccordement au monde
extérieur, en l’occurrence le reste de l’ordinateur, se réalise en effet à travers quelques
centaines de connecteurs (typiquement entre 200 et 500) qui doivent trouver leur place
sur la puce, et lui imposent une dimension minimale qui varie suivant le nombre de
connecteurs et la technologie de raccordement utilisée. De plus, ce nombre de
connecteurs croît avec le nombre de bits traités en parallèle, et plus généralement avec
la richesse fonctionnelle de la puce. Dans la pratique, ceci explique que la taille des
puces se situe entre un peu moins d’un centimètre et environ 2.5 cm de coté, et que ces
dimensions aient peu de chances d’évoluer considérablement quoi qu’il arrive.
cxxvii
logiques peut se traduire par des performances accrues sous réserve d’une architecture
appropriée. Ce sont les technologies annexes de refroidissement qui déterminent pour
chaque niveau de technologie électronique les vitesses d’horloge possibles et donc les
performances réelles de la puce dans un environnement donné.
Mémoire et logique
Il existe entre les puces mémoire et les puces logiques ou microprocesseurs des
différences fondamentales qui ont des implications industrielles importantes.
Alors que de nombreux circuits sont actifs simultanément sur une puce logique,
une toute petite partie d'une puce mémoire est active à un instant donné. Un processeur
présente donc un plus grand risque d’interférences entre circuits voisins et un
dégagement calorifique plus élevé que celui d’une puce mémoire de même technologie
et de même vitesse. Pour une même largeur de trait, la densité des circuits et la vitesse
de commutation peuvent être plus élevées pour une puce mémoire que pour une puce
logique. A titre d’exemple, la même technologie 0.5 microns est utilisée pour des
processeurs comme le PowerPC de 2.8 millions de transistors et pour des puces
mémoire de 16 Mégabits. En ne comptant qu’un transistor par bit, la densité de la puce
mémoire (1 cm sur 2) est de 80000 transistors par mm 2 alors que celle du processeur est
d’environ 20000 transistors par mm2.
Une puce mémoire remplit une fonction simple, celle de stocker et de restituer sur
demande des informations représentées par des éléments binaires. Au plan fonctionnel,
deux puces mémoire de générations ou de technologies différentes ne se distinguent que
par leur capacité et leur vitesse. La structure d’une puce mémoire est donc hautement
répétitive et relativement stable d'une génération à l'autre, ce qui limite les efforts et les
coûts de conception. De plus, le test d’une puce mémoire est une opération relativement
simple et presque identique d’une génération à l’autre.
Pour toutes ces raisons, les puces mémoire sont plus simples à concevoir et plus
faciles à fabriquer que les puces logiques. Dès que la R&D technologique permet de
fabriquer des puces d’une densité correspondant à une nouvelle génération, la
technologie peut être utilisée dans des puces mémoire qui sortiront les premières sur le
marché. Utiliser cette même technologie pour des puces logiques demande des
investissements et un délai supplémentaire pour concevoir les microprocesseurs et
construire le système de support au développement et les procédures de test. Ce délai est
également utilisé pour qualifier complètement la technologie et résoudre les problèmes
de fabrication et de rendement. Les mémoires peuvent ainsi être constamment en avance
cxxviii
d'une génération technologique par rapport aux processeurs, si bien que l’évolution à
court terme des microprocesseurs peut facilement être prédite à partir de celle que l’on
observe dans le domaine des mémoires, le décalage temporel étant d’environ deux ans.
On commence par exemple à voir sortir des lignes pilotes des puces mémoire à 64
Mégabits, avec une largeur de trait de 0.35 microns, dont la densité est supérieure à
300000 transistors par mm2. Compte tenu de la plus faible densité des processeurs, cette
technologie permettra en 1996 de produire des puces de plus de 8 millions de transistors
pour la taille du PowerPC, et de 25 millions aux dimensions du Pentium.
En revanche, les matières premières sont soit bon marché comme le silicium qui
revient à environ 70$ le kilo sous forme pure, soit consommées en très faible quantité
dans chaque puce. On estime que le coût total des matières premières, des réactifs et des
fluides utilisés par la production des semi-conducteurs, y compris celle des masques, est
de l’ordre de 13% de la valeur de la production. La production utilise peu de personnel,
et les coûts salariaux, dans la mesure où il est légitime de les considérer comme des
cxxix
frais variables, sont relativement faibles . Le coût marginal de production de chaque
35
puce, c’est à dire le coût supplémentaire encouru pour produire une puce de plus, est au
total de l’ordre de 50 $ en moyenne, tous types de puce confondus.
Il convient enfin de noter que tous ces investissements sont par définition
irrécupérables (« sunk costs » en anglais), c’est à dire qu’ils perdent toute valeur en cas
de cessation de la production ou de passage à une nouvelle technologie.
35 Il serait plus logique de considérer les frais de personnel comme des coûts fixes récupérables,
dans la mesure où les effectifs sont peu sensibles au volume produit, mais les coûts correspondants
peuvent être annulés en cas de cessation totale de la production.
cxxx
Concurrence, prix et parts de marché
Il semble que des ratios de cet ordre sont exceptionnels dans les autres industries,
surtout en ce qui concerne la relation entre l’échelle économique de production et la
taille totale du marché. A titre de comparaison, une étude de la taille efficace des
appareils de production réalisée en 1975 situe cette taille en dessous de 3% du marché
36
des USA pour presque toutes les industries, le maximum étant inférieur à 15% de ce
marché. En dehors du monopole strict, la littérature économique a peu étudié des cas
aussi extrêmes de concentration, ce qui nous oblige à admettre d’avance que nos
conclusions ne sont pas nécessairement généralisables à d’autres situations.
cxxxi
Remarquons également que cette structure sectorielle caractérisée par des parts de
marché très inégales, avec un offreur dominant dépassant les 60%, est en réalité très
répandue. Elle caractérisait l’ensemble de l’informatique, qui formait alors un secteur
unique, jusque dans les années 80. Elle se rencontre encore aujourd’hui dans le cas des
progiciels système et des grands utilitaires. Plusieurs auteurs avaient déjà constaté que,
dans de nombreux secteurs, les configurations stables se caractérisent par des parts de
marché très différentes, et recherché une explication économique à ce phénomène, sans
toutefois aborder de cas aussi extrêmes.
Notons au passage que cette situation ne s’explique pas par la théorie des
« monopoles contestables ». Baumol et d’autres auteurs ont montré que si les barrières à
la sortie sont faibles, par exemple si les investissements consentis pour l’entrée peuvent
être récupérés en cas de sortie, la simple menace d’entrée de nouveaux concurrents
suffit à faire tendre les prix vers ceux qui résulteraient d’une concurrence pure et
parfaite. Or ici les coûts fixes sont non seulement très élevés, mais irrécupérables
(« sunk » en anglais) dans la mesure où ils sont encourus même si la firme décide de
cesser la production . Les actifs auxquels correspond l’essentiel des coûts fixes n’ont en
37
effet pas de valeur hors de leur utilisation pour la production de composants, et il est
peu probable qu’un concurrent les rachèterait en cas d’arrêt. Ces coûts irrécupérables
constituent de réelles et sévères barrières à l’entrée et font que les composants ne
forment pas un marché contestable. Il devrait donc se présenter comme un monopole
naturel, ou du moins tendre rapidement vers une situation de monopole.
Il est difficile de croire qu’un phénomène aussi fréquent n’a pas une solide
explication économique, plus convaincante en tous cas que la thèse classique de Gibrat
selon laquelle l’inégalité des parts de marché est simplement le fruit du hasard . En 38
effet, les simulations de l’« effet Gibrat » conduisent à des parts maximales de l’ordre
de 40% après plus de 100 ans, alors que dans notre cas la part du leader est très
supérieure, et que la distribution inégalitaire s’établit en quelques années.
L’échelle optimale de production est-elle vraiment infinie, c’est à dire égale par
définition à la taille du marché ?
37 Un exemple contraire est celui d’une liaison aérienne dont les actifs fixes, comme les avions,
peuvent être réutilisés sur d’autres liaisons en cas de fermeture de cette ligne.
38 On montre que si une population d’entreprises initialement égales évolue chaque année selon des
taux de croissance individuels distribués de façon aléatoire autour d’une valeur moyenne, leurs tailles
tendent vers une distribution inégalitaire.
cxxxii
Remarquons que la définition de l’échelle optimale de production dans la théorie
classique repose sur l’hypothèse que les firmes exploiteront complètement toute
possibilité de réduire le coût moyen de production à travers l’augmentation des
quantités produites, tant que la baisse des prix de vente reste inférieure à la réduction
attendue des coûts, et cela aussi minime que soit la différence.
Il n’est pas évident que, dans le monde réel, les industriels raisonnent de cette
façon. Le comportement postulé par les économistes supposerait que d’une part la
relation entre les coûts et les quantités soit connue avec certitude, et d’autre part que les
producteurs décident de simultanément baisser leurs prix et d’augmenter leur capacité
de production au prix de lourds investissements. Or dans la réalité la relation entre
volumes de production et coûts n’est pas connue avec certitude, et encore moins la
relation entre les prix et les quantités réellement vendues, surtout en situation
concurrentielle. Il est donc plus vraisemblable que les offreurs agissent avec plus de
prudence et ne s’engagent dans une baisse de prix que si le bénéfice qu’ils peuvent en
attendre est suffisamment certain.
Vu du coté de la demande, il est clair que lorsque l’écart de prix entre deux
produits substituables est faible, les autres facteurs de choix deviennent relativement
plus importants. Par exemple, un écart de prix inférieur à 15% n’est pas nécessairement
déterminant s’il existe d’autres facteurs de différenciation entre les produits. A ce
niveau, les offreurs chercheront à se différencier par d’autres caractéristiques ou à
pousser les volumes par des actions telles que la publicité plutôt que par la baisse des
prix.
Nous avons vu que pour la fabrication des composants, sans même tenir compte
des dépenses de R&D, les coûts fixes s’élèvent à 600 à 800 millions de $ pour une ligne
cxxxiii
de production, et que les coûts variables sont environ 50 $ par puce. Le rapport des
coûts fixes aux coûts variables unitaires, et donc l’échelle économique annuelle de
production se situe donc entre 10 et 20 millions, ce qui nous l’avons vu peut être
considéré comme l’ordre de grandeur de la production annuelle requise pour que le coût
moyen devienne pratiquement insensible au volume vendu.
Autrement dit, dès qu’un microprocesseur a été introduit sur le marché, la seule
variable sur laquelle l’offreur peut agir à court terme pour lutter contre la concurrence
est le prix. Agir sur les caractéristiques du produit, ou modifier significativement ses
coûts, nécessite un nouvel effort de développement qui ne portera ses fruits éventuels
qu’au bout de plusieurs années et au prix de nouvelles dépenses irrécupérables.
L’analyse économique montre que, contrairement à une idée courante, les prix de
vente des biens ne sont pas directement déterminés par leur prix de revient, mais par le
marché. Certes, les mécanismes du marché eux-mêmes tendent à rapprocher ce prix du
coût marginal, mais du point de vue de chacun des offreurs, le prix de marché est
déterminé par le jeu de la concurrence, et il lui appartient d’ajuster ses coûts afin qu’ils
restent inférieurs aux prix de vente et permettent de dégager un profit.
Dans un secteur comme les composants, où les coûts sont essentiellement formés
de coûts fixes irrécupérables, l’indépendance des prix par rapport aux coûts est encore
plus marquée que dans tout autre. Supposons en effet que s’engage une guerre des prix
se traduisant par une baisse continuelle. Chacun des offreurs a intérêt à continuer à
produire tant que le prix de vente reste supérieur au coût marginal de production , qui 39
forme ainsi un le plancher en dessous duquel les prix ne sauraient descendre. Une telle
conduite semble suicidaire, car les offreurs ne pourraient plus financer les
investissements nécessaires à la génération suivante. Elle pourrait néanmoins apparaître
si certains acteurs estimaient avoir accumulé des profits suffisants pour financer leurs
nouveaux développements et voulaient accroître leur part de marché, ou encore si
certains acteurs renonçaient à investir et espéraient maximiser leur revenu résiduel en
39 En toute rigueur, jusqu’à ce que son revenu, qui est égal au produit du prix unitaire par la quantité
vendue, couvre le total des coûts variables et des coûts fixes récupérables.
cxxxiv
augmentant leur part de marché. En tout état de cause, la valeur de cette limite basse des
prix est très faible : quelques dizaines de dollars pour les puces électroniques.
Bien que ceci soit connu des économistes et d’un grand nombre de chefs
d’entreprise (mais pas tous...), il faut insister sur le fait le niveau des coûts fixes
n’intervient pas dans ce raisonnement, dans la mesure où ils sont irrécupérables. Au
moment où l’entreprise doit prendre ses décisions quant au prix des produits, rien ne
peut plus empêcher que ces coûts aient été encourus ni en modifier le niveau.
L’entreprise souhaite certes ardemment que ces coûts soient couverts par le revenu, mais
si la concurrence établit le prix à un niveau insuffisant, elle a quand même intérêt à
vendre à ces prix tant qu’ils restent supérieurs au coût marginal de production.
Autrement dit, les coûts fixes irrécupérables n’apparaissent dans la fixation des prix que
comme l’expression d’un souhait, et peuvent donc être éliminés du raisonnement
opérationnel.
cxxxv
Une configuration où quelques firmes se partageraient le marché en parts voisines
ne peut pas être stable. Dans un tel cas, chacun des offreurs opère à une échelle trop
faible pour réaliser toutes les économies d’échelle possibles, et il s’en trouvera au moins
un pour tenter d’augmenter ses volumes en agissant sur le prix, ce qui entraîne une
concurrence vive. Or, s’agissant par hypothèse d’un secteur où les coûts variables sont
faibles par rapport aux prix de vente, un faible avantage de volume procure des
ressources supplémentaires importantes. Leur bénéficiaire peut ou bien en sacrifier une
partie pour baisser les prix et accroître encore l’avantage de volume, soit les consacrer à
rechercher d’autres avantages à travers des améliorations du produit ou des services
associés, ou des actions de promotion. Tout avantage de taille est ainsi un avantage
concurrentiel qui peut être exploité pour accroître encore la taille. Une répartition
équilibrée des parts de marché dans un secteur concentré est donc instable.
Au contraire, si les parts de marché sont très différentes, ceux qui jouissent de
grandes parts seront moins enclins à les augmenter encore en baissant les prix. Tous les
auteurs s’accordent d’ailleurs à penser que le leader d’un secteur n’a généralement pas
intérêt à en détenir 100% en éliminant totalement la concurrence. Quant aux concurrents
qui n’ont que de faibles parts de marché, et sont de ce fait tout juste viables, il est
probable qu’ils hésiteront à prendre le risque de baisser encore leurs prix. La
concurrence tendra donc à se modérer, les prix à se stabiliser, et la configuration
deviendra stable.
La théorie classique des oligopoles montre que, pour conserver leur part de
marché et leur profit, le ou les offreurs dominants ont intérêt à fixer les prix au niveau
du coût de production des offreurs secondaires (le « prix limite »), ce qui décourage les
offreurs secondaires de chercher à augmenter leur part. On suppose que le coût de
production des offreurs dominants est inférieur à celui des offreurs secondaires, et que
donc les offreurs dominants réalisent un profit en vendant au prix-limite.
Ce raisonnement ne tient pas explicitement compte des coûts fixes, qui sont
intégrés dans le coût des offreurs secondaires et donc dans le prix-limite. Pour un
secteur où les produits sont renouvelés tous les deux ans au prix d’investissements
considérables, on comprend mieux le phénomène en disant que pour qu’une firme
survive, le revenu qu’elle tire des produits courants doit payer les coûts variables, les
frais commerciaux et de structure, et les investissements de R&D et de production
nécessaires à la prochaine génération. Sur la base de ses volumes de vente actuels pour
la génération courante et de ses estimations pour la suivante, chaque firme détermine
plus ou moins consciemment le « prix de survie » qui lui permet de rester dans la
course.
Or les dépenses de recherche nécessaires pour développer une nouvelle puce, ainsi
que le coût d’une ligne de production, sont en gros les mêmes pour toutes les firmes, et
leur contribution au prix de survie est donc inversement proportionnelle à la part de
marché de chaque firme. Le prix de survie des leaders est ainsi très inférieur à celui des
firmes marginales. En cas de guerre des prix, les leaders auront donc la capacité de
résister beaucoup plus longtemps et si nécessaire de réduire leurs prix à un niveau où ils
survivront alors que les firmes marginales auront disparu.
cxxxvi
Quand la répartition des parts de marché correspond à une situation acceptable
pour tous les acteurs, sans qu’elle soit nécessairement optimale pour chacun d’entre eux,
le comportement décrit ci-dessus tend à perpétuer cette structure au moins le temps
d’une génération technologique.
Qui peut raisonnablement tenter de remettre en cause cet équilibre, en ayant une
chance significative d’y parvenir, et comment peut-il s’y prendre ?
Un éventuel candidat à l’entrée trouve par définition un marché déjà occupé et des
prix déjà établis pour les produits existants. Pour avoir une chance de réussir, il doit ou
bien offrir un produit nettement meilleur pour un prix voisin, ou un produit comparable
pour un prix nettement inférieur, et même si possible conjuguer un avantage de prix
avec une supériorité du produit. En même temps, il doit rendre facile la migration des
utilisateurs actuels vers son produit.
Parmi les offreurs en place, le leader n’a pas intérêt à lancer une guerre des prix
qui le rapprocherait encore d’une situation de vrai monopole et pourrait l’exposer aux
foudres des pouvoirs publics et de la justice, et nous avons vu que les firmes marginales
ne peuvent survivre qu’en profitant de prix suffisamment élevés. Pour pouvoir
raisonnablement tenter de déstabiliser le leader, il faut posséder à la fois des volumes
déjà assez élevés pour supporter une baisse de prix, et les ressources intellectuelles et
financières propres à faire espérer le développement d’un produit supérieur. Il faut de
plus que le challenger possède des avantages technologiques dans la production qui lui
laissent penser que, pour les parts de marché qu’il peut raisonnablement espérer, son
prix de survie sera voisin de celui du leader, voire inférieur. Cette combinaison de
conditions ne peut se rencontrer que chez le numéro deux du secteur, à condition qu’il
ait l’ambition affirmée de devenir le numéro un. On peut penser que tel est le cas du
consortium PowerOpen formé entre IBM et Motorola.
cxxxvii
Les prix des composants
La formation des prix des composants traduit la concurrence d’un petit nombre
d’acteurs pour les parts de marché, et ne peut être dissociée de la stratégie et de la
tactique de ces acteurs. De plus, chaque acteur réagit aux actions des autres, et on peut
donc s’attendre à ce que les prix évoluent dans le temps.
Néanmoins, le prix de vente devra être élevé si l’entreprise veut présenter des
comptes équilibrés. Heureusement, les performances du nouveau composant peuvent
probablement justifier un prix supérieur à celui de ses concurrents existants, et cela
d’autant plus que les coûts de transfert, c’est à dire les coûts de remplacement de
l’ancien composant par le nouveau, sont faibles.
Le prix le plus élevé envisageable est celui qui maximiserait le revenu total, c’est
à dire tel qu’une augmentation de ce prix aurait pour effet de diminuer la quantité
vendue d’un pourcentage supérieur au pourcentage de hausse de prix. Nous avons vu
que le manque d’élasticité de la demande place ce prix maximal à un niveau nettement
plus élevé que les prix actuellement pratiqués. Au total, l’intervalle dans lequel peuvent
a priori se situer les prix unitaires des composants est très large, de quelques dizaines à
quelques milliers de dollars. Dans la réalité, les prix observés s’échelonnent entre 100 et
1200 dollars, la majorité des microprocesseurs se plaçant entre 200 et 500 dollars.
cxxxviii
que le ou les challengers choisiront probablement une stratégie de conquête, donc des
prix plus agressifs tout en se réservant une marge de réduction importante.
Un exemple typique est le Pentium d’Intel, qui a été introduit sur le marché à près
de 1500$ alors que son prédécesseur le plus proche, avec lequel il est totalement
compatible tout en étant deux fois plus rapide, était vendu moins de 500$. Un an plus
tard, le prix du Pentium est descendu aux alentours de 800$. Son véritable challenger
stratégique le PowerPC d’IBM/Motorola, a été introduit à moins de 500$ pour une
puissance analogue, mais il doit se conquérir un marché et ne peut se substituer
simplement aux processeurs existants. Quoi qu’en disent les fabricants, ces prix et leur
évolution n'ont que peu de chose à voir avec l'évolution du prix de revient, mais
résultent d'une adaptation des prix à la demande du marché et aux actions de la
concurrence.
A partir de son niveau initialement élevé, le prix baissera aussi longtemps qu’un
concurrent pensera qu’il a intérêt à fixer ses prix en dessous du prix courant, ce qui
implique qu’il en attende un supplément de volume tel que son revenu total augmente.
Nous avons vu que c’est justement ce processus qui conduit à une configuration stable
du secteur, à un prix supérieur au coût marginal de production. De plus, ne peuvent
survivre que les firmes qui tirent de leurs produits courants un profit marginal suffisant
pour couvrir les investissements nécessaires à la génération suivante, le profit marginal
étant défini comme la différence entre le revenu et les coûts variables de production. En
pratique, les entreprises considéreront que leurs prix planchers sont largement
supérieurs au coût marginal de production, s’écartant ainsi de la théorie économique. De
toute façon, chaque génération deviendra obsolète et cessera d’être commercialisée
avant que le prix atteigne son plancher, théorique ou pratique.
Sous l’effet de la concurrence, les prix suivent une trajectoire qui les ferait tendre
toujours vers une même valeur de l’ordre de 100 $, quelles que soient la richesse
fonctionnelle, les performances et la technologie de la puce, si le progrès technologique
ne permettait l’introduction d’une nouvelle génération qui fait repartir le cycle d’un
niveau plus élevé avant que les prix n’atteignent le prix-limite. Dans la réalité, les prix
des puces de la dernière génération s’échelonnent actuellement entre 1500 et 400 $,
plage qui se restreindra probablement à un intervalle de 600 à 300 $ par suite de l’action
du consortium PowerOpen. Les puces des générations précédentes, qui restent
utilisables pour des systèmes d’entrée de gamme ou des applications particulières,
valent entre 100 et 300 $.
Concepteurs et fondeurs
Dans ce qui précède, nous avons raisonné comme si tous les offreurs intégraient
toutes les étapes depuis la R&D jusqu’à la fabrication. En réalité, certains ne font que
concevoir et commercialiser des microprocesseurs dont ils confient la fabrication à des
tiers. Ces derniers, généralement producteurs de puces mémoire, consentent les
investissements de recherche technologique et de production, et leur échelle
économique de production est de plusieurs dizaines de millions de puces, tous modèles
réunis. Les concepteurs non-fabricants limitent leurs investissements à la conception du
processeur, et font apparaître la totalité des coûts de fabrication comme des coûts
cxxxix
variables. Certains concepteurs restreignent encore leur effort de recherche et
développement en offrant des copies plus ou moins conformes (des « clones ») de puces
existantes.
Les coûts de conception d’une puce peuvent rester relativement modestes dans un
certain nombre de cas particuliers. Le plus évident est celui où une puce existante est
simplement réalisée dans une technologie nouvelle ; nous avons vu que l’intérêt d’une
telle opération reste limité, puisque d’autres contraintes comme celles de la dimension
minimale empêcheront la nouvelle puce de tirer pleinement parti du potentiel de la
nouvelle technologie, qui ne peut être exploité que par des puces de conception
nouvelle. Néanmoins, cette approche permet de prolonger la vie commerciale des
architectures existantes et de concurrencer les nouvelles architectures par des clones
performants et bon marché d’architectures plus anciennes.
Cette démarche peut également s’appliquer à des puces auxiliaires dont le contenu
fonctionnel est figé et n’aurait rien à gagner d’une conception nouvelle. Enfin, un cas
particulièrement intéressant est celui des processeurs spécialisés dans des traitements
parallèles par nature, par exemple le traitement d’images. De telles puces sont formées
de cellules identiques fonctionnant en parallèle, et s’apparentent donc sur ce plan aux
puces mémoire ; chaque saut technologique n’impose pas de redessiner la cellule
élémentaire de traitement, mais permet d’en loger un plus grand nombre sur la puce et
ainsi de traduire de façon simple le progrès technologique en gain de coût et de
performances.
Pour les clones proprement dits, le prix de survie du cloneur est relativement élevé
même si ses coûts de développement sont réduits, car son coût variable est élevé du fait
qu’il sous-traite la production, et ses volumes faibles. Comme la puce copiée ne peut
être que celle du leader ou à la rigueur du challenger, le prix de survie du cloneur risque
d’être supérieur à celui de l’original, ou en tous cas voisin.
Même si les prix de survie sont comparables, la vie utile du clone est
nécessairement plus courte puisque leur mise sur le marché ne peut qu’être postérieure à
celle de l’original, le délai constaté étant de l’ordre d’une année. Quand le leader a mis
sur le marché le successeur du processeur cloné, il peut baisser les prix de ce dernier
jusqu’au coût marginal si nécessaire, en tous cas jusqu’au prix de survie du cloneur,
voire en dessous si le clone menaçait de prendre des parts de marché au nouveau
processeur. Au total, ni la séparation des rôles de concepteur et de fondeur, ni le
phénomène des clones ne modifient en profondeur la dynamique décrite ci-dessus. Il
cxl
s’agit de phénomènes dont la simple existence est significative car elle contribue à
conserver au secteur un semblant de « contestabilité » au sens de Baumol, mais qui ne
peuvent être que marginaux en volume.
Conclusions
C’est le challenger qui détient la clef de la stabilité. S’il décide de mener une
stratégie agressive, ce qui suppose qu’il ait des raisons de penser que son prix de survie
est particulièrement bas, il déclenchera une guerre de prix dont le premier effet sera
d’accélérer l’élimination des offreurs marginaux.
En termes de profitabilité, nous avons vu que les plus gros offreurs sont aussi les
plus profitables. Comme de plus les parts de marché sont très inégales, la profitabilité
moyenne du secteur est très élevée, ce qui ne veut pas dire que toutes les firmes opèrent
à ce niveau de profit. Bien au contraire, les plus petites firmes survivent à la merci des
leaders, et sont condamnées à disparaître à terme si ces derniers décident de se livrer à
une concurrence par les prix.
cxli
concentré où existe un potentiel de progrès technologique, la concrétisation de ce
potentiel est garantie par l'importance des enjeux pour le leader et ses challengers. La
concurrence prend la forme de paris successifs où les challengers misent des milliards
pour détrôner le leader, et ce dernier en fait autant pour conserver sa place.
Perspectives
Perspectives technologiques
Pour que ce progrès soit effectif, encore faut-il que ce potentiel de transistors
puisse être utilisé de façon économiquement efficace, soit pour augmenter la vitesse de
traitement par un parallélisme accru, soit pour placer sur la puce des fonctions
nouvelles.
Dans le cas des mémoires, le progrès se traduit simplement par des capacités par
puce croissantes à chaque génération, entraînant une décroissance des coûts de stockage
par unité d’information. Pour les processeurs, l’exploitation du progrès technologique
impose une nouvelle conception des puces à chaque génération.
Une unité de calcul peut largement être réalisée avec quelques centaines de
milliers de transistors. Les super-ordinateurs des années 60 en contenaient au total
150000, répartis entre de nombreuses armoires, et le processeur Intel 386SX, encore très
répandu, en contient 275000. Jusqu’ici, l’évolution a consisté à intégrer sur un même
composant des fonctions jusque-là implantées sur des puces distinctes, voire des cartes
ou des meubles distincts. C’est ainsi qu’une puce de 1990 contenait dans 2 cm sur 2
toutes les fonctions qui emplissaient une salle des années 1960.
Dans les processeurs les plus récents, le potentiel de transistors est utilisé de
plusieurs façons. Tout d’abord pour augmenter le parallélisme et donc la performance,
en traitant 64 bits en parallèle au lieu de 32, ou en traitant simultanément plusieurs
instructions à des stades différents (architecture dite « pipeline »). Ces deux approches
font passer le nombre de transistors par unité de calcul aux alentours de 1 million. Au-
cxlii
delà, on peut implanter sur la même puce deux ou trois unités de calcul et la logique
nécessaire pour les gérer, comme dans le Pentium ou le PowerPC (architecture dite
« superscalaire »), et utiliser ainsi 3 millions de transistors. Enfin, on peut intégrer à la
puce des fonctions confiées jusque là à des composants séparés, comme le calcul en
virgule flottante, ou entièrement nouvelles comme la gestion de l’énergie consommée.
Il est clair que ce mouvement ne peut que continuer, et que des fonctions
actuellement réalisées sur des composants séparés vont trouver leur place à l’intérieur
du microprocesseur, en même temps que des fonctions nouvelles viendront s’y ajouter.
Mais alors que la simple augmentation du parallélisme n’implique pas nécessairement
de modifications dans les conventions de communication entre la puce et l’extérieur,
c’est à dire son jeu d’instructions, son enrichissement fonctionnel exige un
enrichissement parallèle de ce répertoire.
Cette évolution inéluctable ramène à ses justes proportions le débat actuel entre
les tenants des architectures dites Risc (« reduced instruction set ») contre Cisc
(« complex instruction set »). Rappelons que vers le milieu des années 70, un courant de
recherche s’est attaché à évaluer une nouvelle conception des ordinateurs où le
répertoire d’instructions exécutables par le matériel serait réduit à sa plus simple
expression, soit une dizaine d’instructions, toutes les opérations plus complexes étant
réalisées par programmation. L’idée était de simplifier le matériel afin de le rendre aussi
rapide et bon marché que possible, en espérant compenser ainsi le ralentissement qui
résulterait de l’exécution d’une couche supplémentaire de logiciel.
Ces idées ont été reprises dans les années 80 pour concevoir des microprocesseurs
destinés à supporter le système d’exploitation Unix. Depuis lors la querelle entre Unix
et les autres systèmes s’est doublée d’une querelle entre les tenants des machines Risc et
les constructeurs d’autres machines, baptisées pour la circonstance Cisc. Au début des
années 90, les puces Risc ont effectivement pris une génération d'avance dans
l’exploitation des technologies, dont on a pu croire qu'elle consacrait une supériorité
intrinsèque de l'approche Risc.
Le processeur Pentium d'Intel, mis sur le marché en 1993, comble cet écart en se
situant au même niveau technologique et au même niveau de puissance, et en utilisant la
philosophie de conception Risc dans la réalisation d'un processeur doté d'un jeu
d'instructions riche et compatible avec ses processeurs existants. De leur coté, IBM,
Apple et Bull associés avec Motorola dans Power Open ont décidé d'utiliser les mêmes
composants Power dans des matériels de type PC et dans des matériels Unix. Le secteur
des processeurs pour PC et celui des processeurs Unix sont en train de fusionner.
cxliii
Jusqu’alors, le secteur des composants Risc pouvait être considéré comme un
secteur concurrentiel particulier d'où les processeurs de type Intel 80X86 étaient
absents, et où la dynamique de concentration ne jouait qu'à l'intérieur d'un marché de
taille encore faible. C'est maintenant dans un segment de marché unique allant des PC
aux systèmes Unix, en attendant de s'étendre aux grands systèmes, que va jouer la
dynamique concurrentielle de concentration caractéristique des secteurs fortement
monopolistes. Le round suivant se jouera non plus sur l'opposition factice entre Risc et
Cisc, mais sur la capacité des promoteurs des actuels Pentium, Power, Alpha, Sparc,
PARisc et Mips à continuer d'investir les quelques milliards de $ nécessaires pour
mettre sur le marché leurs successeurs. Il est clair que certains le feront, et offriront les
processeurs du futur à des niveaux de prix qui resteront ceux des composants micros,
c'est à dire de 200 à 400 $ indépendamment de leur contenu fonctionnel et de leurs
performances. Seuls subsisteront les offreurs qui sauront atteindre une part de marché
cohérente avec une échelle optimale de production qui se chiffre en dizaines de millions
d'unités.
Le débat Risc contre Cisc est donc en voie d’être rapidement dépassé. On voit
d’ailleurs mal comment une puce de plusieurs dizaines de millions de transistors, plus
riche en fonctions que tout un super-ordinateur des années 80, pourrait se contenter d’un
jeu d’instructions « réduit ». Des deux efforts d’origine, réduire le nombre d’instructions
différentes et simplifier la structure de chaque instruction, seul le second restera visible
au niveau de la puce. En revanche, il est probable que chacun des blocs fonctionnels qui
composent le processeur sera conçu selon la philosophie Risc avec un jeu d’instructions
réduit. Autrement dit, le concept Risc restera comme un ensemble de principes
architecturaux concernant la structure interne des processeurs, et non pas comme une
caractéristique distinctive de certains. Les quelques microprocesseurs qui survivront
seront en quelque sorte Risc à l’intérieur et Cisc à l’extérieur.
Perspectives industrielles
cxliv
peuvent éliminer les problèmes de rayonnement thermique ou autoriser de vitesses de
commutation plus élevées, mais n’ont que peu de chances de réduire les coûts de
fabrication, et exigeraient probablement des coûts de développement accrus.
Face à l’accroissement inexorable du coût fixe des lignes de production, qui est
d’ores et déjà voisin du milliard de $ et passera à coup sûr le cap des 2 milliards vers
1998, plusieurs acteurs explorent le potentiel de nouvelles technologies de production
qui ramèneraient le coût unitaire des lignes de production en dessous des 500 millions
de $, avec une capacité réduite dans des proportions voisines. Ces « minifabs » auraient
en outre l’avantage de permettre des cycles de production beaucoup plus courts, et donc
au total une plus grande souplesse et des échelles de production plus faibles. Dans la
mesure où ces nouvelles technologies se révèlent viables, on peut néanmoins penser que
leurs avantages porteront surtout sur les séries relativement courtes, et que les usines
traditionnelles conserveront leur avantage économique pour les processeurs produits en
très grande série. En tout état de cause, l’apparition des « minifabs » ne ferait
probablement qu’introduire un palier de quelques années dans le processus, et leur coût
lui-même reprendrait une croissance parallèle à celle des usines intégrées actuelles.
cxlv
Cette tendance à la réduction du nombre des acteurs ne peut être contrecarrée que
par un élargissement du marché, ce qui explique les efforts des fabricants de
composants pour leur trouver de nouvelles applications, que ce soit dans l’automobile,
l’électronique domestique ou le multimédia.
En plus des fournisseurs traditionnels que sont les USA et le Japon, des pays
comme la Corée ou Taiwan investissent aujourd’hui massivement dans la construction
d’usines de semi-conducteurs, le raisonnement économique des industriels étant faussé
par d’importantes subventions publiques. Les seules usines en cours de construction à
Taiwan en 1994 auront une capacité presque suffisante pour satisfaire la demande
mondiale actuelle de puces mémoire. On peut donc s’attendre à ce que l’industrie
connaisse une situation de surcapacité dans les années 1995-1996, entraînant d’une part
une guerre des prix et d’autre part la recherche d’autres débouchés. Cette situation sera
favorable aux concepteurs « fabless » et à une diffusion des composants, mémoire et
processeurs, dans un nombre croissant d’applications autres que l’informatique au sens
habituel.
cxlvi
Chapitre 8
Les matériels, un secteur dispersé
Les matériels, toutes tailles et toutes fonctions confondues, comptent pour environ
60% dans le chiffre d’affaires total de l’industrie informatique. Tout utilisateur
d’informatique est nécessairement client d’un ou plusieurs fournisseurs de matériel,
alors qu’il pourrait se passer assez largement des firmes de logiciel et surtout de
services. De plus, à travers les phénomènes de compatibilité et de standards, les autres
offres s’ordonnent autour des matériels, qui apparaissent d’une certaine façon comme le
secteur central qui commande tout le reste.
Dans le même temps, ce secteur des matériels est souvent considéré comme un
secteur en difficulté, ou à tout le moins comme le plus touché par la crise qui secoue
l’industrie informatique. On a même pu lire que les constructeurs de matériel sont
condamnés à des marges nulles, et donc à disparaître à terme. Quelque hâtif et absurde
que puisse être ce pronostic (peut-on imaginer une informatique sans un support
matériel pour exécuter les programmes ?), il témoigne des interrogations que soulève
l’évolution du secteur des matériels, auxquelles nous allons essayer de répondre dans le
présent chapitre.
Historique
Les matériels ont longtemps été le centre de toute l’offre informatique. Les
premiers acteurs étaient tous des constructeurs de matériel, et le matériel a été jusque
vers 1970 la seule prestation facturable. Tout le reste, logiciels, services de maintenance,
d’entretien, de formation, … était fourni gratuitement pour accompagner le matériel, et
le coût en était couvert par la facturation de ce dernier. De plus, chacun des
constructeurs offrait la panoplie complète des matériels et en assurait l’intégration chez
le client. L’ensemble de l’industrie informatique se résumait donc à un secteur
produisant des systèmes intégrés, dont le chiffre d’affaires était exclusivement assis sur
le matériel, même si les fournisseurs exerçaient de nombreuses activités
complémentaires nécessaires à la production de tels systèmes, dont celles de services et
de développement de logiciels.
Cette offre intégrée a commencé à se fissurer vers la fin des années 60 avec
l’apparition des compatibles IBM. Certaines firmes ont alors entrepris d’offrir isolément
certaines unités destinées à se substituer aux unités équivalentes d’IBM. L’offre de ces
firmes pouvait se limiter strictement au matériel dans la mesure où elles pouvaient
cxlvii
compter sur IBM pour fournir les autres éléments sans lesquels leur offre n’aurait pas
été viable, les logiciels et les services par exemple. C’est d’ailleurs souvent le refus (réel
ou allégué) d’IBM de fournir ses services en relation avec d’autres matériels qui a
provoqué les premiers procès intentés contre IBM dans cette période.
cxlviii
penser que le modèle de l’assembleur pur va se généraliser progressivement à tous les
segments. La structure industrielle qui prévaut dans les micro-ordinateurs de type PC
préfigure ainsi ce que sera demain toute l’industrie du matériel.
Technologie et économie
Au niveau le plus bas, les composants sont placés sur des cartes de 10cm à 30cm
de coté, qui reçoivent des puces de différentes sortes et supportent également les
conducteurs qui relient les puces entre elles et les connecteurs qui relient la carte elle-
même au reste de l’ordinateur. Ces composants sont le plus souvent soudés sur la carte,
qui constitue un ensemble fonctionnel bien défini. Tout micro-ordinateur contient une
carte-mère sur laquelle sont implantées les fonctions de base : processeur, mémoire
principale, mémoire intermédiaire ou cache, adaptateurs pour les unités connectables,
bus local pour gérer les échanges d’informations entre composants, éventuellement
processeurs spécialisés. Elle peut être complétée par des cartes spécialisées qui réalisent
des fonctions comme le contrôle des communications, les entrées et sorties graphiques,
sonores ou vocales, etc.
La carte mère est installée dans un boîtier qui contient également les unités
internes comme les disques, l’alimentation électrique et le dispositif de refroidissement
éventuel, ainsi que des emplacements pour des cartes d’extension et des unités
additionnelles. Enfin, le système complet est généralement construit en interconnectant
par des câbles des unités distinctes telles qu’une unité centrale, un clavier, un écran, une
imprimante, etc.
La fabrication des cartes ressemble un peu à celle des composants, si ce n’est que
l’échelle est totalement différente : les conducteurs déposés ou gravés sur la carte ont
une largeur de l’ordre du millimètre et les composants qui y sont insérés ont des
dimensions de l’ordre du centimètre. Cette fabrication est largement automatisée, mais
les techniques d’assemblage sont tout à fait courantes dans l’industrie électronique en
général et ne sont pas spécifiques du secteur informatique. Les investissements
correspondants restent raisonnables, conduisant à une échelle économique de
production qui se chiffre en dizaines de milliers.
L’assemblage final des unités à partir des cartes est par contre une opération
essentiellement manuelle, qui peut être réalisée par du personnel d’installation ou
d’entretien, voire par l’utilisateur lui-même, à l’exception de certains systèmes
particuliers très miniaturisés.
En 1974/1975, les tout premiers micro-ordinateurs ont été vendus en kit par des
revues d’amateurs d’électronique. Aujourd’hui encore, on peut trouver dans les
boutiques spécialisées tous les éléments nécessaires au montage d’un micro-ordinateur :
cxlix
processeur, puces mémoire, carte-mère, disques, clavier, écran, … qui sont vendus sous
forme de kits ou individuellement. Même dans des ordinateurs fournis tout assemblés, il
est possible aux utilisateurs d’ajouter ou de remplacer un grand nombre d’éléments
comme la mémoire, des cartes d’extension, les unités de disques voire l’unité centrale,
sans formation spéciale ni outillage spécial. L’assemblage d’un micro-ordinateur est une
opération à la portée d’un amateur raisonnablement adroit, et ne demande que quelques
heures.
De fait, alors que les fabricants de microprocesseurs ne sont pas plus d’une
douzaine (et nous avons vu que ce nombre ne peut que se réduire), il existe des milliers
de fournisseurs de micro-ordinateurs dans le monde. Certains ont une envergure
mondiale, d’autres n’opèrent que dans une seule ville. Certains ont mis en place leur
propre réseau de distribution, d’autres s’en remettent entièrement à des distributeurs
spécialisés. L’existence d’une industrie des composants et de fournisseurs de progiciels
cl
indépendants a permis l’existence d’un grand nombre d’assembleurs qui mettent en
œuvre des stratégies très diversifiées.
Il est également important de noter que la faiblesse des obstacles à l’entrée dans le
métier d’assemblage de matériels rend crédible toutes les menaces d’intégration. En
amont, les fabricants de composants peuvent vouloir offrir des systèmes complets,
comme le font d’ailleurs de façon limitée Intel pour les systèmes hautement parallèles et
Motorola pour les systèmes de communication. Des sociétés de service ou de progiciels
peuvent vouloir exploiter sous forme de matériel une compétence acquise dans leurs
activités de base, en offrant par exemple des terminaux spécialisés par application. Les
clients industriels importants peuvent également vouloir assembler les systèmes qu’ils
utilisent, et éventuellement mettre ces produits sur le marché. Toutes ces menaces
contribuent également à limiter la profitabilité du secteur.
Stratégies concurrentielles
Quel que soit le secteur où elle opère, la firme doit y rechercher un avantage
distinctif sur ses concurrentes, et pour cela doter ses produits de caractéristiques
spécifiques qui donnent aux clients potentiels des raisons de les choisir de préférence à
ceux des autres firmes.
Le prix d’un produit par rapport aux produits concurrents est en règle générale le
plus important facteur concurrentiel, et il intervient toujours dans le choix des clients
quelle que soit la stratégie mise en œuvre par le fournisseur. L’entreprise peut donc
choisir l'arme des prix comme avantage concurrentiel majeur. Au contraire, elle peut
renoncer à pratiquer les prix les plus bas, mais doter ses produits de caractéristiques
exceptionnelles qui justifient leur achat par une partie au moins de la clientèle. On parle
alors d’une stratégie de différenciation.
cli
Stratégies de base
Nature de l'avantage
Domaine produi t coûts
de l'avantage
domination
tout le secteur différenciation par les coûts
Dans les secteurs dispersés, où opèrent par définition un grand nombre de firmes,
la plupart adopteront une stratégie de concentration sur un segment particulier du
marché. Si d’aventure certaines choisissent une stratégie de domination globale, elles
auront du mal à réussir, car elles se heurteront dans chaque segment à des firmes
spécialisées mieux adaptées aux besoins particuliers. La domination globale par les
produits est vouée à l’échec dans un marché vaste et varié, tandis que les tentatives de
domination globale par les coûts ne réussiront au mieux que dans certains segments
sensibles aux coûts. Il peut néanmoins arriver que le caractère dispersé d’un secteur soit
purement circonstanciel et ne s’appuie sur aucune caractéristique structurelle, auquel
cas une stratégie de domination peut réussir. Mais dans tous les cas où le secteur est
dispersé pour des raisons structurelles telles qu’une échelle économique de production
faible ou une demande très diversifiée, on peut considérer que les stratégies de
domination ne sont pas viables. Tous les acteurs adopteront des stratégies de
concentration, qui ne diffèrent que par le choix des critères de segmentation et pourront
de ce fait viser des segments de tailles très différentes.
Dans les segments retenus, l’offreur pourra opter entre les deux stratégies
fondamentales de concurrence : par les prix ou par les qualités du produit. Le caractère
essentiellement manuel des opérations d’assemblage donne peu de possibilités de
réduire les coûts en investissant dans les équipements de production. Les firmes qui
optent pour la concurrence par les prix décideront donc le plus souvent de se limiter à
l’assemblage de produits relativement banalisés à partir de composants standard du
marché, afin d’éviter les frais de recherche et de développement. En revanche, les
clii
firmes qui choisissent la concurrence par les produits devront consentir des dépenses de
recherche et développement plus élevées afin de définir des produits spécifiques, voire
concevoir et produire elles-mêmes certains composants ou sous-ensembles en partie
originaux.
Pour ces raisons, les obstacles à l’entrée ainsi que l’échelle économique de
production sont en règle générale plus élevés pour les stratégies de spécialisation que
pour la concurrence par les prix. Ceci pose de façon aiguë le problème de la
distribution : alors que les firmes offrant des produits banalisés à bas prix peuvent s’en
remettre à des circuits généralistes, les constructeurs spécialisés doivent être sûrs que les
circuits qu’ils utilisent sont bien capables d’atteindre et de convaincre le segment de
marché particulier qu’ils visent.
Pour les offreurs qui ont choisi une stratégie de spécialisation, les sources
potentielles d'avantage concurrentiel peuvent être très diverses et variables d'une firme à
l'autre : fonctions, performances, qualité, délai de livraison, mais aussi apparence,
esthétique ou dimensions. L’objectif de chaque offreur est de réussir à isoler
suffisamment les segments de marché où il opère et de les protéger par des obstacles à
l’entrée suffisants. Ces segments peuvent alors devenir des pseudo-secteurs où joue une
dynamique interne de concentration, et où il sera possible de retrouver de meilleurs
niveaux de profitabilité. L’action conjuguée des acteurs spécialistes tend ainsi à
fragmenter le marché en segments dont la taille est un petit multiple de l’échelle
économique de production, et à faire du secteur dispersé la juxtaposition d’un grand
nombre de sous-secteurs concentrés.
Mais les obstacles à la mobilité entre segments, qui jouent dans ce cas le rôle des
obstacles à l’entrée, sont le plus souvent relativement faibles et peu défendables. De
plus, le grand nombre de dimensions possibles de segmentation fait de chaque client
potentiel la cible de plusieurs stratégies, et l’oblige à arbitrer entre des offres qui vont
des systèmes banalisés bon marché à des systèmes personnalisés plus onéreux. En
particulier, les stratégies de concurrence par des critères généraux comme les prix sont
présentes, et souvent efficaces, dans presque tous les segments. La pression sur les prix
est générale, et les profits ne sauraient beaucoup s’écarter de la moyenne, même pour
les firmes qui réussissent le mieux une stratégie de spécialisation. Il en résulte
cliii
également qu’une stratégie de prix bas bien exécutée conduit à des volumes élevés alors
même que le volume ne constitue pas en soi un avantage.
Pour un offreur donné, le choix d’un ou plusieurs segments et d’une stratégie doit
reposer sur des avantages propres à la firme. Un faible coût de main d’œuvre orientera
naturellement la firme vers une stratégie de concurrence par les prix. De même, la
maîtrise d’une technologie orientera vers une concentration sur des produits et des
segments où cette technologie peut être exploitée pour créer un avantage, et une
familiarité exceptionnelle avec une classe d’utilisateurs poussera la firme à se
spécialiser dans les besoins de ce segment de marché. Encore faut-il que les
caractéristiques distinctives sur lesquelles repose l’avantage concurrentiel ne puissent
pas être reproduites à l’identique par les concurrents, et correspondent donc à un savoir-
faire particulier de la firme.
Au total, les règles du jeu qui gouvernent le métier d’assembleur de matériel sont
caractéristiques d’un secteur dispersé.
Certains secteurs comme celui des PC impliquent une activité de pur assemblage
et donc une échelle de production faible. Ces secteurs sont peuplés de nombreuses
firmes dont les plus importantes occupent moins de 15% du marché. La profitabilité de
ces firmes se situe dans une fourchette étroite, dont le niveau moyen est cohérent avec
celui des autres industries d’assemblage, c’est à dire quelques points de pourcentage,
typiquement entre 4% et 6% pour les firmes qui réussissent le mieux. La concurrence
cliv
est vive et se traduit à la fois par l’apparition fréquente de produits nouveaux selon un
cycle de l’ordre de l’année, et par une guerre des prix continuelle. Cette concurrence
remet constamment en question les positions acquises, sans que la part de marché
confère un avantage concurrentiel définitif. Les positions relatives des firmes changent
donc d’année en année, la mortalité est importante comme d’ailleurs la natalité. Cette
dynamique sectorielle se situe ainsi à l’exact opposé de celle qui régit le secteur des
composants.
clv
Cette évolution d’ensemble peut être exploitée de deux façons : ou bien réduire le
nombre de niveaux d’assemblage, ou réduire la complexité et les dimensions de chaque
niveau. En suivant la première voie, l’unité centrale des micro-ordinateurs comparables
aux machines courantes actuelles se réduira bientôt à deux puces sur une carte, plus une
ou deux unités de disque et quelques connecteurs externes, mais la modularité et la
capacité d’évolution du système seront alors limitées. Adopter la seconde voie permet
de conserver la modularité et la possibilité d’extension et de remplacement de fonctions.
Dans cet esprit, les constructeurs peuvent délibérément choisir d’implanter des
fonctions optionnelles sur des cartes séparées ou des composants amovibles sur la carte
mère.
Par ailleurs, réduire les dimensions ne constitue pas toujours un avantage concret.
Un ordinateur de bureau doit être doté d’un écran et un clavier de bonne taille, et les
autres unités peuvent être placées à un endroit où elles ne gênent pas. Pour un même
ensemble de fonctions, différentes formes de réalisation sont possibles, et donc
plusieurs systèmes différents répondant au même besoin fonctionnel peuvent être
proposés. Dans un secteur dispersé à faible échelle économique de production, on peut
prévoir que toutes les offres correspondantes coexisteront et que le client aura le choix.
Alors que, depuis les années 60, l’industrie informatique traditionnelle réunissait
chez les mêmes acteurs tous les rôles allant de celui de fabricant de composants à celui
d’assembleur de systèmes, le monde du PC s’est construit d‘emblée sur une séparation
nette de ces rôles, qui y sont joués par des secteurs distincts.
Cette répartition des rôles, qui permet à chaque acteur d’aller jusqu’au bout de sa
logique économique propre, explique tout à la fois la vitalité du secteur des matériels, le
nombre des fournisseurs, la guerre des prix et l’amélioration continuelle du rapport
prix/performances, la variété des offres, le gouffre qui sépare le ratio prix/performances
des micro-ordinateurs de celui des systèmes conventionnels, mais aussi la rentabilité
modeste et le taux de mortalité des entreprises du secteur.
clvi
Rappelons une fois encore que les différences entre le monde des micro-
ordinateurs et celui de l’informatique traditionnelle ne sauraient s’expliquer par des
raisons techniques. En réalité, ce sont les mêmes technologies qui sont exploitées dans
les deux cas, et les causes des différences doivent être recherchées dans les structures
industrielles respectives.
Peut-on alors penser que le monde des moyens et grands systèmes, qui a jusqu’ici
conservé pour l’essentiel sa structure intégrée, et celui des stations de travail qui s’est
construit sur le même modèle, vont se convertir à cette séparation des rôles qui fait le
dynamisme du monde micro-informatique ?
processeurs de 200 ou 300 Mips, pour une augmentation relativement faible du coût
total.
Les paramètres physiques qui déterminent les coûts d’assemblage, c’est à dire les
dimensions des cartes, des puces et des conducteurs, restent stables dans le temps car les
conséquences du progrès technologique sont purement internes à la puce. Contrairement
au cas des composants, les mêmes techniques d’assemblage peuvent être utilisées pour
des générations différentes, et l’échelle économique de production des cartes ou des
systèmes complets reste à peu près constante. Dans un marché en expansion, il y a donc
place pour un nombre croissant de concurrents, et la dispersion et la variété du secteur
auront tendance à augmenter.
Les matériels produits selon le modèle des PC, et même les constructeurs actuels
de PC, entreront donc de plus en plus en concurrence directe avec des ordinateurs
traditionnels en jouissant d’avantages considérables dans le domaine des prix et de la
variété de l’offre. Cette concurrence se situe aujourd’hui à la limite basse des mini-
ordinateurs, où les micros de haut de gamme ne cessent de progresser. Dans le domaine
des stations graphiques, les particularités des processeurs Risc maintiennent encore une
frontière avec les micro-ordinateurs, mais la fusion imminente des processeurs en un
seul secteur va permettre aux PC de devenir directement concurrentiels. En se
structurant comme le monde du PC, ce nouveau segment combiné des micro-
ordinateurs et des stations acquerra encore plus de vigueur pour concurrencer les
matériels traditionnels, y compris par des multiprocesseurs à base de moteurs bon
marché du commerce. Il existe d’ailleurs déjà dans le haut de gamme des segments
isolés comme celui des grands ordinateurs massivement parallèles ou des serveurs de
fichiers construits à partir de puces standard, qui constituent autant de foyers à partir
clvii
desquels le modèle PC se propagera dans toute la gamme des fonctions et des
puissances.
Cette vision d'un secteur des matériels extrêmement vivant et créatif est à l'opposé
des idées à la mode qui voient dans la crise actuelle les prémices d'un effacement
progressif des constructeurs de matériel derrière les offreurs de logiciel et de services,
voire de leur disparition à terme.
clviii
Ce pronostic défavorable est doublement superficiel. Le secteur des matériels
représente en 1992 plus de 200 Milliards de $ soit 64% du CA total, en croissance de
5.7% par rapport à 91. Même si le secteur des progiciels (12% du total avec 37
Milliards de $) et celui des services (16% avec près de 50 Milliards) croissent plus vite,
le matériel reste de loin le secteur le plus important. En tout état de cause, il est bien
difficile d'imaginer une informatique sans matériels pour l'exécuter, ou des matériels
sans constructeurs pour les produire. Le secteur des matériels n'est aucunement menacé
de disparition.
En tout état de cause, la santé d’une industrie ou d’un secteur industriel doit
s’apprécier non pas à la seule aisance matérielle des acteurs qui la constituent, mais
principalement selon leur capacité collective à satisfaire la demande du marché. En
outre, les difficultés financières voire la disparition de telle ou telle entreprise ne sont
pas nécessairement des signes de mauvaise santé de l’ensemble de l’industrie. Pas plus
que dans l’étude des espèces vivantes, il ne faut confondre la santé de l’espèce des
constructeurs de matériel informatique avec celle de chaque individu pris isolément.
Mesurée comme il se doit à l’aune de l’introduction de produits nouveaux et à
l’évolution des prix et des performances, l’industrie des matériels informatiques est
éclatante de santé, même si sa nouvelle logique ne lui permet plus les marges
confortables dont jouissaient naguère certains généralistes.
clix
Chapitre 9
La différenciation des entreprises
Dans les deux chapitres précédents, nous avons vu que des productions différentes
par leur structure de coûts donnent naissance à des structures sectorielles différentes :
secteur concentré quand le ratio des coûts fixes aux coûts variables unitaires est élevé,
secteur dispersé dans le cas inverse. Le secteur des matériels apparaît alors comme un
secteur hétérogène, à l’intérieur duquel la fabrication des composants d’une part,
l’assemblage des matériels d’autre part obéissent à des logiques de production et à des
dynamiques concurrentielles radicalement différentes. La structure des coûts de
production, et singulièrement le rapport des coûts fixes aux coûts variables, jouent un
rôle fondamental en déterminant le degré de concentration, le potentiel de profitabilité
et la diversité du secteur, ainsi que la viabilité des choix stratégiques ouverts à chacun
des acteurs. Nous verrons plus tard comment ces mêmes considérations s’appliquent
aux activités de logiciel et de services prises isolément.
clx
l’intégration verticale des étapes de fabrication, contrairement aux conceptions
habituelles des économistes.
Porter avait déjà noté que des stratégies différentes demandent des qualités
différentes et incompatibles. Une stratégie reposant sur le contrôle des coûts exige une
supervision constante à des niveaux très détaillés, des objectifs quantitatifs stricts et une
psychologie qui valorise le sens de l’économie. Au contraire, une stratégie reposant sur
les qualités du produit exige d’encourager la créativité et l’autonomie individuelle par
un système de mesure plutôt qualitatif, et par un style général propre à attirer des
professionnels de haut niveau. A ces stratégies correspondent des personnalités
d’entreprise incompatibles, au point qu’une entreprise qui négligerait de choisir
clairement entre les deux serait vouée à l’échec, ce que Porter appelle « enlisement dans
la voie médiane ».
clxi
Facteurs Stratégiques
clxii
nouveau marché, offrir le premier un nouveau produit et opérer au moindre coût sont
autant d’avantages concurrentiels qui peuvent être déterminants. Une stratégie possible
est donc de consacrer aux études préliminaires aussi peu de temps et d’efforts que
possible, et de laisser le marché porter un jugement sur les produits. Dans la mesure
précisément où les investissements spécifiques ont été faibles et où un produit nouveau
peut être rapidement mis sur le marché en cas d’échec du précédent, cette stratégie peut
être gagnante sur un marché très mobile.
Pour analyser les caractéristiques internes des entreprises, qui gouvernent leur
comportement et forment en quelque sorte leur personnalité, nous utiliserons le modèle
des « sept S’s » proposé par McKinsey . Dans cette représentation, les constituants de la
41
Un thème central du livre de Peters et Waterman est que les facteurs les plus
informels (« soft ») et les moins directement contrôlables, c’est à dire ceux qui
constituent les valeurs partagées, la culture et le style de management, sont aussi ceux
qui ont la plus grande influence sur le comportement des personnes et donc le succès de
la firme. Un rôle essentiel du management consiste donc à modeler indirectement la
culture d’entreprise et le style de management à travers son propre comportement et par
clxiii
des actions de nature symbolique, plus que d’intervenir directement dans les décisions.
Cette vue s’oppose à celle de l’école rationaliste incarnée par Taylor.
Notre propos n’est pas de résumer cet ouvrage, qui a eu en son temps un assez
grand retentissement et a soulevé de nombreuses critiques. Pour certains chefs
d’entreprise, il ne fait qu’expliciter leur expérience quotidienne. Pour d’autres au
contraire, ses thèses relèvent de la rêverie et sont dangereuses pour l’entreprise. Nous
pensons que la diversité des réactions s’explique en partie par le fait que le poids relatif
de chacun des Sept S dans le succès de l’entreprise varie selon le type d’activité, ce que
nous cherchons précisément à montrer, et que Peters et Waterman n’ont pas abordé dans
leur ouvrage. Autrement dit, certaines formes d’activité demandent une forte
implication de chaque collaborateur et peuvent largement se passer de systèmes
formalisés, alors que d’autres exigent des systèmes de contrôle très rigoureux qui font
passer au second plan les motivations individuelles. Nous reviendrons plus loin sur cette
idée.
clxiv
Dans la plupart des entreprises, la structure et les systèmes font l’objet de
descriptions formelles établies sous le contrôle de la Direction et publiées sous forme
d’organigrammes et de manuels de procédure. La conformité à ces descriptions est
contrôlée en permanence, quelquefois par des services spécialisés d’audit, et tous les
changements font l’objet d’études approfondies et d’actions de mise en œuvre
spécifiques. Structure et systèmes forment donc des composantes très formalisées de la
personnalité de l’entreprise, placées sous le contrôle direct et explicite de la Direction.
Secteur Strategy
Shared
Skills
Values
Style Culture
clxv
Nous appellerons culture de l’entreprise la combinaison de son style et de ses
valeurs, c'est à dire l’ensemble de références, de valeurs partagées et de normes de
comportement qui gouvernent, consciemment ou inconsciemment, les actions de chaque
individu y compris les dirigeants et tous les autres responsables, et sur lesquels la
Direction n’a qu’une influence indirecte et limitée. L'organisation et la culture forment
ensemble la personnalité de l'entreprise.
Plusieurs auteurs ont contesté ce postulat à partir des années 60, mais il a fallu
attendre 1967 pour que soient exprimées et développées dans l’ouvrage maintenant
classique de Lawrence et Lorsch les idées fondatrices de l’école « relativiste » ou « de
42
C’est sur ces travaux que nous nous appuierons dans la suite, pour deux raisons
essentielles. Premièrement, en tout état de cause, la théorie relativiste nous semble seule
conforme à la réalité de l’expérience des dirigeants qui ont eu l’occasion de connaître
des environnements suffisamment différents. En second lieu, la présentation et les
éléments d’explication proposés par Lawrence et Lorsch forment une bonne base pour
notre propos, qui est de caractériser les formes organisationnelles les mieux adaptées
aux différents secteurs d’activité.
La segmentation et la différenciation
clxvi
Ce fractionnement, que la plupart des auteurs appellent segmentation, conduit à
créer une hiérarchie d’unités, dotées chacune de ressources et de responsabilités, et où
les responsabilités de chaque unité sont la réunion des responsabilités des sous-unités
qui la composent.
Cet ensemble de différences induit à son tour des différences dans l’organisation
interne de chaque unité, telle qu’elle résulte du niveau suivant de segmentation.
Différenciation et incertitude
clxvii
L’intégration
clxviii
l’entreprise, la Direction prend des décisions de segmentation, qui créent des unités de
rang immédiatement inférieur, dotées chacune d’objectifs spécifiques et d’un
environnement local. La spécificité des objectifs et des environnements entraîne une
différenciation culturelle entre les unités, dont la Direction doit tenir compte dans la
mise en place des dispositifs formels d’intégration qui constituent le système de
management. Dans la mesure où les unités ainsi constituées doivent se segmenter à leur
tour, leur culture propre et leur environnement local interviendront dans leurs décisions
d’organisation, éventuellement de façon conflictuelle avec la culture des échelons
supérieurs.
Les mécanismes de coordination peuvent être plus ou moins formels. Leur part
formalisée constitue les systèmes au sens des 7S, tandis que leur part informelle relève
de la culture. Autrement dit, les systèmes de management peuvent être définis comme la
partie formelle des mécanismes de coordination, tandis que la culture regroupe en
particulier l’orientation temporelle, qui dépend du cycle de l’activité, l’orientation
interpersonnelle et la part informelle des mécanismes de coordination.
Bien qu’ils aient noté que « le type d’organisation requis varie suivant la nature
des biens ou services fournis... », Lawrence et Lorsch ont surtout pris en compte
l’influence de l’environnement externe et de la fonction dans l’entreprise (recherche,
vente, production...), et se sont peu occupés de rattacher l’organisation aux biens et
services produits. Nous nous proposons de montrer maintenant comment l’organisation
et la culture d’une entreprise sont influencées par les caractéristiques de sa production,
en particulier :
–la relation temporelle entre les dépenses et les recettes, c’est à dire la durée des
cycles fondamentaux de production,
–l’échelle de production, dont nous avons montré qu’elle dépend du rapport des frais
fixes aux frais variables.
clxix
orientations temporelles différentes. En effet, « l’orientation temporelle est liée au temps
de réponse des résultats définitifs » , c’est à dire au délai nécessaire pour connaître le
43
résultat réel des décisions qu’on a prises. Nous verrons plus loin que ce délai, qui
constitue en quelque sorte la portée temporelle des décisions ou l’horizon de
l’organisation, est une bonne expression de l’incertitude, et contribue fortement à
modeler l’organisation et la culture des entreprises.
D’autre part, dans la vie réelle, ni les coûts ni les bénéfices d’une décision ne
peuvent être connus avec certitude au moment où cette décision doit être prise. Leurs
valeurs et les probabilités attachées aux conséquences des actions ne représentent que
des estimations fortement subjectives. Enfin, il est généralement admis que « la plupart
des prises de décision humaines se rapportent à la découverte et à la sélection de choix
satisfaisants et non de choix optimaux » . 44
clxx
primordiale aux facteurs culturels qui forment la personnalité de l’entreprise dans son
fonctionnement quotidien. En effet, les décisions réflexes sont déterminées par des
règles empiriques, des consignes et des échelles de valeurs qui appartiennent pour
l’essentiel à la culture du décideur. Lorsqu’elles sont le résultat d’un travail conscient de
la Direction, ces règles et ces valeurs peuvent exprimer une rationalité conforme aux
intérêts de l’entreprise. Mais elles peuvent aussi bien en être indépendantes, et restent de
toute façon de nature générale et essentiellement qualitative.
Pour les décisions les plus importantes, qui font l’objet d’une étude spécifique, les
facteurs culturels interviennent encore pour éliminer d’emblée les lignes d’action qui ne
seraient pas conformes à la personnalité de l’entreprise telle qu’elle est perçue par les
décideurs. Enfin, même pour les actions dont les conséquences peuvent être exprimées
sous forme de flux financiers, la décision ne peut reposer sur la connaissance exacte de
flux certains, mais seulement sur des prévisions de dépenses et de recettes, affectées
toutes deux d’un coefficient d’incertitude. Toute décision comporte un risque qui ne
peut être apprécié que de manière subjective.
Certes, le décideur prudent chargera des experts de lui préparer les prévisions
aussi élaborées et aussi argumentées que possible. Ceux-ci peuvent même avoir la
sagesse de les présenter sous forme de plages de variation ou de scénarios alternatifs
assortis de coefficients de probabilité (qui leur sont largement dictés par leur propre
subjectivité). Il n’en reste pas moins qu’à l’instant de la décision, le responsable se
détermine à partir de sa propre intuition de ce qui est pour lui le plus probable. Sa
décision doit au moins autant à ses préjugés, à son expérience, à ses souhaits ou à son
affectivité qu’au raisonnement économique. Confrontés à des choix identiques, les
responsables ne prendront pas les mêmes décisions dans une organisation dont la culture
valorise la prise de risque et dans une organisation qui pousse à la prudence, ou dans
une organisation qui exalte la responsabilité individuelle et une autre qui prône la
responsabilité partagée.
clxxi
Recettes, dépenses et incertitude
Puisqu’il faut admettre que presque toutes les décisions de l’entreprise reposent
sur des données incertaines et comportent un risque réel d’erreur, il faut attacher une
importance primordiale aux possibilités de corriger une décision lorsqu’il apparaît que
ses conséquences réelles ne sont pas conformes aux prévisions ou aux attentes qui
l’avaient motivée. Ceci soulève deux questions : comment se crée l’information qui
permet de mesurer les conséquences réelles d’une décision ? et dans l’hypothèse où une
décision se révèle incorrecte, que peut-on faire à ce moment là pour la corriger ? Ces
deux questions renvoient à la relation temporelle entre la formation des dépenses et la
formation des revenus, dont nous avons évoqué au Chapitre 5 l’importance dans les
possibilités de réaction de l’entreprise à la conjoncture.
Outre que, pour une décision ou un produit donné, la réalité des coûts (le flux de
dépenses) comme celle des bénéfices (le flux de recettes), sont toutes deux inconnues au
moment de la décision, il se trouve que pour la plupart des décisions, les dépenses
doivent être engagées en partie avant que les recettes correspondantes ne soient
acquises. Autrement dit, les dépenses précèdent chronologiquement les recettes. En ce
sens, presque toutes les décisions importantes de l’entreprise impliquent donc des
investissements, même si le vocabulaire comptable réserve cette dénomination aux
dépenses dont les bénéfices attendus se situent dans des exercices comptables ultérieurs.
Au niveau d’un produit et par rapport au cycle de production habituel qui mène de
la recherche au développement, à la production et à la commercialisation, les flux de
dépenses se situent à tous les stades, les flux de recettes seulement à celui de la
commercialisation. De plus, les dépenses résultent d’une décision unilatérale de
l'entreprise, même si leur montant exact peut dépendre de facteurs extérieurs. Les
recettes, par contre, dépendent non seulement de la qualité et du prix du produit, dont
l’entreprise a le contrôle, mais aussi de facteurs extérieurs tels que la conjoncture, les
actions des concurrents, les décisions des clients, etc. Les coûts sont immédiats et quasi
certains alors que les bénéfices sont au moins en partie futurs et incertains. Autrement
dit, les décisions ont en général un premier effet direct sur les dépenses, tandis que leur
effet sur les recettes est indirect, aléatoire et tardif. On contrôle les dépenses, on espère
les recettes.
L’horizon d’une décision peut être défini comme le temps nécessaire pour en
constater les conséquences, ou plus précisément pour comparer ses conséquences réelles
clxxii
aux prévisions qui l’ont motivée. Une décision peut en effet s’appuyer sur des
prévisions pluriannuelles, et bien que certaines de ses conséquences apparaissent
rapidement, ce n’est alors qu’après quelques années qu’il est possible de juger si les
prévisions qui la motivaient sont validées.
Un type de production ou une activité peut être caractérisée par la durée du plus
long des cycles qui la gouvernent. Par exemple, dans les activités fonctionnelles, la
vente est une activité à cycle court et la R&D une activité à cycle long. Le cycle propre
de l’activité de production est très variable selon les types de production. Il peut être
aussi court que le cycle de vente pour les services de conseil ou d’assistance ou encore
l’assemblage de matériels. Il peut être très long pour la fabrication de composants, le
développement de logiciels ou les services de télécommunications ou de traitement.
Plus le cycle d’une activité est long, ou plus son horizon est lointain, et plus
l’environnement est évolutif, plus incertaines sont les décisions. En effet, chaque
décision s’appuie largement sur les conséquences observées des décisions passées
similaires. Si le cycle est court et l’environnement stable, les conséquences des
décisions récentes seront connues et constitueront une bonne base de prévision pour les
nouvelles décisions. Si au contraire le cycle est long, ou si l’environnement est
changeant, les conséquences des décisions passées seront ou bien encore inconnues, ou
bien trop anciennes pour servir de référence dans le nouvel environnement, et les
décisions courantes devront être prises dans une situation de grande incertitude. La
durée du cycle d’une activité est donc un facteur déterminant de l’incertitude au sens de
Lawrence et Lorsch, et donc de la différenciation entre unités.
Horizon et culture
cycles courts cycles longs
résultats proches des décisions résultats éloignés des décisions
responsabilités claires responsabilités diffuses
réalisme vision
réactivité planification
contrôle confiance
ajustement persévérance
ventes R&D
Dans une unité à cycles courts, les résultats sont proches des décisions, et de ce
fait les responsabilités sont claires. Les erreurs éventuelles peuvent être corrigées sans
délai, et pour autant que les responsables soient attentifs aux réactions du marché et
agissent rapidement en cas de problème, le marché lui-même peut servir de moyen de
clxxiii
contrôle opérationnel. La clé de la bonne gestion est d’ajuster en permanence les coûts
aux revenus réels.
Au contraire, dans une unité à cycles longs, les résultats sont éloignés des
décisions et les responsabilités diffuses. Les erreurs peuvent difficilement être corrigées,
et de toute façon lentement. Il est donc vital d’en commettre le moins possible, et pour
cela de procéder à des études internes assez poussées pour analyser correctement les
besoins, les opportunités, les risques et les différentes lignes de conduite envisageables.
La sanction du marché intervient trop tard dans le cycle pour que le marché puisse
servir de base au contrôle opérationnel. La clé de la réussite est de commettre moins
d’erreurs stratégiques que les concurrents. Ce souci risque d’être coûteux en contrôles,
vérifications et assurances diverses, et entraîner des réactions plus lentes aux aléas de
l’environnement.
Personnalités et structure
clxxiv
responsabilités de ses subordonnés et à faciliter le contrôle et les ajustements. Un
moyen d’y parvenir est d’isoler les activités à cycle long au niveau de l’état-major de
l’unité globale ou dans une ou plusieurs unités spécialisées si nécessaire, afin que les
autres unités fonctionnent selon des cycles plus courts. Les options de segmentation
dépendent ainsi de l’activité à travers son échelle économique, qui détermine la viabilité
économique des fragmentations éventuelles, et à travers son cycle, qui peut orienter la
définition des sous-unités.
L’organisation homogène
Dans une segmentation « homogène », les différentes unités ont des activités, des
objectifs et des environnements de même nature, et des cycles de fonctionnement
voisins. Il en résultera très probablement des cultures voisines, et semblables elles-
mêmes à la culture des dirigeants de l’entreprise. Une segmentation homogène favorise
ainsi la diffusion dans toute l’entreprise des valeurs et des modèles de comportement
propres aux dirigeants, sans que cette diffusion demande d’actions particulières. En
contrepartie, la culture homogène qui se crée ainsi a de fortes chances d’être peu
tolérante envers les autres cultures qui pourraient néanmoins être favorables à certaines
activités.
Opérant dans des champs d’action différents, les unités n’ont que peu d’occasions
et de motivations pour collaborer entre elles. Elles sont juxtaposées plutôt
qu’interdépendantes. Au contraire, comme les résultats de chaque unité s’expriment de
la même façon et sont facilement comparables tout en étant indépendants les uns des
autres, des relations de concurrence et de rivalité pourront facilement se développer. La
direction commune peut d’ailleurs les favoriser et les exploiter pour augmenter la
performance globale.
L’organisation hétérogène
Les unités qui résultent d’une segmentation hétérogène ont par définition des
activités et des objectifs différents dont la réunion forme les objectifs globaux de l’unité
clxxv
de rang supérieur. Elles ne sont concernées que par une partie limitée de
l’environnement de l’entreprise, et évoluent dans un environnement propre qui
comprend un grand nombre d’éléments déterminés de façon plus ou moins
conventionnelle par les autres unités de l’entreprise. Elles peuvent fonctionner selon des
cycles très différents, certaines selon des cycles notablement plus courts que celui de
l’entreprise. Ces unités développeront donc très probablement des cultures locales
différenciées, dont les valeurs et les modèles de comportement pourront être assez
différentes de ceux des dirigeants de l’entreprise. Maintenir une identité culturelle
d’entreprise et un niveau suffisant de motivations communes pour résoudre les conflits
nécessitera des actions spécifiques de la part des dirigeants, faute desquelles l’entreprise
risque des dysfonctionnements. En revanche, si cette culture globale est suffisamment
vivace, l’organisation sera tolérante vis à vis de différences culturelles locales entre
sous-unités. Il est plus facile à une unité résultant d’une segmentation hétérogène de se
décomposer de façon homogène que l’inverse.
Le succès de l'unité globale dépend non seulement du succès des sous-unités, mais
aussi de la qualité de l’intégration et donc des actions qui sont propres au niveau global.
Cette intégration peut demander des équipes d’état-major étoffées, voire des
départements spéciaux d’intégration. Chaque échelon de la structure ne peut contrôler
efficacement qu’un nombre limité de sous-unités, ce qui tend à favoriser une structure
d’autant plus « pointue » que la direction de l’unité globale est plus fréquemment
impliquée dans les actions d’intégration et de résolution des conflits. Un nombre élevé
de niveaux hiérarchiques étant un facteur d’inefficacité, on retrouve par ce biais l’intérêt
d’une culture permettant de résoudre les conflits à des niveaux inférieurs.
Puisque notre propos est de rattacher des personnalités d’entreprise à des formes
de production, nous nous intéresserons pour le moment au seul cas des entreprises
offrant un type de produit unique ou à tout le moins une gamme suffisamment
homogène, en laissant de coté le cas des entreprises diversifiées. C’est précisément la
connaissance des implications organisationnelles des différentes formes de production
clxxvi
qui nous permettra d’évaluer dans quelle mesure elles peuvent coexister au sein d’une
organisation unifiée, ou si au contraire il existe des incompatibilités suffisamment fortes
pour ne laisser d’autre choix que la segmentation par produits, qui équivaut en fait à un
conglomérat d’entreprises indépendantes sur le plan opérationnel.
Avec cette réserve, le choix majeur se situe entre une segmentation fonctionnelle
et une segmentation par marché, en quelque sorte spatiale. Dans la segmentation
fonctionnelle, chaque sous-unité est chargée d’une partie des activités de l’entreprise et
les exerce pour la totalité du champ d’action, marché et lieux, où l’entreprise est
présente ; les cycles des sous-unités peuvent être différents du cycle global, et différents
entre eux. Dans la segmentation spatiale, chaque sous-unité exerce la totalité des
fonctions principales de l’entreprise dans une partie seulement du champ d’action de
celle-ci, par exemple dans certaines limites géographiques ; le cycle de chaque sous-
unité est le même que celui de l’ensemble.
Parallèlement, une entreprise dont le cycle de production est long sera plus
encline à adopter une segmentation fonctionnelle qui raccourcira le cycle de certaines de
ses unités constitutives, alors qu’une entreprise à cycle court s’orientera plus volontiers
vers une segmentation spatiale.
Divisions et filiales
Ayant dans ce qui précède examiné la personnalité des entreprises offrant des
produits homogènes, nous pouvons revenir sur les firmes diversifiées et l’organisation
en divisions de produits. Ce type d’organisation repose sur une segmentation de nature
clxxvii
homogène, puisque chacune des divisions est responsable de l’ensemble des activités
concernant son ou ses produits. La différenciation entre divisions repose principalement
sur l’échelle et les cycles de production associés aux produits de chacune, et
éventuellement sur les marchés dans la mesure où les produits des divisions s’adressent
à des marchés différents.
Il résulte des considérations ci-dessus que pour ne pas être pénalisée par rapport à
ses concurrents plus spécialisés, une même division doit comporter des produits de
cycle voisin, faute de quoi l’organisation et la culture de la division seront
nécessairement mal adaptées à une partie de ses activités. Par exception, une division
principalement responsable de produits à cycle long peut aussi se charger de produits
annexes à cycle court. Sa compétitivité sera alors réduite pour ces produits et devra être
compensée par des avantages d’intégration significatifs ou par des subventions internes,
qui grèvent d’autant la compétitivité des produits principaux.
Dans quelle mesure cette spécialisation des divisions doit-elle se concrétiser par
une séparation en entités juridiques distinctes ? Autrement dit, des divisions de
personnalités différentes peuvent-elles efficacement coexister à l’intérieur d’une même
entreprise au sens juridique du mot ? La réponse est théoriquement oui, à condition que
les dirigeants de l’entreprise soient conscients des différences de culture et non
seulement acceptent mais respectent les différences d’organisation et de système de
management. Remplir ces conditions demande des qualités tout à fait exceptionnelles.
Un dirigeant élevé dans un environnement à cycles longs répugnera à se montrer aussi
tatillon voire mesquin que l’exige la bonne gestion d’une activité à cycles courts ; à
l’inverse, un dirigeant habitué aux cycles courts interviendra plus qu’il ne convient dans
des activités à cycle long et s’aliénera rapidement les personnes clé.
clxxviii
Pour les autres métiers, en particulier ceux du logiciel et des services, nous
reparlerons des questions de personnalités d’entreprise dans les chapitres qui leur sont
consacrés.
Remarquons tout d’abord qu’il existe une correspondance étroite entre l’échelle
de production et la durée du cycle. Un cycle long implique en effet généralement qu’une
part importante des dépenses entraînées par une décision, par exemple la mise en place
d’une production, est engagée de façon irréversible longtemps avant que se
matérialisent les revenus correspondants, et en particulier avant que ne soient fixés les
volumes de production. Les activités à cycle long connaissent également des
investissements et des coûts fixes importants, et donc une échelle de production
relativement élevée. Il est d’ailleurs difficile d’identifier dans la réalité, voire
d’imaginer des activités qui présenteraient à la fois un cycle de production long et une
échelle économique faible, alors que le cas inverse semble possible. En tout état de
cause, ni l’un ni l’autre ne se présentent dans l’industrie informatique.
Dans les secteurs concentrés, dont l’industrie des composants est un exemple
extrême, on compte un petit nombre d’entreprises relativement importantes, mais de
tailles très différentes. Les cycles de production sont longs et l’échelle économique est
élevée, ce qui conduit à une domination de la segmentation hétérogène de type
fonctionnel. L’entreprise est un assemblage complexe d’unités différenciées, liées entre
elles par un système de gestion élaboré, et pilotées par rapport à un plan d’ensemble qui
s’inscrit lui-même dans un système de planification à long terme cohérent avec la durée
du cycle de base. Les objectifs, la culture et les motivations sont différents suivant les
fonctions, et la cohésion d'entreprise doit être assurée par une forte culture d'entreprise
transcendant les cultures fonctionnelles.
Les qualités d’une entreprise adaptée aux cycles longs sont cohérentes avec celles
que Porter estime nécessaires à une stratégie reposant sur les qualités du produit :
encouragement à la créativité et l’autonomie individuelle, organisation souple,
délégation, motivation à long terme, système de mesure plutôt qualitatif. A une
concurrence accrue, une telle entreprise réagira donc spontanément en cherchant à
améliorer les qualités de ses produits. En revanche, mener une stratégie de concurrence
par les coûts se heurte à des obstacles culturels profonds. Si l’entreprise décide de
s’engager dans cette stratégie, par exemple pour répliquer à la concurrence dominante,
ceci exigera une action vigoureuse de la direction sur l’organisation et la culture. Pour
clxxix
réussir dans des délais acceptables, cette action gagnera à être isolée dans une partie
spécialisée de l’organisation.
Parmi ces entreprises, les petites ont une taille voisine de l’échelle économique de
production, quelque faible que soit celle-ci. Leur segmentation se fait donc sur le mode
fonctionnel hétérogène, mais leur taille réduite limite les effets de différenciation et
leurs conséquences en termes de système de gestion. Le chef d’entreprise ou le petit
groupe de dirigeants peut prendre toutes les décisions importantes et traiter ainsi les
cycles les plus longs, et créer la culture d’entreprise par son exemple et son action
directe.
Dans un tel secteur dispersé, la taille des grandes entreprises est par définition
supérieure à l’échelle économique de production. La tendance la plus naturelle sera de
privilégier une segmentation homogène par marchés, en unités réunissant commerce et
production et assez petites pour permettre le rapprochement des fonctions et le contrôle
au plus près du terrain, sur la base d’un compte d'exploitation semblable à celui de
l'entreprise elle-même. Si la direction recherche néanmoins des économies d’échelle,
production et commerce pourront être séparés, mais un système de management adéquat
devra alors permettre des ajustements rapides de l’un à l’autre.
Les qualités de l’entreprise adaptée aux cycles courts sont cohérentes avec celles
que Porter considère comme adaptées à une stratégie reposant sur le contrôle des coûts :
psychologie qui valorise la discipline et le sens de l’économie, supervision constante à
des niveaux très détaillés, centralisation, objectifs quantitatifs à court terme. Face à une
intensification de la concurrence, une telle entreprise aura naturellement tendance à
clxxx
réagir par une stratégie de concurrence par les coûts, quelle que soit la nature de
l’attaque concurrentielle. Si l’entreprise décide de s’engager dans une concurrence par
les qualités du produit, non seulement il lui faut modifier en profondeur son
organisation et sa culture, mais sa personnalité peut décourager les professionnels de
haut niveau qui seraient alors nécessaires.
Or la culture est l'élément le plus stable de l'entreprise, parce qu'elle y est diffuse
et implicite. La culture d'une entreprise n'existe par définition que dans la tête de chacun
de ses collaborateurs, et peut être extrêmement différente d'un groupe à l'autre. Agir sur
la culture d'entreprise consiste à agir sur les représentations et les systèmes de valeurs
implicitement présents dans la mentalité de chaque collaborateur. La Direction n'a que
peu de moyens d'agir directement sur elle, et doit se contenter de l'influencer à travers
l'exemple de son propre comportement et la sélection des comportements qu'elle
souhaite encourager. En tout état de cause, la culture est une donnée de fait pour la
plupart des décisions.
clxxxi
Quelles que soient les actions entreprises, la culture de l’entreprise ne se modifie
que très lentement. Si un changement d’activité ou de stratégie se heurte à des
incompatibilités culturelles, que ce soit directement ou à travers les changements
d’organisation qu’il induit, ces incompatibilités subsisteront longtemps. Il est probable
que pendant ce temps l’entreprise ne sera pas compétitive pour ses nouvelles activités,
et risque même de voir sa compétitivité se dégrader dans ses activités existantes. Le
temps d’adaptation sera d’autant plus long que l’entreprise est importante et que son
ancienne personnalité l’a rendue plus florissante. Si la concurrence est assez vive pour
éliminer du marché les entreprises mal adaptées, les stratégies ou les orientations
contraires à la culture existante sont ainsi vouées à l’échec, et les incompatibilités
culturelles doivent en pratique être considérées comme rédhibitoires.
A l’inverse, une organisation adaptée à des cycles courts sera impatiente de mettre
des produits sur le marché sans avoir pris tout le temps nécessaire pour les études
préalables et en limitant les investissements au minimum. Elle comportera de toute
façon peu de collaborateurs capables d’analyses et de prévisions à long terme. Il risque
d’en résulter des produits mal conçus et de qualité insuffisante, et un appareil de
production adapté préférentiellement aux séries courtes donc plus coûteux pour la
production en grande série. Si les produits relèvent réellement de cycles longs,
l’entreprise ne pourra pas corriger rapidement ces désavantages concurrentiels au
moment où elle les constatera, et sera totalement désarmée pour résister à ses
clxxxii
concurrents. Au total, entreprendre des activités à cycle long dans une organisation
adaptée aux cycles courts est voué presque sûrement à l’échec, d’autant plus qu’une
telle organisation ne pourrait s’accommoder de sous-unités possédant l’organisation et
la culture requises par les cycles longs.
clxxxiii
Les généralistes traditionnels
La concurrence porte sur un panier de prestations similaire pour tous les offreurs,
qui constitue en fait un produit intégré unique. L’informatique constitue donc alors un
secteur unique dont les caractéristiques sont celles de la production dominante le
matériel : investissements forts, échelle élevée et cycle long en font un secteur concentré
où s’affrontent un nombre d’acteurs relativement faibles et où les parts de marché sont
très inégales conformément à la dynamique caractéristique de ce type de secteur (voir
chapitre 7). Les personnalités des entreprises concurrentes sont adaptées au cycle long
de leur production principale, qui est d’ailleurs la seule facturée jusqu’à la fin des
années 60.
Par contre, lorsque apparaissent des firmes spécialisées dans les matériels
compatibles vers 1975, puis des spécialistes de micro-informatique à partir de 1981, ces
firmes représentent une menace d’autant plus grande qu’ils choisissent des modes de
production fondamentalement différents correspondant à des personnalités radicalement
différentes, c’est à dire à cycle court et/ou à échelle économique faible. Une stratégie
gagnante pour ces nouveaux entrants est de se spécialiser dans l’assemblage pur d’un
type unique de matériel et de se garder d’entreprendre des productions à cycle long
comme les composants ou le développement de matériels originaux. En adaptant leurs
ressources, mais aussi leur organisation et leur culture à ce type d’activité, ils peuvent
alors tirer un avantage substantiel de leurs plus faibles coûts et de leur capacité
d’ajustement et de réactions rapides.
clxxxiv
constituées peuvent se révéler non compétitives sur leurs marchés, ce qui oblige à
abandonner les activités correspondantes, à commencer par les plus concentrées comme
les composants.
clxxxv
Troisième partie
L’immatériel
Le moment est venu, dit le Morse, de parler de beaucoup de choses :
de souliers, de bateaux et de cire à cacheter, ... de choux et de rois.
Lewis Carroll
Notre démarche sera plus circonspecte. Croyant avec Descartes qu’il convient de
« diviser chacune des difficultés... en autant de parcelles... qu’il serait requis pour les
mieux résoudre », nous inclinons à penser que les discours globalisants sont une variété
d’obscurantisme. Les chapitres précédents nous ont montré que les activités de
production de matériels informatiques se décomposent en secteurs possédant des
caractéristiques opposées : un secteur des composants de nature concentrée et un secteur
de l’assemblage de nature dispersée. Ces secteurs se différencient par le nombre et la
taille des firmes qui y sont présentes, par l’éventail de stratégies qui y sont viables et les
modèles de comportement concurrentiel correspondants, ainsi que par les mécanismes
de formation des prix et de répartition des parts de marché. Nous avons également vu
qu’à des secteurs différents et à des stratégies différentes sont associés des types
d’entreprise différents par leurs formes d’organisation et leurs cultures.
On parle souvent d’un secteur des logiciels et services. Cet ensemble est-il donc
suffisamment homogène pour constituer un secteur au sens de Porter, c’est à dire un
ensemble des firmes offrant des produits substituables, ou bien un « métier » comme
nous l’avons défini au chapitre 6, c’est-à-dire un ensemble de secteurs obéissant à une
même logique de production ? Sinon, est-il possible d’y discerner facilement des
secteurs ou des métiers homogènes ? Autrement dit, puisque la structure des coûts de
production apparaît pour notre étude comme un facteur explicatif puissant, existe-t-il
des éléments de cette structure qui soient caractéristiques du logiciel par opposition au
matériel, ou des services par opposition aux produits ?
Pour répondre à ces questions, nous appliquerons au logiciel et aux services les
outils d’analyse des structures industrielles que nous avons introduits dans la deuxième
partie, c’est à dire les notions de secteur concurrentiel et les concepts de concentration
et de dispersion, ainsi que de différenciation des entreprises. Nous verrons ainsi qu’il
existe à l’intérieur de ce pseudo-secteur « immatériel » des différences internes bien
plus fortes que les ressemblances entre les diverses prestations qui le composent, et que
l’opposition avec le « matériel » est plus factice que réelle.
clxxxvi
Pour y voir clair, il sera d’abord nécessaire d’examiner de façon critique les
distinctions traditionnelles entre « produits » (ou « biens ») et « services ». Cette
analyse nous conduira à conclure que cette distinction est sans grand rapport avec les
caractéristiques économiques du processus de production qui gouvernent la
structuration de l’industrie et la dynamique concurrentielle. Quant au logiciel,
omniprésent dans toute l’informatique, il englobe une gamme d’activités extrêmement
diverses allant des produits logiciels aux services de développement à façon, parmi
lesquelles la production de progiciel est en tout point assimilable, sur le plan
économique, à celle des produits industriels.
Nous serons donc amenés à traiter à part l'industrie du progiciel (Chapitre 11), qui
est elle-même formée d’un complexe de sous-secteurs de type plus ou moins fortement
concentré, individuellement soumis à leur propre dynamique concurrentielle, et en forte
interaction les uns avec les autres. Parmi ces sous-secteurs, celui des systèmes
d’exploitation (Chapitre 12) est particulièrement critique, et se rapproche de celui des
composants électroniques tant par sa place centrale dans l’ensemble de l’informatique
que par sa dynamique fortement monopoliste.
Enfin les véritables services, loin de constituer un secteur homogène même après
que le progiciel en ait été séparé, forment en réalité un ensemble de secteurs où jouent
des logiques économiques variées.
clxxxvii
Chapitre 10
Le labyrinthe du logiciel et des services
Dans les chapitres précédents, nous avons vu sur l’exemple du matériel que
l’analyse de la dynamique concurrentielle rend correctement compte des phénomènes de
structuration de l’industrie, à condition d’être conduite secteur par secteur, un secteur
étant défini comme l’ensemble des firmes offrant des produits substituables. Il nous a
fallu reconnaître (cf. le chapitre 6) que cette notion de « substituabilité » est toute
relative, et que donc la définition des secteurs ne peut pas être rigoureuse. Il nous est
néanmoins clairement apparu que la prise en compte des structures sectorielles possède
un pouvoir explicatif fort, et que dans la réalité, la spécialisation des entreprises selon
ces logiques de production influence de façon déterminante le fonctionnement général
de l’industrie et l’évolution des produits.
Nous avons également vu, dans le chapitre qui précède, que le comportement des
entreprises, et en particulier celui qui se traduit par la mise sur le marché de leurs
produits, est déterminé par un ensemble de facteurs internes qui font partie de la
« personnalité » de chaque entreprise. Nous avons également vu que le marché, en
sélectionnant les produits les mieux adaptés à la demande, sélectionne aussi les
personnalités d’entreprise les plus aptes à satisfaire cette demande. En situation de forte
concurrence, la sanction du marché associe étroitement personnalité d’entreprise d’une
part, secteur et stratégie d’autre part, au point de forcer les firmes mixtes à la
spécialisation ou à l’éclatement, comme on le constate dans l’histoire de l’informatique
des dix dernières années. Il nous reste à examiner avec la même approche et les mêmes
outils les autres secteurs de l’industrie informatique.
L’analyse des statistiques industrielles, que nous avons abordée au chapitre 4, peut
nous fournir quelques pistes. Une majorité des acteurs, toutes spécialités confondues,
déclare exercer des activités de logiciel, la plupart en tant qu’activité secondaire
représentant moins de 30% de leur CA. Mais il existe également de nombreuses firmes
spécialisées dans le logiciel, pour qui cette activité représente plus de 70% de leur
chiffre d’affaires. On retrouve les mêmes constatations pour les services, aux chiffres
près. Les activités de logiciels et de services sont donc exercées aussi bien en tant
qu’activité secondaire par de nombreux offreurs non spécialisés que comme activité
principale par des offreurs spécialisés dans l’un ou dans l’autre.
clxxxviii
Certaines firmes spécialisées dans le logiciel offrent également des services à titre
d’activité secondaire et vice versa, mais les spécialistes du service et les spécialistes du
logiciel forment deux populations pratiquement disjointes. Dans l’échantillon de 110
entreprises que nous avons analysé aux chapitres 4 et 5, seules cinq offrent du logiciel et
des services de façon à peu près équilibrée (Finsiel, Nynex, Dun & Bradstreet, Ask et
Sterling Software), et aucune de ces cinq entreprises n’est véritablement un acteur
majeur dans l’un ou l’autre des deux secteurs. Aucun des grands du progiciel
(Microsoft, Computer Associates, Novell, Lotus, Oracle, …) n’a d’ailleurs jamais été
une société de services.
Nous avons également constaté que les firmes spécialisées dans le progiciel ont
une structure de dépenses caractéristique, avec des coûts de production très faibles, des
coûts de R&D élevés et des coûts commerciaux et généraux hypertrophiés. Quant aux
firmes spécialisées dans le service, il en existe des types différents au vu de la structure
de dépenses : la plupart se situent exactement à l’opposé des spécialistes du logiciel,
avec une part très élevée des coûts de production et des coûts de R&D et de
commercialisation très faibles, tandis que celles dont la structure de coûts se rapproche
de celle du progiciel exercent typiquement des activités de traitement. L’ensemble de
ces constatations tend à faire penser d’une part qu’il existe de nombreuses formes de
service, et que donc l’activité de service ne représente ni un secteur ni un métier
homogènes, et d’autre part que le développement industriel de logiciel, habituellement
désigné par le terme de progiciel, est une activité radicalement différente d’une activité
de service.
Services et produits
Matérialité et dissociabilité
clxxxix
de nouvelles transactions indépendamment du producteur initial : la robe, la villa ou le
livre peuvent être revendus par leur acquéreur à un tiers.
Une solution simple serait de considérer que de telles activités doivent en réalité
être rangées parmi les produits, et que la nomenclature officielle est erronée. Cette
approche aurait l’inconvénient de masquer des différences importantes avec les produits
industriels habituels, par exemple que le bien est désigné comme la propriété de son
acquéreur avant même qu’il existe, que sa définition est négociée entre le producteur et
l’acquéreur, et que l’acte de production ne commence le plus souvent pas avant
l’établissement du contrat entre le vendeur et l’acquéreur. Mais ces caractéristiques
elles-mêmes s’appliquent aussi à certaines formes de production où l’acquéreur peut
choisir parmi un grand nombre d’options, par exemple les automobiles ou les
ordinateurs.
Bref, où que l’on place la frontière entre produits et services, on trouvera toujours
des offres qui se situent à cheval sur cette frontière. On est donc tenté de penser que la
réalité ne peut pas être décrite comme la juxtaposition d’un monde de services et d’un
monde de produits bien distincts, mais comme un continuum où les différents types
d’offres peuvent se ranger quelque part entre des produits « purs » et des services
« purs », et cela suivant une ou plusieurs dimensions. Certaines règles des marchés
administratifs distinguent d’ailleurs entre « fournitures », « travaux » et « services », les
fournitures correspondant aux produits standard alors que les travaux peuvent impliquer
le transfert au client d’un bien défini par lui.
cxc
Il est évidemment très facile d’illustrer chacun de ces critères par des exemples
appropriés, voire de présenter des exemples qui satisfont l’ensemble des quatre critères.
Mais il est tout aussi facile de trouver pour chaque critère des exemples d’activités de
service qui ne le satisfont pas, et on peut même penser que rares sont les services qui
respectent pleinement l’ensemble des critères.
Transfert de propriété
A l’une des extrémités du continuum se trouve le cas des produits « purs » qui
font l’objet d’un véritable transfert de propriété du vendeur à l’acheteur. Remarquons au
passage que ce transfert n’est possible que pour des biens matériels dissociables de leur
source. A l’autre extrémité se trouveront les services « purs » qui n’ont pas d’existence
matérielle et ne peuvent donc faire l’objet d’une appropriation ni a fortiori d’un transfert
de propriété.
cxci
Entre ces deux extrêmes se situent les cas très fréquents où la transaction consiste
à accorder au client un droit d’usage sur un bien appartenant au fournisseur. Ce bien
peut être parfaitement matériel et plus ou moins dissociable de sa source, et le droit
d’usage peut être plus ou moins limité, dans le temps ou dans l’étendue des droits
accordés au client. Par exemple, un service de location d’outillage correspond à un
transfert temporaire de droit d’usage sur un bien matériel dissociable ; l’hôtellerie
comprend un transfert temporaire de droit d’usage sur un bien matériel indissociable (la
chambre), un service de personnel intérimaire peut être assimilé à un transfert
temporaire de droit d’usage portant sur des personnes. Un cas propre à l’informatique
est celui du progiciel, dont le contrat de licence accorde à l’utilisateur un droit d’usage
définitif, sans lui en transférer la propriété dans la mesure où il ne peut le revendre à un
tiers. Dans la réalité, mis à part cette interdiction d’ailleurs peu contraignante, les clients
ignorent cette subtilité contractuelle et tout se passe comme s'il y avait transfert de
propriété.
Intangibilité et variabilité
Certains services ont un aspect tangible. Par exemple, il est possible de visiter une
chambre d'hôtel avant de la louer. Certaines chaînes hôtelières se font même une règle
d’offrir exactement les mêmes aménagements dans tous leurs établissements du monde
entier, donnant ainsi à leur offre de services un caractère invariable dans le temps et
dans l’espace qui est habituellement considéré comme caractérisant un produit.
Autrement dit, certains services ont en commun avec les produits d’être définis a priori
par l'offreur et répertoriés dans un catalogue, et de ne pouvoir être offerts que sous cette
forme standard. Par exemple, l’autobus est un service sur catalogue, alors que le taxi est
un service sur mesure.
Une voie couramment utilisée pour améliorer la productivité dans le domaine des
services est d’ailleurs de standardiser ou de systématiser tout ou partie de la prestation,
ce qui peut aussi répondre au souhait du consommateur de disposer d’une description
fiable du service qu’il envisage d’acquérir. Quelles qu’en soient les motivations, une
telle démarche tend à conférer aux services certaines des caractéristiques d’invariabilité
des produits. On utilise d’ailleurs couramment le terme de « produit » pour désigner un
service défini a priori par son fournisseur et susceptible d’être rendu de façon identique
à tous les acquéreurs.
On pourra objecter que, même s’il est défini de façon formalisée par son
prestataire, le service réellement rendu peut s’écarter de cette description et varier selon
le client et les circonstances. En particulier le contrat peut contenir la description du
résultat visé, mais garantir seulement que le prestataire s’efforcera de parvenir à ce
résultat, et non la conformité du produit final à sa description contractuelle. L’existence
d’une telle incertitude ne permet pas pour autant de différencier à coup sûr les services
des produits, car les produits les mieux définis peuvent aussi se révéler non conformes à
leur spécification.
Il existe là encore une possibilité de variation continue entre des biens tangibles
définis de façon précise et dont la conformité à leur spécification est considérée comme
certaine, et des services intangibles dont la définition est purement indicative. Cette
cxcii
définition peut elle-même exister a priori dans le catalogue du fournisseur sans variation
possible, être établie par choix entre des options prédéfinies ou par combinaison
d’éléments prédéfinis et d’éléments spécifiques, ou résulter entièrement d’une
négociation spécifique entre le client et le fournisseur. Comme pour le critère de
matérialité et de séparabilité, il n’y a pas dichotomie entre des produits décrits sur
catalogue ne varietur et des services toujours intangibles et incertains, mais une gamme
continue de formes de définition sans que l’on puisse faire passer à quelque endroit que
ce soit une frontière qui séparerait sans ambiguïté les services des produits.
Relation client-fournisseur
Chacun des deux critères relatifs à la transaction que nous avons retenus ci-dessus
a une incidence sur la durée et la nature de la relation entre le client et le fournisseur, et
peut de ce fait exercer une influence sur l’organisation et la culture de l’entreprise
productrice. Pour un bien défini sur catalogue comme d’ailleurs pour un service défini
de façon purement indicative, aucune relation durable n’est nécessaire à la spécification
de l’objet de la transaction alors qu’une telle relation est obligatoire si la définition est
négociée.
Périssabilité
On caractérise souvent les services par le fait qu’ils doivent être produits à chaque
fois qu’ils sont consommés et au moment même de leur consommation. Ce critère peut
être interprété de deux façons : d’une part il va de soi pour les services qui ne peuvent
cxciii
être dissociés de leur source, et vu sous cet angle il est équivalent au critère de non-
dissociabilité que nous avons examiné plus haut. Quand au contraire un service donne
naissance à un bien matériel transférable, ce bien a toutes les caractéristiques d’un
produit et peut de la même façon être périssable ou non. Un service non transférable,
par exemple un cours ou un spectacle, sera par contre périssable au sens ci-dessus.
A l’inverse, comme pour les produits, le coût des services peut se répartir de
différentes façons en coûts fixes et coûts variables, en coûts récupérables et
irrécupérables. Les investissements matériels peuvent aller de presque rien comme pour
les services de conseil à des volumes considérables pour les télécommunications ou les
transports aériens. De nombreux services comprennent une part de vrais coûts variables
comme les fournitures, les consommables, etc. Enfin, si la part de personnel dans le
coût des services est souvent importante, certains services comme les
télécommunications sont fournis pour l’essentiel par des moyens matériels automatisés.
En tout état de cause, ces critères liés à la forme de l’échange sont sans rapport
avec les facteurs structurants des secteurs. Classer une production parmi les services ou
parmi les produits selon ces critères ne dit rien quant à la structure des coûts de
production ni l’échelle de production, pas plus que sur les obstacles à l’entrée et à la
sortie, toutes considérations qui gouvernent la dynamique sectorielle. L’analyse de
Porter en fonction des forces concurrentielles s’applique aussi bien pour les services que
pour les produits, et il existera des secteurs concentrés et des secteurs dispersés aussi
bien dans les services que dans les produits.
cxciv
–comment l’objet de la transaction est-il défini ? (unilatéralement par l’offreur, par
négociation plus ou moins ouverte) ?
–quelles garanties offre le producteur (aucune, de moyens, de résultat plus ou moins
conforme) ?
–en quoi consiste la transaction (transfert de propriété, définitif d’usage, temporaire
d’usage, pas de transfert) ?
Ces quatre critères sont largement indépendants les uns des autres, et chacun est
susceptible de recevoir plus de deux réponses. Les combinaisons possibles de réponses
sont donc nombreuses, même si certaines apparaissent comme improbables. Quelques-
unes correspondent sans ambiguïté à la notion intuitive de produit (bien matériel défini
unilatéralement par le producteur, dont la conformité est garantie et la propriété
transférée), et d’autres à des formes de prestations que le sens commun range parmi les
services. C’est par exemple le cas de l’accès à une compétence définie unilatéralement
sans garantie (conseil) ou encore d’un changement de condition sans transfert de
propriété ou d’usage, que la définition en soit unilatérale (transports en commun),
négociée (taxis, maintenance) ou pratiquement inexistante (soins médicaux). Mais
d’autres combinaisons pourtant courantes sont plus ambiguës, par exemple le cas de
transfert d’usage temporaire d’un bien matériel défini unilatéralement et de conformité
garantie (location, hôtellerie, promotion immobilière) ou celui de transfert de propriété
d’un bien matériel défini de façon négociée (entreprises de construction).
Le continuum produits-services
transfert
propriété
matériel
définitif
usage développement
progiciel
définitif intégration système
location
usage
assistance backup temps partagé
temporaire
télécoms
pas de maintenance
FM formation
transfert conseil
cxcv
On notera en particulier que le progiciel est extrêmement proche d’un produit pur,
dont il ne se distingue que par les modalités contractuelles de transfert, et par contre
aussi éloigné que possible de services tels que l’assistance ou le conseil. Nous verrons
plus loin que de ce point de vue comme de celui de sa logique économique et de la
structure industrielle associée, le progiciel doit être classé résolument parmi les produits
et non parmi les services.
Conclusions
Au total, la prétendue dichotomie entre produits et services est une vue beaucoup
trop simpliste de la réalité.
Les services ne forment pas un secteur au sens de Porter (« ensemble des firmes
produisant des biens étroitement substituables ») car même réduits aux services
informatiques, les services sont trop divers pour être tous substituables les uns aux
autres. Il y a de nombreux secteurs dans les services. De même, les services ne
constituent pas un métier au sens que nous avons introduit au chapitre 6, c’est à dire un
ensemble de secteurs qui auraient assez de traits communs pour être régis par la même
dynamique industrielle. Concernant les firmes productrices elles-mêmes, certaines
formes de service appellent des structures et des cultures d'entreprise proches de celles
qui sont propres aux produits industriels, tandis que d'autres appellent des structures et
des cultures radicalement différentes. Certaines formes de service sont moins
compatibles entre elles qu'elles ne le sont avec certaines formes de produits.
La seule véritable différence que nous ayons pu reconnaître est que, dans ce qu’il
est convenu d’appeler les services, l’acte de production implique toujours plus ou moins
directement le client. De ce fait, l’appareil de production de la firme est directement
cxcvi
exposé au regard et au jugement du marché. Dans une activité de produits, les attributs
des produits mis sur le marché sont dissociés de ceux de l’organisation qui a servi à les
produire, par exemple au travers de la description commerciale ou contractuelle qui les
accompagne. Il est également assez facile d’éviter que des dysfonctionnements
éventuels de la production n’apparaissent sur le marché sous la forme de produits
défectueux. Pour les services au contraire, la qualité même de l’appareil de production
est visible, tous les ratés éventuels sont perçus par le client, et donc des structures ou
une culture non adaptées sont rédhibitoires en situation concurrentielle. Autrement dit,
l’adaptation de la personnalité d’entreprise à la nature de sa production et aux attentes
du marché revêt dans le domaine des services une importance encore plus déterminante
que pour les produits. Nous verrons au chapitre 13 combien ces problèmes contribuent à
structurer le secteur des services et à en expliquer les difficultés d’ajustement à
l’évolution des besoins.
46 Bell D : The Coming of Post-Industrial Society [Basic Books, 1973] traduction française Vers la
Société Post-Industrielle [Laffont, 1976]
cxcvii
De plus, ces théories répondent le plus souvent à des préoccupations de
sociologues qui cherchent à caractériser les activités des individus, plutôt que
d’économistes qui s’intéressent aux entreprises et à leurs productions. Or une grande
partie voire la majorité des travailleurs du « tertiaire » exercent leur activité dans des
entreprises industrielles. La multiplication des « travailleurs du savoir » ne permet en
aucune façon de conclure à l’avantage des entreprises de services sur les entreprises
industrielles. Enfin, même s’il apparaît que les prestations de services prennent une
place croissante dans l’économie considérée dans sa totalité, il n’en résulte pas que les
services se substituent aux produits à l’intérieur de chacun des secteurs pris en
particulier. Il existe au contraire de nombreux exemples du mouvement inverse, par
exemple le remplacement des employés de maison par les appareils électroménagers.
Pour le cas précis de l’informatique, nous reviendrons aux chapitres 13 et 15 sur la
concurrence entre produits et services et sur la validité potentielle de la thèse
« postindustrielle » souvent présentée comme allant de soi.
Dans ce qui suit, nous allons tenter d’analyser les caractéristiques technico-
économiques des activités liées au logiciel, afin d’identifier des types d’acteurs, leur
place dans l’industrie et la dynamique économique à laquelle ils obéissent. Cette
dynamique permet-elle aux activités de logiciel de se rattacher aux autres activités des
acteurs qui les utilisent ? Existe-t-il pour les logiciels une ou plusieurs activités dotées
de caractéristiques économiques propres qui les font obéir à une dynamique industrielle
spécifique ? La dynamique correspondant aux logiciels représente-t-elle un facteur de
structuration de l’industrie informatique ?
Qu’y a-t-il de commun entre quelques lignes de Fortran écrites par un ingénieur
pour ses besoins propres, le microcode du processeur Pentium, le système d’exploitation
Windows distribué à des millions d’exemplaires, les logiciels de contrôle de la navette
cxcviii
spatiale, un programme de jeu électronique et le système de gestion d’une grande
entreprise ? Toutes ces formes de logiciel expriment des consignes par lesquelles
l’homme dicte un comportement à une machine. Autrement dit, le logiciel est une forme
d’expression humaine à destination d’une machine. Les nombreux travaux qui ont
abouti à fixer les règles de protection juridique du logiciel ont d’ailleurs abouti à
assimiler le logiciel à une œuvre de l’esprit au même titre qu’une œuvre littéraire ou
artistique, en lui étendant la législation du copyright et des droits d’auteur.
De sa destination, qui est d’être interprété par une machine, le logiciel tire deux
caractéristiques fondamentales qui le différencient des autres formes d’expression
humaine. Premièrement, il est extrêmement facile de le reproduire. Le logiciel est en
effet porté par les mêmes supports que les autres informations traitées par l’ordinateur,
et peut être lu et écrit par les mêmes dispositifs. De ce fait, tout outil permettant
d’exécuter un programme permet aussi de le reproduire, plus facilement et plus
exactement même que pour l’écriture normale. Une personne capable de lire un texte est
en général capable de le recopier, mais c’est une opération longue, sujette à erreur, et
dont le résultat diffère de l’original au moins dans la forme. Au contraire, un ordinateur
peut reproduire des millions de caractères en quelques minutes, sans risque d’erreur et
dans une forme identique à l’original, donc en particulier susceptible d’être reproduite à
son tour. Cette reproduction peut sans difficulté comporter un changement de support ou
une transmission à distance à travers des moyens de télécommunications.
Deuxièmement, étant destiné à être interprété par une machine de façon aveugle
(« machinale » au sens propre du mot), le logiciel a des exigences de rigueur et de
cxcix
fiabilité rarement rencontrées pour les autres écrits. Avant d’être utilisé, tout logiciel
dépassant la demi-douzaine d’instructions simples devra être soumis à des tests
permettant de vérifier que le comportement réel d’un ordinateur qui exécute le
programme est conforme en tout point aux intentions de son auteur et aux attentes de
ses utilisateurs. Il faut s’attendre à ce que ces essais révèlent des erreurs qui devront être
corrigées, ce qui exigera une nouvelle vérification du programme, et ainsi de suite. Le
développement de logiciel est ainsi une opération cyclique où les opérations d’écriture
et de correction alternent avec les essais sur ordinateur. Sa durée, sa difficulté et son
coût sont en proportion directe de la taille et de la complexité du programme concerné.
Or la variété des formes de logiciel est aussi grande que celle des formes et des
utilisations possibles de l’écriture. Le programme de quelques lignes de Fortran que
l’ingénieur écrit pour ses besoins propres est l’analogue de la note manuscrite qu’il
laisse à un collègue ou du post-it qu’il colle sur son réfrigérateur. Le petit programme a
un destinataire connu et une utilité précise et limitée ; il est destiné à une seule
utilisation et sera oublié après usage ; sa préparation ne coûte que quelques minutes à
son auteur, mais il n’a pas de sens ni d’utilité en dehors du contexte spécifique des
relations entre l’auteur et le destinataire ; il n’a pas de valeur marchande et aucune
intention lucrative ne préside à sa préparation. A l’opposé, un système d’exploitation ou
un grand progiciel du commerce est l’analogue d’une encyclopédie. Il représente de
nombreuses années de travail, qui ne peuvent se justifier que par l’espoir d’un revenu
résultant de la commercialisation de l’œuvre ; mais cet objectif lui-même impose des
exigences de qualité portant aussi bien sur la forme que sur le contenu, qui ajoutent au
temps et au coût de préparation, et demandent l’intervention de corps de métier
spécialisés qui font du produit une œuvre collective.
Entre ces deux extrêmes, le logiciel peut tout comme l’écriture revêtir de
nombreuses formes correspondant à de nombreux usages. Le système de gestion d’une
grande entreprise s’apparente à un recueil des procédures, des formulaires et des
informations de gestion propres à l’entreprise et préparés spécifiquement pour elle. Un
programme de jeu électronique est l’analogue d’un livre illustré pour enfants. Un
programme innovant traduisant d’une activité de recherche en informatique est
l’analogue d’une communication scientifique en ce qu’il a pour but prouver la validité
d’une idée et pas nécessairement d’en être la réalisation industrielle.
Toutes ces activités ont en commun de se traduire in fine par du logiciel, de même
que la rédaction du post-it, de l’encyclopédie, des procédures de gestion, du livre pour
enfants et de la thèse aboutissent à un texte écrit. Mais comme pour l’écrit, les contextes
de préparation et d’utilisation, les motivations, les modalités de production et
l’économie générale de l’opération introduisent entre ces activités des différences
infiniment plus significatives que ne l’est le point commun de la production de logiciel.
Autrement dit, la production de logiciel est une activité aussi variée que peut être
l’écriture, et il n’y a pas plus une industrie du logiciel qu’une industrie de l’écriture. Il
faut considérer le logiciel non pas comme un produit en soi, mais comme un matériau
utilisé isolément ou en combinaison avec d'autres. Dans les produits où il entre, le
logiciel peut être un composant secondaire, auquel cas le produit obéira à sa dynamique
industrielle propre. D’autres activités industrielles ont comme production principale des
logiciels, mais selon la nature et l’utilisation de ces logiciels, la nature de l’activité varie
cc
grandement et peut correspondre à des logiques économiques et concurrentielles
différentes, donc à des structures industrielles différentes.
La conception du logiciel porte évidemment sur les algorithmes, c’est à dire les
méthodes de manipulation de l’information qui seront mises en œuvre par le
programme, mais aussi sur les structures de données utilisées, les modalités des
échanges entre le programme et ses utilisateurs, les liaisons avec les autres programmes,
etc. Une grande partie de ces éléments peut être reprise de réalisations antérieures, mais
d’autres peuvent présenter un caractère original, voire constituer de véritables
inventions qui nécessitent un travail de recherche, de mise au point et de validation
spécifique.
cci
De plus, un logiciel de quelque importance n’est jamais formé d’une simple suite
d’instructions qui s’exécutent dans un ordre immuable. Il contient aussi de nombreuses
instructions de tests qui, selon la valeur courante de telle ou telle variable ou selon l’état
de tel ou tel indicateur, font sauter ou exécuter telle ou telle séquence ou renvoient à un
autre point du programme. Il existe ainsi un grand nombre de cheminements possibles
dans le programme, qui doivent tous avoir été exécutés avec succès pour que le
programme puisse être considéré comme correct.
Or, quand la taille d’un programme croît, ce n’est pas tellement la longueur
moyenne des séquences comprises entre deux aiguillages qui augmente, mais bien le
nombre d’aiguillages, si bien que le nombre de chemins possibles croît comme une
puissance (le carré ?) de la taille du programme. Le temps nécessaire aux tests augmente
donc très rapidement avec la taille des programmes, et dépasse rapidement le temps de
rédaction initiale, même si cette dernière a été effectuée avec tout le soin nécessaire
pour minimiser le nombre d’erreurs. Notons au passage qu’il n’existe pas de moyen de
certifier qu’un programme ne contient aucune erreur, ni a fortiori de prévoir le temps
nécessaire pour éliminer l’ensemble des erreurs contenues dans un programme.
L’expérience montre d’ailleurs que malgré des mois de tests intensifs préalables à leur
diffusion, des programmes complexes comme les systèmes d’exploitation contiennent
encore des erreurs plusieurs mois après leur mise en service.
Une première catégorie d’acteurs est constituée par des individus ou de petits
groupes qui développent du logiciel pour leurs besoins propres. A cette extrémité du
spectre l’écriture de logiciel est une activité annexe subordonnée à une autre activité
professionnelle. Elle peut aussi, comme toute activité de l’esprit, être entreprise pour la
seule satisfaction de son auteur, c’est à dire en amateur au sens propre du mot : celui qui
aime. Rappelons que c’est ainsi qu’a commencé la micro-informatique, et que les
ccii
premiers micro-ordinateurs des années 1975-1980 étaient conçus par et destinés aux
amateurs de programmation, qui sont restés nombreux encore de nos jours.
Une variante de cette situation est celle d’un organisme de recherche pour lequel
le logiciel est un instrument de validation et de preuve, par exemple dans les domaines
du calcul numérique, des techniques de l’ingénieur et des sciences appliquées. Vérifier
ou prouver une théorie peut demander des programmes très complexes sur le plan
algorithmique, mais s’accommoder d’un logiciel rudimentaire en termes de facilité
d’utilisation.
Un contexte différent est celui où un logiciel doit être développé pour répondre
aux besoins d’une population d’utilisateurs distincte, dont l’auteur ne fait généralement
pas partie. Pour ces utilisateurs, qui ne possèdent souvent que des connaissances
limitées en informatique, le logiciel est destiné à être un outil plus ou moins critique,
avec les exigences de simplicité d’emploi, de fiabilité et de disponibilité qui en
découlent. Le nombre même des utilisateurs et leur diversité potentielle induit une
variété des conditions d’utilisation et nécessite une grande richesse fonctionnelle, qui
accroît considérablement la complexité du programme en multipliant les cheminements
possibles. Les configurations sur lesquelles le logiciel doit s’exécuter peuvent être
variées et évolutives, ce qui oblige à conduire des essais sur des configurations
multiples. Enfin, le programme doit être documenté et accompagné de moyens de
formation des utilisateurs.
Enfin, l’écriture d’un logiciel peut être entreprise pour des tiers non identifiés,
c’est à dire pour un marché espéré. Il s’agit alors d’une véritable démarche industrielle,
où toutes les exigences de richesse fonctionnelle, de convivialité, de fiabilité, de
documentation, … évoquées ci-dessus sont exacerbées par la nécessité de satisfaire
réellement une demande hypothétique dans un marché concurrentiel. De plus, en cas de
succès commercial, la variété des utilisateurs, des modes d’utilisation et des
configurations utilisées dépassera sans doute les prévisions de l’auteur, rendant des
essais extensifs encore plus nécessaires, et entraînant une demande de
perfectionnements et d’extensions qui constitue en elle-même un champ ouvert à la
cciii
concurrence. On entre ici dans le domaine du progiciel, dont la dynamique
concurrentielle fera l’objet du chapitre 11.
capacité
d'intégration
systèmes capacité
audience extensions
industriels de diffusion
PME industriels
laboratoires
programmes systèmes
personnels expérimentaux
complexité
cciv
En résumé, l’activité de développement de logiciel peut prendre des formes très
nombreuses, allant depuis l’écriture de quelques lignes par un non-spécialiste pour son
usage personnel jusqu’à un projet industriel de grande envergure. Les auteurs de logiciel
peuvent être des amateurs isolés, des professionnels non-informaticiens, des
informaticiens intégrés dans des équipes spécialisées, des petites entreprises ou des
grandes entreprises de service ou des industriels du progiciel. Leurs motivations
peuvent être la passion ou la simple curiosité, l’exécution d’un contrat ou la mise sur le
marché d’un produit.
Service et « self-service »
service ». Pour cet auteur, la demande de services et donc leur place dans l’économie ne
doit pas s’analyser isolément par familles de biens d’une part, famille de services
d’autre part, mais selon les besoins que l’un et l’autre sont susceptibles de satisfaire. La
définition d’un segment de marché doit être élargie à la demande de satisfaction d’un
besoin, les différentes formes de produits et de services que nous avons évoquées au
début de ce chapitre constituant des offres concurrentielles visant la satisfaction de ce
besoin, entre lesquelles le consommateur devra arbitrer.
47 Gershuny J : After Industrial Society ? The Emerging Self-Service Economy [Humanities Press,
1978]
ccv
proprement dit, mais aussi par une location permanente ou temporaire, qui constitue une
sorte de pseudo-service, ou par l’utilisation d’un service bureau. De même, un besoin de
transport peut être satisfait par l’achat d’une automobile, mais aussi par l’utilisation des
transports en commun (service sur catalogue) ou d’un taxi (service sur mesure). Dans
l’analyse concurrentielle qui est l’objet de la présente étude, produits et services non
seulement forment un continuum sans frontières claires, mais entrent en concurrence sur
chaque segment de marché élémentaire plutôt qu’ils ne constituent des segments de
marché séparés. C’est ce point de vue que nous retiendrons au chapitre 13 pour analyser
la place respective des produits et des différentes formes de service dans l’informatique.
Conclusions
ccvi
Dans la suite de cet ouvrage, nous traiterons donc séparément le progiciel
(chapitre 11), puis les services (chapitre 13), même si cette dernière catégorie n’a pas
réellement de cohérence interne et doit s’analyser comme la juxtaposition de secteurs et
de métiers différents.
ccvii
Chapitre 11
L'industrie du progiciel
Le progiciel a bien toutes les caractéristiques d’un produit. L’offre principale est
définie sur catalogue, et le client prend sa décision d’achat sur la base d’une description
préparée unilatéralement par le fournisseur. Moyennant une redevance unique analogue
à un prix d'achat, le client acquiert un droit d'usage illimité, la seule restriction par
rapport à un produit classique étant une limitation du droit de reproduction. On parle
d’ailleurs couramment d'« acheter » un progiciel. Au plan juridique, le progiciel est
protégé par le droit d'auteur donc assimilable à un livre ou un disque, tout en étant
également justiciable de brevets comme les produits. Un même progiciel est diffusé en
de nombreux exemplaires identiques, et les activités de création et de diffusion sont
deux fonctions séparées au sein de la firme productrice, voire réalisées par des
entreprises distinctes. Toutes ces caractéristiques sont à l’opposé du développement de
logiciels « sur mesure » tel que le pratiquent les sociétés de services.
ccviii
Historique et situation
Ce n’est que dans les années 70 que le logiciel est progressivement apparu comme
une activité industrielle indépendante susceptible de devenir productrice de revenu et
éventuellement de profit. Avant la décision d’IBM de facturer séparément certains types
de logiciels (1969), les constructeurs d’ordinateurs fournissaient ceux-ci
« gratuitement » avec les matériels dont ce logiciel faisait en quelque sorte partie. Il
s’agissait principalement de programmes utilitaires nécessaires à l’utilisation des
matériels, par exemple les systèmes d’exploitation ou les traducteurs de langages de
programmation.
De leur côté, les utilisateurs développaient eux-mêmes les logiciels qui leur
étaient nécessaires, principalement des logiciels d’application, ou les faisaient
développer par des sociétés de service. Dans le domaine scientifique se perpétuait la
tradition d’échange bénévole de programmes, inaugurée aux premiers temps de
l’informatique. Cette tradition fut respectée par les clubs de micro-informatique, au
point que Bill Gates se heurta violemment aux utilisateurs de micros de l’époque en
prenant position en 1976 contre le piratage des logiciels payants. Cette tradition
d’échange se prolonge de nos jours sous la forme du « freeware » et du « shareware » . 48
C’est dire combien l’idée que le logiciel est une création de l’esprit qui doit échapper
aux circuits marchands est ancienne et encore bien ancrée dans de nombreux esprits.
ccix
comme une société mixte alors que c’est en réalité une pure entreprise de services, ou à
un degré moindre d’EDS ou Cap Gemini . 49
Jusque dans les années 70, développer du logiciel suppose de pouvoir accéder à
un ordinateur facilement et de façon permanente. Cela n’est guère possible qu’aux
employés des grandes entreprises, dont l’activité est plutôt orientée vers la production
de logiciels spécifiques à leur employeur, ou aux universitaires dont la tendance
naturelle à cette époque est de diffuser leurs programmes gratuitement. Cet obstacle à la
création d’entreprises indépendantes est levé à la fin des années 70 par l’arrivée de la
micro-informatique, qui rend le développement de logiciel accessible à de petites
entreprises indépendantes voire à des individus isolés, en même temps qu’elle crée un
marché pour les progiciels ainsi développés.
49 voir Chapitre 4.
50 On ne commettra pas dans cet ouvrage l’horrible contresens que constitue l’emploi du mot
« propriétaire » en tant qu’adjectif pour désigner un développement ou un standard propre à une
ccx
le domaine de la micro-informatique. C’est ainsi que parmi les entreprises qui réalisent
les 20 plus grosses parts du marché des progiciels, on trouve en 1992 7 généralistes
pour plus de 45% du CA total et 10 spécialistes, dont 6 en micro et 4 en grands
systèmes, pour environ 32% du CA total. Les 3 sociétés de service qui complètent la
liste des 20 premiers (pour moins de 5% du total) n’y figurent probablement que par
abus du terme « progiciel ».
Caractéristiques du secteur
Ce grand nombre de petites firmes semble cohérent avec le fait que les obstacles à
l'entrée paraissent presque inexistants. Au début de 1975, il n’a pas fallu beaucoup plus
de quatre semaines à deux jeunes étudiants qui s’appelaient Bill Gates et Paul Allen
pour écrire le Basic d’où est parti le succès de Microsoft. Encore aujourd’hui,
moyennant un investissement de 10000 à 20000 Francs dans un PC, chacun peut écrire
un programme à ses moments perdus et tenter de le commercialiser afin de devenir à
son tour l’homme le plus riche des Etats-Unis.
entreprise
ccxi
marché des réseaux locaux. Dans ces segments de marché et quelques autres, la
répartition des parts de marché ressemble d’ailleurs curieusement à celle qui caractérise
les secteurs fortement monopolistes comme les composants : trois ou quatre firmes dont
la première occupe 60 à 70% du marché, et où les suivantes se partagent le reste de
façon très inégale. Cette situation est cohérente avec le fait que l'économie de la
production de logiciel obéit à une logique fortement monopoliste puisque la quasi-
totalité du coût est formée de coûts fixes, le coût marginal que constitue la reproduction
d'un nouvel exemplaire étant quasi-nul.
Donc, alors que les faibles obstacles à l'entrée et à la sortie semblent caractériser
un secteur dispersé, les économies d'échelle sont fortes et confèrent au secteur certains
des attributs d’un secteur concentré, en particulier une profitabilité élevée. La clé de cet
apparent paradoxe est double :
Pour appliquer au progiciel notre méthode d’analyse structurelle, qui repose sur le
jeu de la concurrence, il nous faut considérer que chaque domaine d’utilisation possible
de l’ordinateur définit un segment de marché sur lequel des firmes concurrentes offrent
des produits substituables l'un à l'autre, dans le sens où ils visent tous à satisfaire un
même besoin des clients dans ce domaine. En première analyse, la concurrence dans
chacun de ces segments est indépendante de la concurrence dans les autres segments.
ccxii
Des progiciels non substituables entre eux définissent autant de secteurs disjoints qui se
structurent indépendamment les uns des autres.
En second lieu, si les coûts de reproduction sont uniformément faibles, les coûts
de développement peuvent varier dans de très grandes proportions suivant la nature et
les ambitions du progiciel considéré. Faibles pour des efforts individuels, ou
quelquefois invisibles si le développement est subventionné en totalité ou en partie par
une autre activité, par exemple la recherche, ils peuvent se chiffrer en dizaines de
millions de dollars à l’autre extrême pour des systèmes généraux complexes. L’immense
variété des formes de logiciel que nous avons évoquée au chapitre précédent se retrouve
dans les produits logiciels. Selon l’ordre de grandeur des dépenses de développement,
c’est la facilité d’entrée qui dominera en conférant à l’activité les caractéristiques d’un
secteur dispersé, ou au contraire l’échelle économique de production qui soumettra
l’activité à une dynamique de concentration.
ccxiii
structure caractéristique d’oligopole asymétrique, d’autres sont encore des secteurs
naissants. Ainsi s’explique sans doute en partie la grande dispersion des résultats que
nous avons constatée au Chapitre 5, et la difficulté que nous avons eue à interpréter les
caractéristiques apparentes de comportement du secteur.
Les logiciels système sont nécessaires quelle que soit l’utilisation de l’ordinateur
et peuvent être considérés comme la base commune à l’ensemble des applications
possibles. Chaque logiciel d’application utilise un certain nombre de fonctions du
logiciel de base, et suppose donc la présence sur l’ordinateur d’un certain système.
Chaque logiciel système particulier détermine ainsi quelles applications pourront être
ccxiv
exécutées sur l’ordinateur. Autour de chaque système se crée donc non seulement un
ensemble d’habitudes, mais aussi une galaxie de programmes d’applications utilisables
avec ce système. Le choix d’un système d’exploitation est lourd de conséquences pour
l’utilisateur, car il détermine pour lui, de façon très difficilement réversible, la gamme
de progiciels auxquels il aura effectivement accès, voire les domaines d’application
qu’il pourra aborder.
Les spécialistes tendent donc à s’aligner sur les systèmes les plus courants,
formant ainsi autour de ces derniers des constellations de firmes indépendantes qui
offrent des extensions et des compléments au système de base, ainsi que des
applications qui l’utilisent. La variété et la qualité de ces offres constituent un avantage
concurrentiel pour chacune des firmes de la constellation par rapport à leurs
homologues appartenant à des constellations concurrentes.
ccxv
Un même phénomène touche les applications de nature générale. Avant
l’apparition des micro-ordinateurs, les applications étaient presque toujours propres à
chaque entreprise et seuls les systèmes d’exploitation et certaines fonctions utilitaires
comme la gestion de bases de données ou la préparation de programmes possédaient un
caractère suffisamment universel pour justifier le développement de progiciels
généraux. Aujourd’hui se sont développés des secteurs d’application liés à des activités
de nature générale comme la production de documents ou la manipulation de tableaux
de chiffres, auxquels correspondent les programmes de traitement de textes et les
tableurs, mais aussi d’autres types de programmes pour d’autres domaines. Chacun des
progiciels existants définit ses propres conventions d’utilisation, ses formats de fichiers,
… et suscite des développements complémentaires en provenance d’innovateurs
indépendants, qui doivent respecter ces standards. Autour de ces « quasi-systèmes » que
sont les applications de base comme le traitement de textes ou les tableurs s’organise la
même dynamique que nous avons décrite entre les systèmes d’exploitation et les
applications, et qui pousse de la même façon à une concentration de chacun de ces
secteurs.
Les frontières entre ces types de progiciels et entre les domaines d’applications
sont floues et perméables. En un sens, les applications sont des extensions du logiciel de
base. Plus significativement, les frontières entre les applications tendent à s’estomper.
Par exemple, les progiciels de traitement de texte comme Word ou Wordperfect
s’enrichissent de fonctions de traitement de tableaux qui rejoignent les tableurs tels que
Excel ou Quattro. A l’inverse, les fonctions de traitement des informations textuelles
dans les cellules d’un tableur offrent progressivement des possibilités analogues à celles
des traitements de texte. Il en va de même des fonctions de dessin, de préparation de
graphiques, etc. Les documents susceptibles d’être manipulés par ces programmes
deviennent des documents composites où peuvent figurer toutes les formes
d’information y compris les sons, les photographies et les images animées, ce qui
implique des logiciels capables de traiter toutes ces formes de façon homogène et
coordonnée.
Les progiciels jusque là distincts comme les traitements de texte, les tableurs, les
programmes de dessin et de présentation, les bases de données, les messageries, … se
ccxvi
réunissent donc en « suites » (Office de Microsoft, PerfectOffice de Novell, Smartsuite
de Lotus), au sein desquelles chacun peut utiliser les services des autres, et où
apparaissent des bibliothèques de modules fonctionnels communs. Ces modules
généraux utilisés par toutes les applications prennent de fait le statut de fonctions
logicielles de base, engendrant ainsi une migration de fonctions applicatives vers le
logiciel de base. Ce même mouvement affecte les extensions aux systèmes de base
comme aux systèmes applicatifs, que les fournisseurs de systèmes incorporent
progressivement dans leurs offres. Nous verrons que ce phénomène de migration
continuelle des fonctions depuis la périphérie des applications vers le coeur des
systèmes joue un rôle primordial dans la structuration de l’industrie du progiciel.
In fine, tout programme est constitué par une séquence d’instructions élémentaires
directement exécutables par les microprocesseurs, qui n’effectuent que des opérations
simples très éloignées des fonctions applicatives offertes par les progiciels, mais à partir
desquelles on peut construire n’importe quel programme. On considère habituellement
que la taille optimale d’un module, c’est à dire celle qui permet le meilleur arbitrage
entre sa puissance fonctionnelle et la possibilité de le tester de façon efficace, est de
l’ordre de 50 à 100 lignes de programme ou instructions . C’est donc à ce niveau de
51
51 En réalité, une notion plus pertinente est celle de « complexité » d’un module, dont diverses
mesures ont été proposées. Imposer une limite supérieure à la complexité entraîne une limitation de la
taille, aussi nous en resterons à cette notion.
ccxvii
module « maître » qui est appelé par l’utilisateur et qui commande et résume tous les
autres.
Le développement du logiciel
systèmes
sous-systèmes tests
fonctions
intégration
modules
conception
Dans la phase suivante, chacun des modules est rédigé dans un langage de
programmation approprié. Les modules de base, qui ne font appel à aucun autre module
du programme en cours de développement, peuvent être testés individuellement pour
vérifier que leur comportement réel est conforme à leurs spécifications telles qu’elles
résultent du processus de décomposition ci-dessus (tests dits « unitaires »). Lorsque ces
modules fonctionnent correctement de façon isolée peut commencer le processus
d’intégration, qui est en quelque sorte l’inverse du processus de décomposition. Les
modules intermédiaires sont progressivement reliés aux modules de niveau inférieur
qu’ils utilisent, et le bon fonctionnement de chaque sous-assemblage est vérifié. Ce
processus de construction progressive du système à partir des modules se poursuit
ccxviii
jusqu’à ce que le progiciel ait été testé dans toutes ses combinaisons de fonctions, de
modes d’utilisation et d’environnements d’exécution.
auquel cas leur correction n’a que des effets locaux sur le niveau de tests en cours, mais
elles peuvent aussi concerner des modules déjà testés. Dans ce dernier cas, il faudra
reprendre les tests en amont après correction des modules défectueux, afin de vérifier
que ce qui marchait correctement jusque-là marche toujours après modifications (tests
dits « de non-régression »). Il faut pour cela ré-exécuter des séries de tests déjà effectués
antérieurement. En effet, dans l’état actuel des technologies de programmation, le seul
moyen de vérifier qu’un programme est correct est de l’exécuter. Tant qu’un passage de
test aura révélé au moins une erreur et donné lieu à au moins une correction, celle-ci
devra être vérifiée en recommençant le même test, jusqu’au passage qui ne révélera plus
aucune erreur.
Sans entrer dans le détail des estimations, qui font l’objet de toute une littérature,
nous pouvons utiliser ce modèle pour voir comment les coûts et les délais de
développement varient selon le système, et donc caractériser le niveau d’investissement
et la durée de cycle, qui gouvernent la personnalité d’entreprise des firmes du secteur.
52 Certaines études ont permis d’estimer que le nombre d’erreurs de programmation présentes au
début des tests est couramment de l’ordre de 2 pour 10 lignes de code. Pour un programme de 100000
lignes, c’est donc 20000 erreurs, de gravité heureusement très variable, qui devront être décelées et
corrigées.
ccxix
néanmoins la plus difficile à estimer, d’autant plus que les paramètres tels que la taille
du programme, le nombre de modules, … ne sont à ce stade pas encore connus avec
précision.
Comme le temps d’analyse, le temps nécessaire pour l'intégration et les tests est
difficilement prévisible. il croît évidemment avec la taille du système, mais dépend plus
précisément du nombre et de la complexité des interactions possibles entre modules. On
admet généralement que, toutes choses égales par ailleurs, le temps d’intégration varie
comme une certaine puissance du nombre de modules, l’exposant de cette puissance se
situant entre 1.5 et 2. Autrement dit, quand on double le nombre de modules d’un
système, le temps nécessaire pour le tester est multiplié par un facteur compris entre 3 et
4. A une autre échelle, il faut plusieurs milliers de fois plus de temps pour intégrer et
tester un système de 10000 modules que pour un système de 100 modules ! Dès qu’un
système atteint un certain degré de complexité, son temps d'intégration devient très
supérieur au temps d’analyse et d’écriture, et l’ensemble croît en gros comme le carré
du volume. On comprend par là pourquoi la productivité décroît rapidement quand
l'échelle augmente.
Pour que l’effort total de développement soit contenu dans une durée calendaire
raisonnable, il faut pouvoir distribuer le travail entre plusieurs équipes fonctionnant en
parallèle. Dans la phase initiale, il devient progressivement possible de mener en
parallèle l’analyse de plusieurs sous-ensembles dès que l’analyse précédente a permis
de les isoler et de les spécifier avec certitude. C’est donc un des objectifs de cette phase
que de permettre le plus rapidement possible une distribution de la suite du travail entre
équipes aussi autonomes que possible. Dans le cas idéal, on met ainsi en place
progressivement une organisation qui reflète la structure interne du système en cours de
développement. Dans la réalité, il arrive souvent que l’organisation préexiste à la
conception d’un nouveau système, et que cette organisation dicte a contrario au système
une structure qui n’est pas nécessairement optimale.
ccxx
Le degré maximal de parallélisme est atteint dans la phase d’écriture, ce qui
contribue à limiter la durée calendaire de cette phase. Il est par contre évident que
l’intégration s’accommode de moins en moins bien de travaux parallèles au fur et à
mesure que le système se recompose. Le processus d’intégration du système met en
œuvre un processus de ré-intégration de l’organisation, en sens inverse de celui qui a
résulté de la phase d’analyse. Chaque niveau successif de sous-ensemble peut être
intégré sous la responsabilité de la même organisation qui en a assuré l’analyse, et ceci
jusqu’à remonter à l’échelon qui a défini le premier niveau de décomposition du
système global. Mais pour chaque erreur constatée, il faut en rechercher les causes en
remontant jusqu’aux modules qui doivent être corrigés, et revenir en arrière dans le
processus d’intégration pour le reprendre au niveau de ces modules modifiés.
Pour respecter ce calendrier, les erreurs qui sont découvertes trop tard dans le
cycle sont simplement signalées et seront corrigées dans des versions ultérieures. De
même, pour certains cas de problèmes non critiques, il sera préférable, pour ne pas
retarder le processus d’intégration, de remettre la correction à plus tard en acceptant une
limitation temporaire qui sera indiquée dans la documentation.
Pour ces versions nouvelles, il faudra non seulement définir de nouveaux modules
correspondant aux extensions, mais aussi apporter des modifications à des modules
existants. Notons que si l’effort nécessaire pour les phases d’analyse et d’écriture ne
dépend que de l’importance des modifications, c’est la totalité ou presque du système
qui devra de nouveau être intégrée et testée pour tenir compte de ces modifications de
l’existant. On voit que si ce processus de développement cumulatif rend possible, sur
une durée suffisante, des constructions extrêmement complexes, l’obligation de tester le
système complet à chaque version impose de nouveau des limites à la taille et à la
complexité des progiciels ainsi créés. De plus, il existe une limite pratique à ce qui est
possible par accumulation de modifications, et le système devra donc faire
périodiquement l’objet d’une refonte majeure.
ccxxi
développement. Plus généralement ce sont les contraintes de cette troisième phase qui
gouvernent l’ensemble du processus. On voit aussi que la production de progiciels très
généraux, c’est à dire offrant une grande variété de fonctions en se pliant à des
modalités d’utilisation diversifiées sur des configurations quelconques, exige des
organisations et des méthodes industrielles. Seules en effet des entreprises industrielles
peuvent investir les ressources nécessaires en personnel et en matériel, gérer
efficacement des projets complexes impliquant le travail coordonné de nombreuses
équipes en parallèle et le respect d’une discipline contraignante, tout en faisant face à
des situations essentiellement imprévisibles qui appellent des arbitrages permanents
dont les conséquences économiques peuvent être lourdes.
Bien qu’elle se traduise par un ratio inférieur à celui que nous avons estimé pour
les composants, qui est de l’ordre de la dizaine de millions, cette relation entre coûts
ccxxii
fixes et coûts variables confère à chacun des champs concurrentiels définis par les
fonctions d’un progiciel donné tous les attributs et toute la dynamique d’un secteur
fortement concentré, que nous avons décrite au Chapitre 7. Les coûts variables unitaires
de reproduction sont infimes par rapport au coût fixe du prototype, et donc le coût
unitaire moyen décroît fortement avec le volume.
Les mêmes causes produisant les mêmes effets, la production de progiciels est une
industrie à tendance monopoliste comme celle des composants. Dans chacun des sous-
secteurs qui la composent, nous trouverons un faible nombre d’offreurs dont les parts de
marché très inégales s’échelonnent en gros de façon logarithmique. Par exemple, dans le
cas typique des systèmes d’exploitation pour micro-ordinateurs PC, le complexe
MS-DOS/Windows de Microsoft occupe plus de 80% du marché, IBM un peu plus de
10% avec OS/2, les différents fournisseurs de systèmes qui se réclament d’UNIX se
partageant le reste.
Quant aux prix, ils se fixeront comme pour les composants électroniques à un
niveau suffisamment bas pour que la sensibilité du marché aux prix soit presque nulle.
Ceci entraîne en particulier que le choix du marché se fondera principalement sur
d’autres attributs du produit . Toujours pour les systèmes d’exploitation, les prix
53
tournent autour de 1000F soit moins de 200$, c’est à dire moins du dixième du prix de
l’ordinateur qu’ils font fonctionner. A ce niveau, les différences de prix des systèmes en
concurrence n’ont sur le choix des clients qu’une faible incidence comparativement aux
autres caractéristiques du produit. Par ailleurs, comme dans le cas des composants, les
prix sont très inférieurs à ceux qu’aurait intérêt à pratiquer un monopoleur. En effet,
doubler (par exemple) le prix du progiciel n’augmenterait le prix total du système que
de 10% et ne réduirait pas sensiblement le nombre total d’unités vendues, se traduisant
ainsi pour les offreurs de progiciels par un revenu et des profits supérieurs.
L’originalité du secteur
Si le secteur des progiciels présente des analogies avec le secteur des composants,
il s’en distingue également par un certain nombre de caractéristiques.
Tout d’abord, comme nous l’avons vu, les progiciels ne constituent pas un secteur
unique où tous les offreurs seraient en concurrence entre eux. Il existe une multitude de
53 Voir chapitre 8
ccxxiii
segments de marché indépendants qui forment autant d’arènes concurrentielles où les
différents offreurs choisissent ou non d’être présents. Les secteurs qui se constituent
ainsi peuvent avoir des caractéristiques suffisamment différentes pour que les modalités
de la concurrence n’y soient pas identiques, de même que les personnalités d’entreprise
adaptées à chacun de ces secteurs. En revanche, les frontières entre ces secteurs
élémentaires sont floues et mouvantes. La structure de l’industrie du progiciel est donc
par nature plus complexe et plus instable que celle des composants.
ccxxiv
domaines peuvent être dominés par une firme spécialisée dans ce seul domaine et donc
relativement petite, le progiciel dans sa totalité peut avoir les apparences d’un secteur
dispersé si on ne prend pas soin d’en conduire l’examen domaine par domaine.
Enfin, alors que les microprocesseurs ne sont vendus par leurs producteurs qu’à
des entreprises d’assemblage de matériels pour être incorporés dans leurs machines, le
plus souvent à raison de un processeur et un seul par unité, les progiciels sont
commercialisés en grande partie directement auprès des utilisateurs. La proportion de
ventes directes aux utilisateurs et de vente indirecte à travers les firmes de matériel varie
selon la nature du progiciel. La grande majorité des ventes initiales des systèmes
d’exploitation est réalisée à travers les vendeurs de matériel qui équipent leurs machines
du système d’exploitation de leur choix. L’utilisateur peut commander une machine nue
et choisir lui-même son système d’exploitation, mais la plupart du temps il s’en tient au
système pré-installé et ne se procurera de façon directe que les nouvelles versions de ce
système. A l’opposé, les progiciels d’application les plus spécifiques sont toujours
acquis directement par leurs utilisateurs.
ccxxv
La tarification des progiciels
Les tarifs pratiqués pour les progiciels illustrent bien le résultat des mécanismes
classiques de formation des prix dans un secteur de type monopoliste, c’est à dire où les
coûts unitaires variables sont très faibles par rapport aux coûts fixes, ici les coûts de
développement.
Tout d’abord, les prix « catalogue » sont à peu près indépendants du contenu
fonctionnel du produit et donc de ses coûts. L’échelle des prix s’organise en quelques
grandes familles plus directement liées à la taille du marché visé et à sa sensibilité aux
prix. Les utilitaires simples et tous les jeux quelle que soit leur complexité se situent
autour de 500F ou moins (moins de 100$), les systèmes de base (DOS, Windows, OS/2)
et les utilitaires plus complexes autour de 1000 à 1500F, les systèmes applicatifs et les
outils courants (Traitement de Textes, tableurs, PAO, …) entre 3000 et 7000F. Seuls
quelques outils exceptionnels comme des compilateurs de langages rarement utilisés sur
micro-ordinateurs atteignent la zone des 12000 à 20000F. Or il est bien clair qu’un
compilateur de Pascal Objet ou Visual C++ vendus 1500F sont plus complexes et plus
coûteux en développement qu’un Fortran à 12000F.
L’offreur d’un nouveau progiciel doit choisir son prix par rapport à ces gammes
de prix standard qui se sont formées sur le marché. Les prix préexistent en quelque sorte
au progiciel, et sont indépendants de ses coûts de développement. Il appartient ensuite à
chaque offreur actuel ou potentiel de gérer ses coûts et ses volumes de façon à produire
un profit si possible.
C’est pourquoi le prix d’un même progiciel varie selon le client, les conditions, le
lieu, le moment, etc. Par exemple les tarifs de cession aux constructeurs pour pré-
installation dans leurs systèmes sont très inférieurs aux tarifs de vente directe aux
utilisateurs, et peuvent l’être d’autant plus que c’est alors le constructeur et non le
producteur du progiciel qui en supporte les coûts variables. Par exemple, un
constructeur de micro-ordinateurs ne paye à Microsoft que 35$ (moins de 200F) par
exemplaire du couple MS-DOS/Windows, alors que le prix de Windows seul, vendu
isolément, est d’environ 1000F. A la sortie, la contribution du progiciel au prix total du
système livré reste notablement inférieure au prix du progiciel isolé. L’objectif du
fournisseur de progiciel est bien évidemment de se créer une clientèle captive pour les
versions ultérieures. Un cas un peu analogue est celui des « licences de site » et de
ccxxvi
toutes leurs variantes négociées pour permettre à un grand utilisateur d’utiliser un
progiciel sur plusieurs machines sans devoir payer autant de fois le prix unitaire, en
prenant à sa charge les coûts de reproduction ou une partie des coûts de support
technique.
Pour les grands progiciels, la lutte pour les parts de marché met principalement en
jeu les accords d’installation des progiciels sur les machines neuves livrées par les
constructeurs, les prix réduits pour les utilisateurs de produits concurrents ou les prix
« d’attaque » pour la première version d’un progiciel nouveau. Après que le choix des
clients a été déterminé, les nouveautés de chaque version et les coûts de conversion vers
un progiciel concurrent contribuent à faire accepter les prix des versions successives,
dont le cumul après quelques années d’utilisation dépasse de loin le prix auquel il est
possible à ce moment d’acquérir la version courante du progiciel en question.
Notons enfin que l’extrême facilité de reproduction des progiciels sur des supports
très divers rend possible leur copie et leur diffusion illicite, que les dispositions
contractuelles ne peuvent que partiellement empêcher. La possibilité du « piratage »
contribue à imposer des limites supérieures aux prix de marché. L’utilisateur sera
d’autant plus tenté de se procurer une copie gratuite que le prix du logiciel est élevé, que
le logiciel est répandu donc facilement accessible, et que le milieu où il opère est
permissif. Le piratage introduit une forme de sensibilité du marché aux prix qui porte
non pas sur le nombre d’exemplaires diffusés, mais sur la proportion d’exemplaires
facturés parmi les exemplaires utilisés.
54 On retrouve ici la vieille tarification « fonctionnelle » dont nous avons parlé au chapitre 1, qui
peut conduire à ajouter à un produit des fonctions et donc un coût supplémentaire dans le seul but de
pouvoir le vendre moins cher, mais à une clientèle distincte.
ccxxvii
Dynamique d’ensemble
Nous avons vu que les forces de concentration sont d’autant plus vigoureuses que
le logiciel est plus volumineux et plus complexe. Des secteurs correspondant à des
applications simples par nature pourront donc conserver longtemps une structure plus
égalitaire et plus dispersée. Mais le plus souvent, la demande du marché et la
concurrence font évoluer naturellement le progiciel dans le sens d’une richesse et d’une
complexité croissantes, accélérant par là même le processus de concentration.
L’entrée dans un secteur d’application naissant peut être le fait de firmes déjà
établies dans d’autres secteurs. Ces firmes adopteront le plus souvent pour le nouveau
secteur une stratégie de préemption, en introduisant dès le départ des produits riches en
fonctions aux tarifs standard du marché, décourageant ainsi d’emblée l’entrée de petites
firmes spécialisées. La concurrence ne pourra alors impliquer que des offreurs du même
type et prendra immédiatement la forme qu’elle a dans les secteurs concentrés.
La même logique de formation des prix que nous avons vue à l’œuvre dans le cas
des composants électroniques (voir Chapitre 7) aboutit à fixer le prix au niveau du prix
de survie du plus petit offreur. Pour les progiciels, où il existe des prix standard de
marché, il est plus juste de dire que seuls survivent les offreurs dont le prix de survie est
inférieur au prix de marché, ce qui impose un volume minimal de ventes. Les
profitabilités respectives s’échelonnent alors du voisinage de zéro pour les offreurs
marginaux à des valeurs inhabituellement élevées pour les leaders. Ce phénomène
explique la grande dispersion des profitabilités que nous avons constatée au Chapitre 5.
ccxxviii
Les acteurs du progiciel
Le succès d’un progiciel repose non seulement sur sa richesse fonctionnelle, mais
aussi et surtout sur sa facilité d'utilisation, sa convivialité, ses possibilités de
personnalisation, d'extension et de connexion à d'autres logiciels, sa fiabilité, sa
possibilité d'évolution, etc. Les compétences nécessaires sont de trois ordres et
requièrent souvent une étroite coopération entre les trois types de spécialistes
correspondants. Tout d’abord une bonne connaissance des utilisateurs, de leurs besoins,
de leurs habitudes de travail, de leurs préférences, etc. Deuxièmement un spécialiste des
technologies propres à l’application, pour définir tes traitements appropriés. Enfin, des
compétences proprement informatiques dans les techniques de réalisation de progiciel
industrialisé.
ccxxix
applications proprement dites comme la comptabilité, les statistiques, les calculs
d’aérodynamique ou la gestion de portefeuille, une connaissance spécifique des
techniques de l’application est nécessaire. Tant que le logiciel reste raisonnablement
simple, c’est la connaissance de l’application qui domine, et des compétences
informatiques relativement courantes peuvent assurer le succès à des firmes non-
informatiques mais expertes dans le domaine. Un exemple est celui des logiciels de
synthèse musicale, où des firmes comme Roland ou Yamaha sont présentes.
ccxxx
tenu que par un informaticien de profession, probablement rompu à l’utilisation et au
développement du progiciel, et qui doit de plus être compétent dans la gestion de son
entreprise.
Les offreurs de systèmes ont intérêt à s’attirer le plus grand nombre possible de
supporters, qu’ils soient développeurs d’applications ou constructeurs de matériel qui
pré-installeront le système. Ils chercheront donc à concevoir leurs produits de façon
qu’ils soient ouverts aux extensions offertes par d'autres, et à faciliter le développement
de ces extensions par des programmes d’information et de support destinés aux autres
firmes. Cette forme de concurrence par la séduction des offreurs secondaires peut se
traduire par des formes d’association plus ou moins formelles avec ces derniers, en
particulier par la formation de consortiums visant la définition de normes communes ou
des actions de commercialisation conjointes.
La concurrence entre les grands intégrateurs les pousse à enrichir leurs produits en
permanence en offrant des versions successives. Les extensions ou améliorations
offertes par les offreurs secondaires constituent à chaque instant un réservoir de
fonctions susceptibles d’être intégrées dans la nouvelle version du système, et que le
« systémier » pourra ou bien réécrire sous une forme compétitive avec les offres
secondaires, soit acquérir auprès de l’un de ces offreurs. Sur le long terme, on assiste
ainsi à une migration de fonctions, qui débutent comme des extensions mineures
indépendantes, puis se réunissent en sous-systèmes pour achever leur course à
l’intérieur de grands systèmes intégrés.
ccxxxi
Pour bénéficier de ce mouvement, les intégrateurs sont amenés à acquérir les
logiciels concernés auprès des firmes secondaires, et souvent à acquérir la firme elle-
même pour bénéficier de ses compétences et de sa base de clientèle. La migration des
fonctions s’accompagne d’un processus continu d’absorption des petites entreprises par
les industriels, compensé par l’apparition permanente de nouveaux acteurs dans des
domaines périphériques nouveaux.
Beaucoup de ces petites firmes disparaîtront si l’idée qui leur a donné naissance
est fausse ou non originale, moins bien réalisée ou moins bien vendue que les produits
concurrents, ou reprise entre temps par un offreur majeur. D’autres survivront dans des
réseaux parallèles de « shareware » où le paiement d’une redevance est laissé à
l’appréciation de l’utilisateur, et où la distribution est assurée par une variété de canaux
comme des annonces ou plus récemment des CD-ROM encartés dans les magazines
spécialisés, ou encore les réseaux informatiques tels qu’Internet.
Parmi les firmes qui réussissent, certaines offriront des produits assez originaux et
d’assez bonne qualité pour intéresser les offreurs majeurs, qui chercheront alors à
acquérir soit le produit soit la firme. Pour ces petites entreprises, la disparition peut être
le prix du succès et l’objectif de leur créateur, qui peut alors se retirer fortune faite ou
repartir dans l’aventure avec une autre idée.
Résumé et perspectives
Au total, en analysant le secteur des progiciels à l’aide des outils que nous avons
forgés dans la deuxième partie de cet ouvrage, nous découvrons un macro-secteur
complexe et diversifié, formé en réalité de secteurs distincts selon les fonctions des
progiciels. Les facteurs qui déterminent la forme du jeu concurrentiel et la structure
sectorielle qui en résulte varient de secteur à secteur selon la taille et la complexité des
ccxxxii
produits de chaque secteur. Les frontières entre secteurs sont floues et perméables, et
l’ensemble du macro-secteur est traversé de mouvements continuels.
Ces deux mondes vivent en symbiose. D’une part les innovateurs et les offreurs
secondaires forment des constellations d’alliances autour des standards du marché que
constituent les grands systèmes. D’autre part les grands industriels cherchent en
permanence à enrichir leur offre en y incorporant les fonctions nouvelles développées
par les innovateurs, ce qui peut impliquer acquisition des logiciels ou des entreprises.
ccxxxiii
Chapitre 12
Les systèmes d’exploitation et la
standardisation
ccxxxiv
Fonctions et structure des systèmes d’exploitation
Le premier rôle des systèmes est d’assurer la relation entre les autres programmes
et le matériel proprement dit. Les organes physiques de l’ordinateur savent exécuter un
répertoire d’opérations élémentaires commandées chacune par une instruction. Un grand
nombre des fonctions exécutées de façon fréquente dans les programmes demandent
l’exécution d’une séquence plus ou moins complexe d’instructions élémentaires qu’il
serait fastidieux de réécrire à chaque fois, ce qui constituerait en outre une source
d’erreurs. Ces séquences fonctionnelles sont donc codées une fois pour toutes et mises à
la disposition des programmeurs sous la forme de sous-programmes standard.
C’est ainsi qu’un programmeur peut faire appel à une fonction synthétique
« sauvegarder sur disque une zone de mémoire » en ne spécifiant que la zone de
mémoire concernée. Le sous-programme standard se chargera de mesurer la place
nécessaire, de localiser sur disque un emplacement libre de taille suffisante, d’y
positionner la tête d’écriture, de copier le contenu de la mémoire désignée, de relire
cette zone du disque en la comparant à l’original afin de vérifier l’exactitude de la copie,
de recommencer en cas d’erreur à un autre emplacement du disque, de signaler enfin au
programme que l’opération a été correctement effectuée, en indiquant l’endroit du
disque où l’information a été copiée, pour permettre de la retrouver ultérieurement.
On voit sur cet exemple que le système d’exploitation a une autre fonction
fondamentale, celle de tenir à jour en permanence en mémoire des tables qui
représentent une image de la machine et de l’état de ses différents constituants, et de
réagir automatiquement de façon appropriée aux changements d’état. Ces fonctions
utilisent généralement un système d’interruptions par lequel chaque organe de
l’ordinateur peut interrompre le traitement en cours pour signaler un événement le
concernant. C’est cette image de l’ordinateur, élaborée par le système, qui est utilisée
par l’ensemble des programmes.
ccxxxv
Cette démarche est utilisée en particulier pour gérer les interactions avec les
utilisateurs dans les systèmes qui permettent un dialogue direct avec l’ordinateur. Les
actions de l’usager, qui peuvent être menées indépendamment du déroulement du
programme en cours, sont reflétées dans les tables descriptives de l’état de l’ordinateur
et peuvent être signalées au programme. A l’inverse, la présentation du travail en cours
est assurée par des sous-programmes qui transforment les commandes fonctionnelles du
programme en ensembles de points coloriés affichés sur l’écran. Ces fonctionnalités
d’entrée et de sortie définissent la forme et le style du dialogue entre la machine et ses
utilisateurs.
ccxxxvi
ensemble de fonctions qui sont externes aux applications par nature, et non plus par
commodité comme pour celles qui faisaient l’objet de la section précédente.
Chacun des programmes destinés à être exécutés sur un ordinateur, qu’il s’agisse
d’applications ou de fonctions utilitaires, vient ainsi s’insérer à l’intérieur d’une
structure prédéfinie formée par le système d’exploitation. Ces programmes s’exécutent
comme des sous-programmes du système d’exploitation. Ils doivent respecter un certain
nombre de conventions propres à celui-ci et peuvent s’appuyer sur une bibliothèque de
sous-programmes qui incarnent par ailleurs ces conventions. Pour le programmeur, le
système se présente comme une collection de fonctions qu’il peut mettre en œuvre à
travers des conventions d’appel généralement appelées des API pour « Application
Programming Interface ».
Ces API regroupent les instructions qui donnent accès à toutes les fonctions du
système utilisables pour l’écriture d’applications, organisées en grandes familles selon
le domaine couvert : gestion de la mémoire, gestion de l’impression, gestion des
fichiers, communication entre programmes, communications avec l’utilisateur, etc. Elles
forment un langage doté de sa syntaxe et de sa sémantique, qui constitue une façon
naturelle de représenter des fonctions d’intérêt général, même si en toute rigueur elles
ne se rattachent pas aux fonctions classiques d’un système d’exploitation au sens strict.
C’est ce langage que produisent et manipulent les différents programmes d’aide au
développement tels que les traducteurs de langages de haut niveau (Cobol, Fortran,
Pascal, C, …).
Variété et structure
ccxxxvii
Les limites externes de ces systèmes, c’est à dire leur contenu fonctionnel, varient
de système à système. Chacun d’entre eux est d’ailleurs distribué sous la forme d’un
noyau plus ou moins riche qui constitue le système d’exploitation proprement dit, et
d’une collection de programmes utilitaires indépendants dont certains peuvent être
rangés parmi les applications. Où s’arrête par exemple la gestion des données ? Doit-
elle se borner à la gestion des fichiers en tant qu’entités globales opaques, permettre un
accès élémentaire aux enregistrements individuels qui les constituent ou aller jusqu’à la
gestion de structures complexes de bases de données ? De même, quelles fonctions de
gestion des textes, des images et des sons doivent figurer respectivement dans la base du
système, dans les utilitaires ou dans les programmes d’application ?
Pour les fonctions qui sont présentes dans plusieurs systèmes, elles sont réalisées
de façon différente, et en particulier leurs conventions d’appel par les programmes
utilisateurs (les API) sont différentes. Un programme écrit pour un système
d’exploitation ne peut donc pas s’exécuter sur un autre, même si les deux systèmes
résident sur la même machine, et a fortiori sur des machines différentes. De plus, le
contenu fonctionnel des systèmes, la répartition des fonctions entre les différentes
couches, voire la forme des API, évoluent dans le temps pour un même système par
suite de son enrichissement progressif, si bien que les programmes d’application
doivent parfois être modifiés pour continuer à fonctionner sur les nouvelles versions des
systèmes.
Mais si on excepte les rares cas où le système respecte une norme externe, la
définition des sous-systèmes et de leurs couches est de la responsabilité du producteur
ccxxxviii
du système et répond à ses propres conceptions et à ses propres objectifs de commodité.
Cette structuration implique également des arbitrages entre performances et pureté
structurelle. En effet, si la rigueur commande de respecter scrupuleusement les
contraintes de construction, la performance demande souvent de les transgresser, par
exemple en court-circuitant des couches intermédiaires dans un sous-système ou en
laissant les sous-systèmes communiquer entre eux aux niveaux intermédiaires. Dans la
réalité, non seulement la structure du système est propre à chaque offreur, mais elle reste
complexe et embrouillée, en permettant plus ou moins à chaque module fonctionnel
d’utiliser tous les autres. Loin d’être un édifice harmonieux, le système forme un bloc
opaque pour tout autre que ses concepteurs, et qui reste difficile à intégrer et à faire
évoluer, même pour ces derniers.
Cette ambition est celle des promoteurs des systèmes dits « ouverts », dont les
buts principaux sont de permettre la « portabilité » et l’« interopérabilité » entre
systèmes différents. La notion de portabilité concerne non seulement les programmes,
pour lesquels elle signifie qu’ils peuvent être exécutés indifféremment par plusieurs
systèmes, mais aussi les informations, qui doivent pouvoir être écrites par un
quelconque des systèmes et lues par tous les autres, ainsi que les compétences
nécessaires aux utilisateurs, qui ne doivent pas différer selon le système qu’ils utilisent.
La notion d’interopérabilité signifie que deux systèmes différents doivent pouvoir
communiquer entre eux en s’échangeant les informations nécessaires pour fonctionner
ensemble de façon harmonieuse.
ccxxxix
On devine que la mise en œuvre du concept de systèmes ouverts porte en germe
des conséquences potentiellement importantes pour la structure de l’industrie
informatique. Rendre les applications et les progiciels indépendants du matériel, et
permettre à tous les matériels de s’intégrer dans tous les systèmes, achève de dissocier
l’industrie en secteurs spécialisés par nature d’offre et type d’unité, et accélère le
passage d’une industrie de type traditionnel dominée par les généralistes au type PC
dominé par les spécialistes. Rendre tout élément compatible avec tous les autres élargit
le marché potentiel de chacun et favorise la dispersion de chaque secteur. Enfin, faire
éclater le système d’exploitation en composants standard donc développables
indépendamment peut conduire à l’éclatement de ce secteur et à un affaiblissement des
forces de concentration.
Normes et standards
ccxl
L’existence d’un standard suppose une instance de définition de l'architecture, qui
peut être simplement une firme dominante ou un organisme formé à cet effet par les
firmes intéressées. Le respect d’un standard est une décision prise librement et selon son
propre intérêt par chacune des firmes productrices.
Un standard devient une norme quand il est soutenu par une autorité distincte des
entreprises concernées, qui lui confère un caractère obligatoire en disposant de moyens
de pression pour la faire respecter. Les normes sont généralement promulguées au nom
de l’intérêt de l’utilisateur afin d’assurer à la fois sa liberté de choix et la pérennité de
ses investissements.
Standardisation et concurrence
Les produits ou services qui composent chacun des secteurs particuliers, et qui
sont par hypothèse substituables entre eux dans chaque secteur, peuvent être soumis à
des standards ou des normes. Insistons sur le fait évident que l’activité de production de
standards et l’activité de production de produits conformes au standard sont deux
activités distinctes. Les entreprises ne gagnent pas d'argent en vendant des standards,
mais en vendant des produits qui peuvent être plus ou moins conformes aux standards,
ou au contraire devenir la définition des standards si le marché les plébiscite.
Même dans les secteurs soumis à une forte normalisation, les différents offreurs
sont en concurrence et cherchent par définition à se différencier les uns des autres pour
obtenir un avantage concurrentiel qui leur attire la faveur du marché. Or se conformer à
des standards élimine des possibilités de différenciation. Etant donné que les standards
portent le plus souvent sur les spécifications fonctionnelles externes des produits, la
normalisation déplace le champ de la concurrence vers les prix et les modalités de
réalisation, et non plus les fonctionnalités elles-mêmes ou les modalités de leur
utilisation. Tout progrès étant le fruit de la concurrence, la normalisation tend donc à
ralentir voire figer le progrès dans la définition des fonctions qu’elle concerne, et à
l’orienter vers la recherche de meilleures performances et d’une meilleure fiabilité au
moindre coût.
ccxli
standards. Le meilleur standard est celui qui se dégage spontanément de l’interaction
entre les offreurs et le marché à l’issue de cette période.
Les gagnants sont les clients, les candidats à l'entrée et dans une certaine mesure
les offreurs secondaires qui voient les avantages concurrentiels des leaders s’effriter.
Les perdants sont les leaders établis du secteur. Dans le cas favorable où ce sont leurs
produits qui ont servi de base aux normes, les avantages concurrentiels qu’ils tiraient de
leur définition même disparaissent, et ils doivent pour conserver leur position
rechercher d'autres avantages reposant sur des économies d'échelle, des technologies
protégées ou un meilleur savoir-faire. Si les normes retenues sont différentes des
spécifications de leurs produits, ils sont face à un choix de toute façon coûteux : ou bien
se conformer aux normes, et pour cela supporter en plus les investissements de
développement de nouveaux produits, ou bien entrer en concurrence avec les produits
normalisés, tout en tentant de faire évoluer les standards dans un sens qui leur soit
favorable.
Insistons sur le fait qu’un offreur dominant n’a intérêt à ce que ses produits
deviennent des standards que s’il dispose d’autres avantages concurrentiels suffisants
pour conserver sa part de marché dans le secteur soumis au standard malgré
l’abaissement des obstacles à l’entrée. Autrement, l’effet de la standardisation est de lui
susciter des concurrents plus nombreux et plus agressifs, tout en augmentant le pouvoir
relatif des clients, deux facteurs qui ne peuvent que réduire à la fois ses marges et sa
part de marché. A l’intérieur des entreprises, les techniciens peuvent rechercher une
satisfaction d’amour-propre à travers la reconnaissance de leurs produits sous forme de
standard ou de norme ; les stratèges sont beaucoup plus circonspects et évitent de
solliciter ce cadeau empoisonné.
ccxlii
composants logiciels distincts dans un système que des unités matérielles distinctes dans
une machine.
Nous avons vu que les secteurs concentrés se caractérisent par une grande
inégalité des parts de marché. Dans un secteur structurellement concentré, c’est à dire
qui n’est pas susceptible d’éclater, le produit de l’offreur dominant constitue un standard
de fait par sa diffusion majoritaire sur le marché, et aussi par l’existence de produits
compatibles ou « clones ». Dans un tel secteur, il serait fort peu probable que la firme
dominante, avec ses 60 à 80% du marché, accepte de négocier avec ses challengers pour
établir une norme commune qui ne serait pas en tout point conforme aux spécifications
de ses propres produits. Une standardisation consensuelle est donc pratiquement exclue.
ccxliii
systèmes multiprocesseurs à base de PowerPC, et Intel à conserver l’architecture 80x86
dans les Pentium.
Les secteurs dispersés sont soumis aux standards pertinents des secteurs
concentrés connexes. Une éventuelle demande d’autres standards, qu’ils soient propres
au secteur ou qu’ils concernent l’interconnexion entre produits de secteurs dispersés
différents, ne peut être satisfaite que par une concertation explicite entre firmes. Cette
demande viendra d’ailleurs principalement des offreurs secondaires et des candidats à
l’entrée dans le secteur.
Il arrive par contre que des normes soient promulguées par une autorité agissant
au nom de l’intérêt des utilisateurs, ou se réclamant d’eux pour d’autres motifs de
politique industrielle par exemple. Si l’organisme de normalisation ne fait qu’accélérer
ou faciliter le processus naturel de standardisation, et entériner ses résultats, son action a
toutes chances d’être bénéfique. Elle peut devenir néfaste si elle aboutit à une
standardisation prématurée ou si elle a pour objectif de s’opposer à des standards de fait.
Un exemple du premier cas est celui de Cobol, où le premier langage venu a été
promulgué comme norme et adopté de façon générale faute d’alternative, tarissant tout
développement en matière de programmation de gestion et condamnant les
programmeurs à utiliser éternellement un outil rigide et mal commode. Dans le
deuxième cas, on trouve les cas où la normalisation est utilisée comme une arme de
ccxliv
politique industrielle pour s’opposer à un standard « naturel » de fait et donc lutter
contre les firmes qui représentent ce standard. Un exemple classique est celui du modèle
Osi pour l’architecture de réseaux, conçu dès le départ comme une alternative au
modèle SNA d’IBM, mais qui n’a jamais pu recueillir l’adhésion totale de l’industrie et
est en passe d’être supplanté par d’autres architectures plus performantes et plus en
phase avec les besoins actuels. Les efforts de normalisation autour d’Unix, dont nous
allons parler dans la suite, relèvent en grande partie de cette normalisation « de
combat ».
Fort heureusement, alors qu’un standard est par définition respecté par une
majorité, une norme peut ne pas être respectée ou rester minoritaire. Si une norme
officielle ne donne pas satisfaction, les offreurs continueront à rechercher des solutions
alternatives que le marché pourra consacrer comme standards indépendamment de la
norme.
Un système expérimental
Depuis leur origine vers la fin des années 50, les systèmes d’exploitation ont été
considérés comme associés à chacun des matériels. Certains types d’ordinateurs ont
même été dotés de plusieurs systèmes d’exploitation, soit pour des utilisations
différentes comme le traitement conventionnel, le temps partagé ou le traitement en
temps réel, soit pour des familles de configurations différentes. Dans le contexte
d’offres intégrées qui est celui de l’informatique jusqu’en 1981, les systèmes
d’exploitation sont produits par les constructeurs généralistes et commercialisés comme
partie intégrante du matériel. Il n’existe pas d’offreurs indépendants de systèmes
d’exploitation, et l’idée même d’un système universel commun à des matériels
différents ne s’est pas fait jour.
ccxlv
qu’une adaptation aux mini-ordinateurs du système Multics de General Electric . Son55
succès est dû pour une part à ses fonctions bien adaptées aux besoins des universités, et
surtout à sa disponibilité sous forme source dans un langage de haut niveau, le langage
C, à partir de 1973. Unix se prête donc bien à l’enseignement de la structure d’un
système d’exploitation et à l’expérimentation de fonctions et de méthodes de réalisation
nouvelles.
Commence alors un double conflit qui domine toute l’histoire d’Unix et persiste
encore aujourd’hui, et qui rend les considérations techniques inséparables de
considérations de politique industrielle. Premièrement, chacun des offreurs industriels
doit dans ses systèmes trouver le meilleur équilibre entre conformité aux standards et
différenciation concurrentielle. Deuxièmement, au niveau global, les exigences d’un
standard industriel sont souvent différentes de celles d’une plate-forme de recherche et
développement. Enfin, le processus de standardisation vise ouvertement à définir une
norme qui serait non seulement applicable à Unix en tant qu’un système parmi d’autres,
mais qui s’appliquerait à tous les systèmes et ferait d’Unix le standard des systèmes
d’exploitation. Cette volonté a priori d’établir une norme indépendante apparaît dès
1981 avec la création de Posix.
Ces ambiguïtés, ainsi que le nombre et la variété des acteurs impliqués, entravent
la progression vers des standards. De plus, ceux des acteurs majeurs qui possèdent un
avantage concurrentiel concernant Unix hésitent entre l’exploiter et y renoncer en
s’associant pleinement à la standardisation. C’est ainsi qu’en 1983, ATT, qui jusque là
avait permis une diffusion libérale d’Unix, réagit à sa vogue soudain en demandant des
redevances importantes. Les autres constructeurs intéressés créent alors en 1984
55 voir Chapitre 3
ccxlvi
l’organisation XOpen afin de promouvoir un système réellement ouvert et facilement
accessible. Des réactions du même type se produiront en 1988 avec la création de l’OSF
pour contrer une alliance entre Sun et ATT annoncée en 1987, et en 1994 par la création
du consortium Cose lorsque Microsoft mettra sur le marché son système Windows NT
qui intègre un grand nombre de caractéristiques d’Unix et vient le concurrencer sur son
terrain traditionnel. A chaque fois que l’un des acteurs prend une initiative qui pourrait
faire de lui l’acteur dominant, les autres parties intéressées font de la standardisation un
instrument de lutte explicite en créant des organes de normalisation « de combat ».
Poussés à la fois par l’absence d’un consensus sur les standards, par le besoin
concurrentiel de se différencier et par la qualité inégale des réalisations issues des
laboratoires universitaires, tous les constructeurs développent leur propre version
d’Unix qu’ils composent d'un assemblage particulier d'éléments standard et d'éléments
originaux. Entre les réalisations universitaires, les systèmes offerts par les constructeurs
et ceux proposés par des firmes spécialisées comme Santa Cruz Operation, on assiste à
une floraison de systèmes se réclamant tous d’Unix mais tous plus ou moins différents,
dont le nombre est estimé à environ une centaine. Cette diversité est d’ailleurs favorisée
par le fait que le nom Unix était encore récemment propriété d’ATT et ne pouvait pas
être utilisé par d’autres firmes. Puisque les développeurs de systèmes Unix devaient en
tout état de cause les appeler d’un autre nom, ils pouvaient aussi bien en faire autre
chose...
Le monde Unix est donc tout le contraire d'un monde standardisé. C'est au
contraire là que la concurrence spécifique aux systèmes d'exploitation est la plus
intense. Dans le monde traditionnel, l’idée même d’un système d’exploitation commun
à des matériels de fournisseurs différents est étrangère, et la concurrence sur les
systèmes s’éclipse derrière la concurrence sur les matériels. Dans le monde du PC, toute
l'industrie s'est rangée derrière MS-DOS et maintenant Windows, et la concurrence qui
subsiste dans le secteur des systèmes d’exploitation a pris la forme asymétrique
caractéristique des secteurs concentrés. La standardisation d’Unix est un processus qui
conduit au mieux à un espoir, pas un état de fait. C’est précisément parce que le besoin
de standards y est criant et qu'aucun offreur ne domine le marché que le monde Unix
consacre tant d'efforts à la standardisation.
Mais, l'innovation étant l'autre face de la concurrence, le monde Unix est le foyer
d'innovation privilégié pour le domaine des systèmes d'exploitation, où contribuent non
seulement les industriels spécialisés ou non, mais les laboratoires de recherche
universitaires ou autres. De plus, le niveau de puissance de la plupart des systèmes Unix
empiète à la fois sur le haut de gamme des ordinateurs personnels et sur la partie basse
de la gamme des grands systèmes. A la charnière de l'informatique traditionnelle et de la
microinformatique, le laboratoire Unix est idéal pour expérimenter des technologies qui
permettront la symbiose de ces deux mondes, ainsi que pour transférer de l’un vers
l’autre des technologies existantes.
ccxlvii
améliorations ont été développées dans ces domaines et dans d’autres. Il existe
aujourd’hui dans le monde Unix tous les ingrédients nécessaires pour composer sur
cette base un système à la fois plus convivial que celui d’Apple (par exemple NextStep)
et plus riche en fonctions de gestion que les systèmes IBM pour grands systèmes.
C’est dans le monde Unix que prennent naissance les produits d’avant-garde qui
permettront le remplacement des grands systèmes par des complexes de systèmes ou de
microprocesseurs issus des micros, et donc la fusion des trois mondes traditionnel,
micro et Unix en un seul dont la structure industrielle et les paramètres prix-
performances seront ceux de la micro-informatique.
Il est naturel que dans ce monde foisonnant situé au confluent des intérêts des
utilisateurs, des développeurs d’applications, des producteurs de matériel et du monde
de la recherche, et qui concerne au premier chef les producteurs de progiciels, la volonté
de standardisation se heurte à des conflits d’intérêt entre les acteurs.
Or, comme nous l’avons vu, un système de qualité industrielle ne peut être produit
que par une organisation industrielle, et les investissements nécessaires ne peuvent être
consentis que dans un espoir de profit. Un logiciel de qualité industrielle ne peut donc
être que payant. De plus, la loi à laquelle sont soumises les firmes industrielles est celle
de la concurrence, qui les contraint à chercher à se différencier. Dans un secteur aussi
dynamique que celui des systèmes d’exploitation, il est hautement improbable que
toutes les firmes en concurrence renoncent à se différencier par les fonctionnalités de
leurs produits pour se limiter à une concurrence par les performances, les prix et la
qualité.
ccxlviii
prédire qu’il n’existera jamais de système alliant une conformité absolue à un standard
extérieur avec une qualité industrielle incluant le support de toutes les configurations,
une fiabilité rigoureuse et une bonne documentation, une garantie de maintenance et
d’évolution, etc.
Unix et les systèmes industriels jouent ainsi des rôles définitivement différents et
coexisteront toujours. Le premier sert de cadre à une activité de R&D indépendante ou
universitaire qui restera toujours un facteur fondamental de progrès. Les seconds visent
à satisfaire les besoins concrets du marché tout en tirant parti, de façon différenciée et
sélective, des progrès réalisés dans le monde Unix. Entre d’une part le monde Unix, à la
fois système de référence pour l’innovation et idéal inaccessible pour la normalisation,
et d’autre part le monde prosaïque des systèmes industriels concurrents, s’établit un
équilibre dynamique mouvant qui a toutes chances de se perpétuer tant que demeurera
un potentiel de progrès dans le logiciel, c’est à dire aussi loin que l’on puisse voir.
Le futur immédiat
Jusqu’à présent, le monde Unix est resté séparé du reste de l’informatique car
s’appuyant essentiellement sur des familles de processeurs différents rangés sous la
bannière Risc. Cette séparation est remise en question par la fusion des mondes Intel et
Risc annoncée par le Pentium et le PowerPC, qui mènera à l’élimination progressive de
la plupart des architectures Risc actuelles (voir Chapitre 7).
ccxlix
Il existe d'ores et déjà plusieurs versions d'Unix tournant sur les processeurs Intel
caractéristiques du monde PC, dont Xenix de Microsoft et Solaris de Sun, mais leur
diffusion est confidentielle en regard de la diffusion de MS-DOS et Windows. A
l'inverse, Digital Equipment a récemment fait entrer les processeurs Risc dans la
concurrence des PC en offrant un PC sous MS-DOS/Windows équipé de son processeur
Alpha.
Windows NT, et ses dérivés présents et futurs, est non seulement un successeur de
Windows, mais devient une alternative raisonnable à des systèmes Unix, y compris pour
des systèmes à base de processeurs Risc et pour des configurations haut de gamme
destinées à s'insérer dans une architecture client-serveur ou utilisant des
multiprocesseurs. Comme pour les composants, le secteur des systèmes Unix et celui
des systèmes d'exploitation pour PC, jusque là essentiellement disjoints, sont en train de
fusionner.
La fusion de ces deux secteurs implique que, comme pour les processeurs, la
dynamique concurrentielle de concentration va maintenant jouer dans un segment de
marché unique allant des PC aux systèmes Unix. Pour de tels progiciels l'échelle
optimale de production est de quelques millions, donc notablement inférieure à la taille
du marché, ce qui laisse la place pour un certain nombre d'offres concurrentes. Il faut
donc s'attendre à voir des entrepreneurs de type industriel, comme Microsoft, Novell ou
IBM, offrir des systèmes d'exploitation concurrents dont la qualité ne laissera que peu
de place à ceux qui seraient développés par des amateurs même géniaux, ou par des
comités même animés des meilleures intentions.
Pour atteindre ces objectifs, tous puiseront dans le laboratoire d'idées que
constitue le mouvement Unix et respecteront les normes qui, en sont issues, mais sans
pour autant se priver de développements originaux propres. Dans ce secteur des
systèmes d'exploitation, devenu autonome aussi bien par rapport à celui des composants
que par rapport à celui des matériels, la concurrence ne se jouera pas entre Unix et les
autres, mais entre systèmes se réclamant tous plus ou moins d'Unix et comprenant tous
une part variable de modules originaux (pour ne pas dire « propriétaires »).
ccl
Les firmes qui offrent des systèmes d’exploitation se réclamant d’Unix sont pour
la plupart des firmes conformes au modèle de l’informatique traditionnelle par
opposition au modèle PC, c’est à dire qui offrent également leur propre matériel, soit
construit à partir de processeurs Risc particuliers comme Sun, Silicon Graphics, Digital
Equipment ou Hewlett-Packard, soit à partir de processeurs du commerce pour les
nouveaux convertis comme Unisys. Sur le segment des systèmes d’exploitation, ces
firmes vont de plus en plus être concurrencées par les spécialistes des progiciels (non
nécessairement Unix) que sont Microsoft, Novell, Santa Cruz Operation, ou les futurs
rejetons spécialisés d’IBM ou Apple.
Perspectives
ccli
macro-secteur des systèmes d’exploitation indépendant, détaché de celui du matériel et
dominé par des spécialistes du progiciel comme c’est déjà le cas dans le monde PC.
Entre ces deux limites extrêmes du secteur pourront se placer des firmes agissant
en tant que relais d’intégration dans des domaines comme celui des utilitaires ou
d’applications générales voisines des systèmes d’exploitation, un rôle que jouent
aujourd’hui par exemple Symantec ou Computer Associates. A travers l’ensemble du
secteur, des idées et des produits migreront de façon continue depuis la frange
innovatrice dispersée vers les pôles d’attraction que constituent les systèmes intégrés
industriels. Cette migration aura pour conséquence d’étendre le périmètre fonctionnel
considéré comme séparant les systèmes d’exploitation des progiciels d’application. Elle
s’accompagnera de l’acquisition de firmes appartenant aux secteurs dispersés par les
entreprises des secteurs les plus concentrés.
cclii
La racine du problème est que, avec les techniques de développement actuelles, la
conformité d'un élément à ses spécifications ne garantit pas qu’il s’intégrera sans effort
ni erreurs dans le système auquel il est destiné. S’il était possible de spécifier et de
réaliser tous les composants d’un système de façon que la conformité de chacun à ses
spécifications en garantisse l’intégration, et que le fonctionnement correct du système
dans une configuration entraîne qu’il fonctionnera correctement dans toutes les autres,
alors il deviendrait possible de développer et de commercialiser les systèmes sous forme
de morceaux indépendants. L’échelle de production applicable à chacun de ces
composants serait notablement plus faible que celle des systèmes intégrés, et le cycle de
production plus court. Comme nous l’avons vu au chapitre précédent, ceci favoriserait
la fragmentation de l’industrie, et l’intégration de systèmes deviendrait une spécialité
parmi d’autres, analogue à celle d’assemblage pour le matériel.
En même temps que l’intensité des forces de concentration pour les intégrateurs,
les technologies de construction (de « génie logiciel ») déterminent le niveau des
obstacles à l’entrée pour les plus petites entreprises. Il existe déjà tout un choix de
boîtes à outils qui permettent de développer facilement des logiciels de qualité et
d’apparence professionnelles, et ces aides au développement ne peuvent que s’enrichir
et se perfectionner. Les obstacles à l’entrée resteront faibles pour les innovateurs, et les
opportunités illimitées tant que les utilisations de l’informatique continueront de ses
diversifier.
Quelque puissantes que puissent être les aides à l’écriture et à l’intégration mises
à la disposition des programmeurs par les méthodes classiques de développement, le
programme ne peut s’exécuter en fin de course que sous la forme de langage machine
où toutes les références à des informations ou à d’autres points du programme ont été
converties en adresses numériques. A ce stade, qui est celui des tests et de l’intégration,
le découpage en modules qui a servi à la construction a disparu et l’ensemble forme un
bloc compact indissociable. Modifier ou ajouter une partie du système demande un
réassemblage complet quel que soit l’importance de la modification.
Pour la même raison, greffer un programme sur un autre, ce qui est par exemple
nécessaire pour exécuter un programme d’application dans le cadre d’un système
d’exploitation, doit avoir été explicitement prévu et se fait selon des conventions
rigoureuses et contraignantes. Des techniques diverses ont été développées pour retarder
au maximum la résolution des références entre programmes, qui conduit à la « prise en
masse » décrite ci-dessus, et permettre ainsi de lier entre eux, au stade de leur exécution,
des programmes indépendants. Quelques exemples de telles conventions sont les
mécanismes DDE (Direct Data Exchange) ou OLE (Object Linking and Embedding) de
Microsoft, mais le développement le plus significatif et le plus prometteur est la
programmation dite « par objets », dont nous allons dire quelques mots.
Les objets
ccliii
implicite entre chacun des modules et la structure des données, ainsi qu’entre modules
via leurs données communes, qui crée des risques d’effets pervers appelés « effets de
bord » (« side effects ») et contribue fortement à la difficulté des tests. De plus, si on
désire changer le format d’une table, que ce soit pour rectifier une erreur, pour
introduire de nouvelles fonctions ou pour améliorer les performances, il faut modifier
tous les modules qui utilisent cette table.
Regrouper ainsi dans une construction cohérente et isolable tout ce qui fait la
spécificité d’un objet apporte de nombreux avantages. Pour chaque objet, il est possible
de faire évoluer chacune de ses méthodes, par exemple le mode d’affichage, en laissant
inchangé tout le reste. On peut aussi ajouter de nouveaux objets à ceux que sait déjà
traiter le système, en les dotant simplement des méthodes appropriées pour réagir aux
messages du système qui saura ainsi les manipuler sans autre changement. Dans le
jargon des objets, on parle de « polymorphisme » pour la possibilité qu’ont des objets
différents de réagir de façon appropriée et différenciée à une même séquence de
messages. Par exemple pour afficher une liste de figures géométriques, le programme de
gestion globale de l’affichage est indépendant de la nature des figures affichées, et il
suffit pour introduire une nouvelle figure d’incorporer la méthode d’affichage
appropriée dans l’objet qui la représente. L’approche objets apparaît comme un concept
essentiel à la réalisation des interfaces graphiques et plus généralement des applications
multimédia.
ccliv
dans des objets nouveaux. Il permet aussi de remplacer individuellement chaque objet
d’un système par un autre objet présentant les mêmes interfaces externes, et dont les
différences avec l’objet original peuvent aller de simples détails de réalisation à une
réécriture complète.
Une technologie émergente liée aux objets est celle des « micronoyaux »
(« microkernel »). Un système moderne peut à tout instant contenir plusieurs
programmes en cours d’exécution, qui sont isolés les uns des autres par des dispositifs
matériels de protection afin d’empêcher les erreurs en cours d’exécution (ou les
malveillances) de se propager de l’un à l’autre. Par exemple, chaque programme ne
pourra accéder qu’aux zones de mémoire qui lui ont été affectées. C’est le système
d’exploitation qui est chargé, entre autres fonctions, d’affecter la mémoire disponible
aux différents travaux et d’assurer le passage d’un programme à un autre. Il doit pour
cela s’affranchir temporairement de ces protections, en quittant le mode normal de
fonctionnement, ou mode « problème » pour passer dans un mode « système » qui
autorise l’accès à la totalité de la mémoire et l’exécution de certaines instructions
privilégiées.
Il est clair que tout programme qui utilise directement le mode système doit être
protégé et soumis à des restrictions draconiennes, et ne peut pas facilement être
développé et distribué séparément. Dans un système qui serait composé d’objets
développés indépendamment, aucun d’entre eux ne devrait faire appel au mode système
autrement qu’en envoyant des messages à un objet « noyau » qui a le monopole de ce
mode.
cclv
est actuellement le sujet de débats et d’expérimentations. Si toutes les propositions y
font figurer la gestion de la mémoire, la gestion des tâches et la communication entre
processus, elles diffèrent par la répartition exacte des tâches entre le mode problème et
le mode système, en particulier pour la gestion des périphériques. Comme c’est toujours
le cas en programmation, ces décisions de répartition correspondent à des arbitrages
différents entre la pureté conceptuelle et la souplesse d’une part, les performances
d’autre part.
Les deux réalisations de micronoyaux les plus connues sont issues du monde
Unix : Mach, né d’une collaboration entre l’Université Carnegie-Mellon et IBM, et
Chorus, développé par la société française Chorus Systèmes. Le micronoyau Mach a été
adopté comme standard par l’OSF et est utilisé dans les nouveaux systèmes en cours de
développement par IBM, Apple, Sun et d’autres, tandis que Novell a choisi Chorus.
Microsoft, de son côté, fait reposer ses systèmes les plus récents comme Windows NT
sur un micronoyau qui lui est propre.
Bien que la technologie des micronoyaux soit au coeur des systèmes objet, aucun
des systèmes ci-dessus n’est réellement un système objet. Dans les systèmes
actuellement disponibles, le code qui réalise les fonctions externes au micronoyau reste
développé et structuré selon les méthodes traditionnelles. Il faudra attendre la
génération de systèmes prévue pour la fin du siècle pour que ces fonctions soient
réalisées sous la forme de collections d’objets indépendants qui communiquent à travers
le micronoyau.
Logiciel et matériel
Une autre grande question est celle de la frontière entre le logiciel et le matériel.
Les microprocesseurs deviennent inéluctablement de plus en plus puissants. On sait
qu’ils contiendront cent millions de transistors vers l’an 2000 contre 3 millions
actuellement, alors qu’il suffit largement d’un demi-million de transistors pour réaliser
une unité de calcul complète. Peut-on penser que les microprocesseurs du XXIe siècle
seront formés de centaines d’unités de calcul fonctionnant en parallèle, ou faut-il
s’attendre à ce que leurs fonctions même soient considérablement enrichies ?
Si telle est la voie dans laquelle s’orientent les fabricants de microprocesseurs, les
fonctions susceptibles de résider sur la puce, voire d’être réalisées directement par des
circuits actifs, sont au premier chef les fonctions du système d’exploitation qui sont les
plus proches du matériel, à commencer par le micronoyau. A priori, tout logiciel
pourrait résider dans une mémoire incorporée au microprocesseur, et de façon plus
radicale tout ce qui est réalisé par logiciel pourrait l’être par les circuits et
réciproquement. On trouve d’ailleurs entre le matériel et le logiciel proprement dits des
cclvi
formes intermédiaires comme le microcode, le logiciel en mémoire morte, les pilotes de
périphériques, qui peuvent eux-mêmes résider dans le système central ou dans l’unité
d’entrée sortie, etc.
La migration inverse du logiciel vers le matériel est plus fréquente. Elle est
toujours motivée par des raisons pratiques de performances ou de fiabilité, et n’est
retardée que par les possibilités des technologies matérielles d’une part, la stabilité et la
généralité des fonctions concernées d’autre part. En effet, les fonctions « gravées dans
le silicium » ne peuvent plus être modifiées que très difficilement, et seules les parties
de logiciel parfaitement testées et stabilisées peuvent être en pratique candidates. Toute
la vie du 360 et de ses dérivés a vu l’apparition périodique de nouvelles instructions
privilégiées destinées à remplacer des séquences d’instructions du système
d’exploitation. Le projet FS prévoyait d’incorporer au matériel de nombreuses fonctions
dont une grande partie de la gestion des bases de données. Dans le monde micro, chacun
des processeurs Intel successifs incorpore des fonctions nouvelles comme la gestion de
l’énergie, qu’on aurait normalement confiées au logiciel. Même le concept Risc a
évolué d’un jeu d’une dizaine d’instructions dans la forme puriste de ses origines à
quelque 200 instructions pour ses incarnations récentes, c’est à dire autant que les
processeurs Cisc classiques.
Conclusions
cclvii
l’étendue du domaine couvert qui laisse la place pour des sous-secteurs allant de
l’extrême concentration à l’extrême dispersion.
cclviii
Chapitre 13
L’univers des services
A plusieurs reprises, nous avons abordé le domaine des services sans toutefois y
pénétrer. En survolant l’industrie informatique dans la première partie, puis en préparant
nos instruments d’analyse des structures industrielles dans le chapitre 6 et en cherchant
à organiser notre réflexion au chapitre 10, nous avons noté quelques traits
caractéristiques des services, qui font de ce domaine un ensemble aux contours flous et
au contenu hétérogène.
Même après en avoir éliminé le progiciel, les services ne se distinguent pas aussi
radicalement des produits que le prétend en général la littérature, et sont trop divers
pour que l’on puisse avancer à leur propos des affirmations générales pertinentes. Bien
au contraire, l’analyse des activités de service doit faire appel à l’ensemble des outils
que nous avons forgés et validés en les appliquant aux produits, et conduit à des
conclusions aussi variées que le sont les formes de service elles-mêmes.
Malgré cette grande diversité, les services font l’objet de nombreux discours où la
confusion plus ou moins volontaire des situations donne naissance aux généralisations
et aux approximations les plus abusives. C’est dans ce domaine que les à peu près et les
idées fausses abondent le plus, véhiculés en particulier par les discours intéressés de
tous les intervenants qui visent à promouvoir leurs offres de services, et relayés par les
analyses des gourous professionnels. Au total, le discours dominant et les idées reçues
quant aux services ne font généralement qu’ajouter à la confusion. Le présent chapitre
se propose d’analyser le domaine des services de façon objective, en distinguant ses
parties suivant le vieux précepte cartésien, et en analysant les relations et les
mécanismes de symbiose et de concurrence avec les produits pour déceler les
cclix
perspectives d’évolution de chacun des principaux types d’offre, sans craindre de
remettre en question quelques idées reçues.
Les statistiques montrent en effet que les services se développent plus vite que le
matériel en général, et que les matériels traditionnels (autres que les micro-ordinateurs)
en particulier. Mais cette constatation doit être tempérée par le fait que la plupart des
chiffres cités portent sur l’ensemble des progiciels et des services, les premiers croissant
nettement plus vite que les seconds.
De même, comme nous l’avons vu au chapitre 5, on n’observe pour les firmes non
spécialisées aucune corrélation entre leur profitabilité et la part des services dans leur
chiffre d’affaires. La différence de comportement la plus clairement observable entre
produits et services est l’étroitesse des plages de variation pour ces derniers, et leur plus
grande stabilité dans le temps. La crise qui a précipité dans le rouge bon nombre de
constructeurs de matériels à partir de 1991 n’a pas eu d’effet visible sur la profitabilité
d’ensemble des services, dont les difficultés relatives étaient apparues dès 1989. Pour
les constructeurs en difficulté, développer leur activité de services leur a permis de
limiter l’impact des pertes dues au matériel, principalement en facturant, même à un
taux peu profitable, des personnels devenus excédentaires.
cclx
Profitabilité - services
30.00% Moyenne
Mediane
20.00%
10.00%
0.00%
-10.00%
-20.00%
-30.00%
85 86 87 88 89 90 91 92 93
C’est probablement cette insensibilité à la crise des matériels standard qui est à
l’origine de la réputation de profitabilité des services. Cette illusion est entretenue par
les commentateurs qui englobent dans un même « secteur » les services et les progiciels,
dont la profitabilité est effectivement supérieure avec des moyennes couramment
supérieures à 15%. Mais cette simple différence de niveau prouve bien à elle seule qu’il
s’agit d’activités soumises à des dynamiques concurrentielles radicalement différentes.
cclxi
la diversité des acteurs qui y sont présents, et qui mettent en œuvre des stratégies
diversifiées. Les acteurs spécialisés sont nombreux ; dans l’échantillon de 110 grandes
entreprises que nous avons étudié au chapitre 4, on compte 26 firmes spécialistes des
services, mais il existe en outre, aux USA comme en Europe, une multitude
d’entreprises de service trop petites pour figurer dans cet échantillon. De plus, de
nombreuses firmes sont présentes dans les services sans y être spécialisées. C’est le cas
de presque tous les généralistes et de près de 40% des autres spécialistes.
Pour entreprendre cette analyse, nous devons d’abord structurer le domaine des
services en secteurs concurrentiels au sens de Porter, chaque secteur regroupant des
prestations « étroitement substituables » parce que destinées à satisfaire un même
besoin. Or, au niveau le plus élevé, nous pouvons déjà classer les services informatiques
selon trois types principaux de finalités.
cclxii
plus souvent des responsables informatiques. Le marché de ces services est créé par
celui des produits informatiques, et est en première analyse d’autant plus vaste que le
marché des produits est lui-même en expansion. Les différentes prestations de ce type
peuvent être en concurrence entre elles, mais elles forment globalement un ensemble
spécifique auquel ne peuvent pas se substituer des prestations extérieures à l’industrie
informatique. Nous appellerons cette catégorie « services de support ».
Un cas un peu différent est celui des services qui se présentent comme une
alternative à l’acquisition de produits informatiques, comme le service bureau et
certaines formes de « facilities management » reposant sur le partage de ressources
matérielles entre clients. Du point de vue du marché, ces services sont en concurrence
directe avec les produits informatiques. Même si in fine le prestataire est client des
constructeurs et des fournisseurs de progiciel, son intervention réduit par définition leur
marché. Nous appellerons cette catégorie « services de substitution ».
Une troisième catégorie est formée par des services dont l’utilité est extérieure à
l’informatique, mais qui s’appuient sur l’informatique dans leur mise en œuvre afin
d’obtenir un avantage concurrentiel. Par exemple la comptabilité et la gestion du
personnel, même informatisées, conservent une finalité extérieure à l’informatique et
sont en concurrence avec d’autres formes de comptabilité ou de gestion du personnel, et
non avec d’autres prestations informatiques. Leur marché est celui des comptables et
des responsables de relations humaines. Nous appellerons cette catégorie « services
informatisés » ou « services applicatifs ».
cclxiii
l’activité n’est pas fondamentalement différente selon qu’elle porte sur des produits
informatiques ou sur d’autres produits.
Par ailleurs, la distinction que nous venons d’introduire entre services de support,
services de substitution et services applicatifs n’a pas toujours été aussi nette. Aux
premiers temps de l’informatique, un service de comptabilité informatisée était
considéré d’abord comme un service informatique ; il était offert par des firmes
spécialisées en informatique et non par les cabinets d’experts comptables. Maintenant
que tous les comptables utilisent l’informatique, la comptabilité informatisée est
devenue la norme et n’appartient plus à l’industrie informatique. Nous verrons que ce
phénomène de migration a caractérisé l’évolution des services de traitement. De plus,
les mêmes prestations de support peuvent accompagner la fourniture de produits et les
services de substitution, ou être intégrés à ces derniers.
cclxiv
à faire l’objet d’une offre commerciale et d’une facturation indépendante, qu’il soit
offert par les constructeurs de matériel ou par les premières sociétés de services
indépendantes.
L’offre de service bureau apparaît ainsi comme une autre modalité d’accès aux
matériels informatiques et aux services associés, qui s'adresse principalement aux petits
et moyens clients, ainsi qu’à des projets occasionnels ou demandant des compétences
spéciales. Dans l’absolu, le service bureau est en concurrence avec l’acquisition de
moyens propres, mais dans les faits cette concurrence est au départ restreinte par le coût
élevé des matériels et la nouveauté de leurs applications. En 1957, IBM pensait que le
marché du calcul scientifique en Europe serait satisfait par un tout petit nombre
d’ordinateurs acquis par quelques grands organismes comme le CEA pour leurs besoins
propres, le reste étant servi par un centre de calcul exploité par IBM en service bureau.
Même pour les constructeurs de matériel, la concurrence potentielle entre les deux
offres restait théorique.
Le service bureau formait ainsi un secteur relativement bien délimité et isolé des
matériels, surtout depuis que le plus gros fournisseur, IBM, avait confié cette activité à
une filiale spécialisée dans le cadre du Consent Decree de 1956. Même si cette mesure
ne touchait que les USA, une tradition de gestion séparée s’étendit aux activités de
Service Bureau d’IBM dans le monde entier.
Pour offrir une bonne qualité de service, les centres de traitement devaient être
physiquement proches de leurs clients, ce qui découpait le marché (et le secteur) en
zones de concurrence géographiques, deux centres trop éloignés n’étant pas réellement
concurrents. Chacun des sous-secteurs ainsi constitués, comme d’ailleurs l’ensemble de
l’industrie, était initialement concentré, comme le prédit la théorie pour les industries
naissantes. En effet, les coûts d’acquisition d’un ordinateur et la rareté des compétences
nécessaires pour l’exploiter constituaient des obstacles à l’entrée suffisants pour
décourager les candidats sur un marché encore perçu comme étroit. Pour les mêmes
raisons, l’offre la plus naturelle était une offre intégrée associant aux produits (ou
pseudo-produits) nouveaux les services permettant leur utilisation, la facturation de
l’ensemble étant assise sur les produits qui en formaient la part rare et chère, donc le
support de la valeur.
A partir de cette situation initiale, le coût des matériels n’a cessé de diminuer, et
avec lui le prix des ordinateurs d’entrée de gamme. Cette manifestation du progrès
technologique a entraîné pour le service bureau deux séries de conséquences qui ont
contribué à modeler le domaine des services informatiques.
cclxv
Premièrement, la part du matériel dans la prestation globale de service n’a cessé
de décroître, contraignant les offreurs à restructurer leurs tarifs en dissociant les
différentes prestations, ce qui prélude à l’éclatement du secteur lui-même en sous-
secteurs spécialisés. Deuxièmement, la partie du marché où le service bureau et le
matériel sont réellement en concurrence n’a cessé de s’étendre et l’avantage
économique de l’acquisition de matériel en propre n’a cessé de s’amplifier. Ceci a
conduit au déclin puis à la disparition quasi-totale du marché du traitement partagé, et
donc du secteur d’industrie correspondant.
Dès le début des années 60, et singulièrement après l’introduction des matériels de
la génération des 360, la part du personnel et du progiciel pèse de plus en plus lourd
dans les coûts du service bureau et dans la facture de ses utilisateurs. Parallèlement, la
diffusion des compétences et la disponibilité croissante de progiciels fait apparaître des
clients qui programment eux-mêmes ou utilisent des programmes existants, et ne
demandent aux sociétés de services que l’accès à la machine et une assistance minimale
à son exploitation. Pour ajuster leur offre et leur facture à cette diversité de la demande,
les entreprises de service sont amenées à distinguer et à tarifer séparément des
prestations distinctes telles que l’assistance technique, l’écriture de programmes,
l’utilisation des matériels ou celle des logiciels. A l’intérieur même du traitement, la
variété des utilisations conduit à distinguer des unités d’œuvre comme le temps de
traitement, l’occupation des différents niveaux de mémoire, les interventions manuelles
ou l’utilisation d’unités particulières.
cclxvi
concurrentiel aux plus grands offreurs et favorise l’essor d’entreprises de taille
mondiale.
Déclin et disparition
Mais dans la deuxième moitié des années 70, le marché du traitement sur moyens
partagés, qui avait été à l’origine de tout le secteur des services, va progressivement
s’étioler jusqu’à disparaître au milieu des années 80. Cette érosion progressive est la
conséquence directe de l’amélioration continue du rapport performances-prix des
matériels et en particulier de la puissance croissante des matériels d’entrée de gamme
tels que les mini-ordinateurs, et plus tard les micros. De plus, partager un gros
ordinateur entre des utilisateurs indépendants implique des coûts de coordination et de
protection qui s’ajoutent aux coûts de transmission inhérents au télétraitement, si bien
que la célèbre « loi de Grosch » se renverse : il devient plus économique d’exécuter un
programme sur la plus petite machine qui puisse l’accueillir que sur un gros ordinateur
partagé. Au fur et à mesure qu’un plus grand nombre d’utilisateurs s'équipe de moyens
propres adaptés à leurs besoins, le marché du traitement partagé se réduit pour finir par
disparaître vers la fin des années 80.
cclxvii
et leurs prestations peuvent purement et simplement abandonner le secteur sans trop de
dommages, surtout si le traitement ne représente qu’une part marginale de leur revenu.
Les autres entreprises, dont la profitabilité repose sur la vente de services de traitement,
doivent faire face à la régression de leur chiffre d’affaires tout en réorientant leur
personnel d’exploitation vers des activités nouvelles. Elles empruntent pour cela
plusieurs voies selon leur situation et leur vision de l’avenir, en cherchant à tirer
avantage d’un au moins de leurs actifs liés au traitement :
–possession de moyens de calcul et de stockage puissants,
–maîtrise d’un réseau de transmission de données,
–compétences en ingénierie et en exploitation de grands systèmes,
–compétences et logiciels concernant des applications ou des clientèles spécifiques.
D’autres encore comme General Electric, Tymshare ou IBM se replient sur des
offres directement liées à la gestion des télécommunications comme la messagerie ou le
transfert de fichiers. Tout comme dans le cas des services informatisés, elles quittent
alors l’arène concurrentielle de l’informatique pour entrer dans celle des
télécommunications en se posant en concurrents des grands opérateurs traditionnels.
cclxviii
C’est dans ce contexte qu’intervient le débat sur les « services à valeur ajoutée »,
lancé aux USA dans le cadre des projets de nouvelle réglementation des
télécommunications (appelés à tort « déréglementation »). La question est de savoir
dans quelle mesure l’utilisation des lignes louées doit être réservée au locataire, ou si ce
dernier doit être autorisé à permettre à des tiers d’accéder à ces lignes, et si oui à quelles
conditions. Les opérateurs de télécommunications voient dans cette possibilité de
cession à des tiers une grave menace pour leur structure tarifaire et leur équilibre
financier. Ils cherchent donc à la limiter, alors que l’ensemble des utilisateurs de
télécommunications, et au premier chef les grandes entreprises de toutes les branches,
souhaitent la plus grande liberté.
cclxix
présence du traitement dans les services en informatique est essentiellement un
archaïsme statistique.
Peut-on dire pour autant que le progrès technologique, en mettant les produits
informatiques à la portée de tous les utilisateurs potentiels et en éliminant les économies
d’échelle, a définitivement rendu obsolètes les services de substitution comme le service
bureau ? C’est une des façons d’aborder la question des nouvelles formes de service
apparues – ou réapparues – récemment sous le titre générique de « facilities
management » ou infogérance. Ces prestations se rattachent aux services de substitution
dans la mesure où c’est le prestataire et non l’utilisateur qui possède les moyens
informatiques et en assume la responsabilité permanente d’exploitation pour le compte
de ses clients. Comme le traitement partagé, ce service est pour le client une alternative
à l’acquisition de produits, et la firme de services a (sous certaines réserves) la
possibilité de partager certains moyens entre plusieurs de ses clients.
cclxx
étroitement dépendante de l’adéquation de sa personnalité d’entreprise aux attentes du
marché.
Les différences culturelles prennent donc une importance plus grande que pour
des activités de production classique où l’appareil de production est isolé du marché.
Elles expliquent les difficultés que rencontrent les entreprises qui cherchent à faire
coexister des activités de nature différente, où à entreprendre des activités nouvelles
étrangères à leur personnalité de base. Elles contribuent à structurer le domaine des
services en secteurs distincts entre lesquels il est difficile d’évoluer, et à dessiner
l’évolution probable du secteur.
Caractéristiques et économie
cclxxi
Il en découle que les tactiques et les stratégies qui doivent être adoptées pour
réussir face à la concurrence sont radicalement différentes pour les deux catégories de
prestations, ainsi que les organisations et les cultures d’entreprise qui doivent être
implantées pour sous-tendre ces stratégies.
L’activité d’assistance peut opérer à très petite échelle, même celle de l’individu
isolé. La structure de ce secteur est donc extrêmement dispersée et le jeu de la
concurrence se rapproche du modèle « pur et parfait ». En particulier, les prix de marché
résultent de la confrontation de l’offre globale et de la demande globale et s’imposent à
chaque offreur. De plus, la nature même de l’activité impose une proximité physique
entre les fournisseurs et leurs clients. Toutes les firmes en concurrence sur un marché
donné opèrent donc dans la même région et supportent des coûts de personnel
identiques. Des firmes compétitives, c’est à dire qui respectent une même rigueur de
gestion, sont amenées à pratiquer des tarifs presque identiques et ne peuvent donc guère
se différencier que par les compétences individuelles de leurs collaborateurs. Exploiter
une telle différenciation peut supposer que l’entreprise choisisse un créneau particulier
pour s’y spécialiser afin de bénéficier d’effets d’apprentissage. En tout état de cause, les
firmes même efficaces ne réaliseront que des marges faibles dont elles peuvent limiter
les variations à l'intérieur d'une fourchette étroite en gérant convenablement leurs
ressources en personnel.
Une fois le contrat obtenu, le revenu repose sur le respect des engagements et sur
les résultats obtenus, tandis que les coûts dépendent des ressources réellement
consommées pour atteindre ces résultats. Obtenir en fin de compte que le solde des deux
fasse ressortir un profit positif exige de grandes compétences à la fois en conception de
systèmes informatiques, en estimation de projets, et en conduite de chantiers.
cclxxii
Toutes ces compétences sont normalement le fruit de l’expérience, mais elles
doivent souvent être acquises et entretenues au prix d’investissements spécifiques. Ces
investissements peuvent impliquer l’acquisition ou le développement de matériels ou de
logiciels qui incarneront cette compétence et autoriseront à présenter des propositions
plus attractives et plus crédibles que la concurrence. Les obstacles à l’entrée sont donc
plus sérieux que pour la simple assistance.
Enfin, les nombreux facteurs d’incertitude font peser un risque sur la profitabilité
de chaque projet, qui ne peut être supporté que par des entreprises de taille suffisante
pour absorber les échecs éventuels en mutualisant ces risques sur l’ensemble de leur
activité. Au total, le secteur du développement, et a fortiori de l’intégration de systèmes,
est un secteur plus concentré où la taille représente un avantage concurrentiel. En
revanche, la probabilité statistique d’échec ou de réussite de chacun des projets
maintient la profitabilité moyenne probable du secteur au même niveau modeste que
pour l’assistance, avec toutefois une plage de variation plus ouverte allant de la faillite
rapide pour les uns à l’espoir de marges confortables pour les firmes les plus
compétentes ou les plus chanceuses.
La relation client-fournisseur
cclxxiii
d’emploi, de fiabilité, de performances ou de coût d’utilisation pour le client, mais aussi
de coût et de délai de réalisation. De plus, la conception détaillée et la réalisation du
système font intervenir un nombre croissant de personnes qui étaient absentes de la
phase initiale de conception générale, qui ne se considèrent pas comme engagées par les
spécifications et le contrat d’origine et dont les desiderata peuvent d’autant moins être
ignorés qu’il s’agit en particulier des véritables utilisateurs du système.
Beaucoup ont cru, et certains croient encore, que la solution consiste à pousser
l’étude initiale suffisamment loin pour que toutes les décisions de réalisation
susceptibles d’avoir une incidence sur le coût ou les délais aient été prises avant la
signature du contrat. Cette approche est doublement illusoire : elle entraîne des délais et
des coûts prohibitifs pour l’étude préliminaire et risque de ce fait de conduire à
l’élimination des offreurs les plus honnêtes. De plus, les conclusions d’une telle étude
seront de toute façon remises en question. D’une part l’environnement évolue pendant
le projet, et avec lui les besoins fonctionnels, les moyens et les technologies disponibles
et les idées de solution. D’autre part les utilisateurs ne peuvent souvent pas expliciter
leurs demandes au niveau de détail nécessaire avant d’avoir vu une première réalisation,
qui provoquera tout à fait légitimement des demandes nouvelles ou des modifications
par rapport aux demandes précédentes. La nature même des applications informatiques
veut que la complexité du produit final interdise toute spécification exhaustive et fiable
a priori, et que les besoins réels ne se révèlent que progressivement dans le cours même
du développement.
Dans ces conditions, mettre en place des dispositions visant à empêcher toute
déviation par rapport aux spécifications initiales, quelle que soit la qualité de celles-ci,
ne peut aboutit qu’à un produit final inadapté aux besoins réels et aux préférences de ses
utilisateurs et donc voué à un échec certain. Il faut accepter l’idée que la définition du
système ne peut être que progressive et qu’il n’existe pas de moyen de déterminer
d’avance avec certitude les coûts et les délais. La proposition initiale ne peut être
qu’indicative et le contrat doit être conçu avant tout comme un cadre pour
l’établissement progressif des spécifications réelles et des avenants financiers.
Pour les sociétés de service, il ne suffit plus d’ajuster correctement les moyens à la
demande probable en réduisant au minimum les effectifs « non-productifs » par nature
ou par défaut de charge, tout en faisant preuve de modération dans les coûts de
personnel. Il faut en plus estimer les coûts des projets de façon raisonnable non
seulement lors de la proposition initiale, mais aussi tout au long de leur vie en fonctions
d’attentes changeantes du client. Il faut aussi savoir négocier l’ajustement réciproque
des coûts contractuels et des spécifications, tout en respectant les engagements pris tant
envers le client sur les résultats qu’envers l’entreprise sur les coûts, et ne pas être amené
à fournir une prestation étendue sans facturation supplémentaire. La profitabilité finale
d’une affaire dépendra donc à la fois des compétences de l’entreprise dans les domaines
de l’estimation et de la gestion de projets, de la bonne affectation des personnes au
projet, de leur savoir-faire technologique et de leur productivité.
cclxxiv
donner. Or seul le client peut valablement prendre cette décision puisque c’est lui qui en
reçoit in fine le bénéfice et doit donc en supporter le coût. Il conserve ainsi une
responsabilité importante de maîtrise d’ouvrage quels que soient les termes du contrat.
Mais si le client n’est pas préparé à exercer cette responsabilité dont il a cru se
décharger sur son fournisseur, ou si le conflit d’intérêts interne est trop vif, la tentation
est grande de l’évacuer en rejetant la responsabilité sur le fournisseur.
Dans leur ensemble, ni les clients ni les prestataires ne savent vraiment concilier
la réalité de situations où le projet réel se définit en cours de réalisation avec les cadres
contractuels applicables à d’autres formes de réalisation. Les sociétés de service qui
s’engagent sérieusement dans cette voie apprennent assez vite qu’une gestion évolutive
des spécifications et du contrat est la seule approche réaliste, mais il leur est difficile de
présenter sur cette base des offres compétitives. Pour ne pas perdre systématiquement
les affaires, elles doivent s’aligner sur les pratiques de leurs concurrents moins
expérimentés ou moins scrupuleux. Au total, le marché n’est pas mûr pour des offres de
développement au forfait et continue à chercher des voies de solution à ce problème.
cclxxv
unités autonomes, chacune gérant son propre compte d'exploitation comparable à celui
d’une entreprise indépendante et homogène à celui de l'entreprise tout entière.
Quand une proposition est couronnée de succès et que la réalisation est lancée,
l’équipe de réalisation doit être composée selon les besoins spécifiques du projet et peut
varier au cours du temps. Les personnes nécessaires doivent pouvoir être puisées dans
un réservoir de compétences et y retourner quand leur participation au projet est
terminée. Certaines ressources (compétences ou autres moyens) peuvent être partagées
entre plusieurs projets et donc appartenir à des unités de support distinctes des projets.
La structure de l’entreprise doit donc faire coexister une structure de projets, variable au
cours du temps selon les projets en cours et leur degré d’avancement, et une structure de
centres de ressources qui représente la permanence de l’entreprise et le rattachement de
base des personnes. De plus, il est courant que les projets en cours de réalisation et les
projets en phase de proposition commerciale soient traités dans deux structures
différentes. Enfin, le besoin de compétences critiques, de savoir-faire particuliers ou
d’investissements d’utilité générale peut justifier l’existence de services de support
centralisés.
cclxxvi
l’ensemble de l’entreprise, l’objectif est d’assurer le plein emploi des ressources en les
affectant judicieusement aux projets et en disposant d’un volant de propositions en
cours cohérent avec la disponibilité actuelle et prévue des ressources. Le système
d’information doit donc porter aussi bien sur l’avancement des réalisations et la
probabilité d’atteindre les objectifs techniques et de respecter les délais que sur la
comptabilisation des ressources consommées, l’identification des ressources disponibles
et le suivi des propositions en cours.
Valeurs et culture
57 voir Chapitre 9
cclxxvii
l’entreprise. De plus, chacun des collaborateurs, même à des échelons modestes, est à
l’origine de décisions vitales pour le succès de l’entreprise, pour lesquelles il est seul à
détenir l’information ou la compétence nécessaires. Enfin, il opère souvent loin du
cadre de son entreprise, sans supervision étroite ni en sens inverse possibilité de recours
à son encadrement en cas de difficulté. Chaque collaborateur doit donc régler son
comportement personnel sur un certain nombre de normes, de principes et de valeurs
qui constituent la culture de l’entreprise.
Dans l’assistance technique, chaque employé est détaché auprès d’un client et
intégré à une des ses équipes. Par rapport à l’entreprise à laquelle il appartient, il
travaille de façon individuelle et n’a que peu de relations professionnelles avec ses
collègues dont il ne se sent pas fortement solidaire. La culture dominante de la firme est
individualiste. Tout au plus chaque individu se sent-il proche de la petite équipe dont il
fait partie, mais à son tour cette équipe et son chef se sentent et se veulent indépendants
et ressentent plus l’entreprise comme une source de contraintes et de servitudes que
comme un environnement favorable. En revanche, la notion de compte d’exploitation et
le souci de l’équilibrer sont communs à tous. Bien que l’identification à l’entreprise soit
faible, la culture est homogène dans toute l'entreprise.
cclxxviii
L’activité de réalisation occupe la majorité des collaborateurs de l’entreprise et en
détermine la culture de base, d’autant plus que l’activité commerciale repose sur une
forte compétence en réalisation et que les personnes qui en sont chargées sont issues de
la réalisation et y restent la plupart du temps impliquées. L’objectif de chacun est
d’accomplir les tâches qui lui sont confiées aussi rapidement que possible et aux
moindres frais tout en respectant les objectifs de fonctionnalité et de qualité.
Contrairement au cas de l’assistance, le temps passé doit être minimisé et constitue donc
une valeur négative. Quand une extension semble souhaitable ou est demandée par le
client, il faut savoir refuser de s’y engager sans que soit proposée et acceptée une
extension correspondante du contrat.
Parmi les conflits d’intérêts inhérents à l’activité de développement, l’un des plus
cruciaux concerne l’activité commerciale. Pour gagner un contrat en situation
concurrentielle, il faut promettre beaucoup pour le prix le plus faible possible, et donc
souvent prendre le risque que le coût de réalisation dépasse le coût prévu et ne laisse
aucune marge à l’entreprise. A l’inverse, ne pas prendre ce risque peut avoir pour
conséquence la perte du contrat et donc un effet encore plus négatif sur le profit.
L’activité commerciale liée au développement nécessite donc un rare sens des affaires et
une grande maturité. D’une certaine façon, les qualités qui sont nécessaires pour réussir
dans l’exécution d’un projet (lucidité, prudence, honnêteté, ...) sont autant de raisons
potentielles de ne pas emporter les contrats.
En même temps, des solutions originales dans la conception des systèmes ou dans
les méthodes de réalisation peuvent constituer un avantage concurrentiel déterminant. A
côté du réalisme dans les estimations et de la rigueur dans la gestion, il convient donc de
favoriser également la créativité dans la définition des solutions.
cclxxix
plus souvent inutilisables pour d’autres clients sans des adaptations considérables. Ils
témoignent d’une compétence réelle dans le secteur d’applications concerné, peuvent
permettre des économies de développement et donc autoriser des estimations plus
attractives pour le client. Mais en règle générale, le logiciel existant n’est que le prétexte
à la facturation de développements spécifiques et son rôle principal est de procurer un
avantage concurrentiel dans la vente de prestations d’assistance.
Pour aller plus loin, il faudrait que l’entreprise se dote d’une organisation adaptée
au métier radicalement différent du progiciel, qui exige des investissements, qui
fonctionne selon un cycle long et doit commercialiser des produits. Même réduite au
départ, cette organisation devrait être adaptée aux cycles longs, c’est à dire être
différenciée sur une base fonctionnelle et dotée des mécanismes d’intégration
appropriés. De plus, la culture dominante dans cette organisation devrait être
radicalement différente de celle du reste de l’entreprise : valoriser la vision à long terme
plutôt que la rentabilité immédiate, la persévérance plutôt que la rapidité de réaction, et
surtout se fixer pour objectif de minimiser le besoin d’assistance lié à la mise en œuvre
des produits au lieu de la maximiser.
Une autre voie où s’engagent de nombreuses firmes de service est celui des
systèmes « clés en mains », aussi appelés « ingénierie de solutions ». Cette prestation
consiste à proposer, pour une application donnée, une solution complète comprenant à
la fois le matériel, le logiciel et l’assistance nécessaire. En ce qui concerne le logiciel et
l’assistance, cette forme de prestation pose les mêmes problèmes que le pseudo-
progiciel que nous venons d’évoquer, mais l’inclusion du matériel ajoute un piège
subtil. En effet, les constructeurs de matériel sont à juste titre intéressés et offrent des
conditions préférentielles aux firmes de service qui deviennent ainsi leurs revendeurs.
La réduction que consentent les constructeurs sur l’achat du matériel est généralement
supérieure à la marge réalisée sur la partie services, si bien que l’offreur de systèmes
« clés en mains » est tenté de donner la priorité à la revente du matériel, en oubliant de
gagner sa vie sur la part de services. Au pire, la société de services risque de se
transformer en détaillant de matériel et de fournir à perte ses prestations propres, tout en
négligeant souvent les activités associées au matériel telles que la logistique
d’approvisionnement, la maintenance, etc. Une telle politique devient catastrophique
quand la marge sur le matériel se réduit ou quand les clients préfèrent acheter le
matériel séparément.
cclxxx
Ces exemples illustrent l’importance des facteurs organisationnels et culturels
dans la réussite ou l’échec en matière de services. Pour l’entreprise d’assistance, réussir
dans le progiciel ou le développement impose de mettre en place quelque part dans
l’entreprise une organisation et une culture étrangères, que le reste de l’entreprise et
singulièrement sa Direction auront d’autant plus de mal à tolérer que la structure et la
culture sont par ailleurs homogènes.
Pour toutes ces raisons, et malgré leur discours promotionnel, les sociétés de
services sont généralement réticentes à sortir de leurs activités traditionnelles
d’assistance pour s’engager véritablement dans des activités qui exigent une plus forte
prise de responsabilité. Le plus souvent, elles en méconnaissent ou sous-estiment les
conditions de réussite, et donc échouent, ou bien elles se contentent de déguiser leurs
prestations classiques sous le vocabulaire d’activités nouvelles. C’est pourquoi aucune
société de services n’a jamais joué un rôle important dans le secteur du progiciel, et
pourquoi rares sont les entreprises qui travaillent réellement sur la base de contrats de
résultats forfaitaires.
cclxxxi
IBM, et à sa suite tous les constructeurs, entreprirent alors des développements
visant à automatiser ou à alléger les tâches du personnel en les reportant partiellement
sur le matériel, principalement à travers des logiciels appropriés : aides à la
programmation, aides à l’installation, aides à l’exploitation, etc. Même si le projet FS
n’a jamais vu le jour, cette politique a porté ses fruits puisque plus de vingt ans plus
tard, la répartition des dépenses informatiques est toujours à peu près la même alors que
la puissance installée est considérablement plus élevée. Les besoins en personnel (ou en
prestation de service) nécessaires pour accompagner une puissance de traitement donnée
ont donc diminué à peu près dans les mêmes proportions.
Le même processus est en cours dans d’autres domaines. Il est bien avancé pour le
développement de programmes avec la panoplie des outils de génie logiciel, qui se
perfectionne et s’enrichit pratiquement de jour en jour. Il est également en cours pour la
maintenance et la gestion des systèmes y compris les réseaux les plus complexes. Dans
une première étape apparaissent des aides informatiques à l’exécution de certaines
tâches, que ce soit par l’utilisateur ou sous forme de prestation de service, le plus
souvent sous la forme de progiciels innovants réalisés par des laboratoires universitaires
ou des petites entreprises du logiciel. A ces développements exploratoires succèdent des
produits industriels ou des services informatisés assurant le service, ou la reprise de ces
fonctions par des grands intégrateurs pour les incorporer dans leurs produits majeurs, ou
encore des modification de ces produits pour éliminer ou réduire le besoin de service,
par exemple en matière de formation ou de maintenance.
cclxxxii
informatique où les utilisateurs se débrouillent eux-mêmes par tradition, et dont
l’attitude se généralisera progressivement à toute l’informatique en même temps que les
structures et les pratiques du monde PC.
Le besoin du marché pour des services d’intégration croît de façon régulière avec
l’éclatement de l’industrie des matériels et des progiciels. Mais nous avons vu combien
il est difficile à ce besoin latent de se transformer en une demande solvable, et à l’offre
de répondre à cette demande de façon efficace et profitable. Malgré cela, on peut
s’attendre à de nombreuses tentatives et donc à de nombreux échecs dans ce secteur. Le
nombre de firmes effectivement et durablement présentes dans l’intégration de
systèmes, faible au départ, ne devrait pas croître très rapidement tans que le marché
n’aura pas atteint une maturité suffisante pour juger sainement la qualité d’une
proposition et accepter de rémunérer la responsabilité des fournisseurs à sa juste valeur.
cclxxxiii
nous avons présentée au début de ce chapitre. Sous l’effet de la récession, les minima
passent sous zéro, mais les maxima et les moyennes restent en gros au même niveau,
l’écart maximum restant relativement faible.
cclxxxiv
aussi bien des prestations construites sur des compétences existantes que des prestations
anciennes dont on espère ainsi prolonger la vie.
Comme toujours lorsqu’un terme à la mode est défini d’une façon aussi
incertaine, il devient l’occasion de discussions passionnées dont les intérêts
commerciaux ne sont évidemment pas absents. L’infogérance est-elle, comme
l’affirment ses partisans, une alternative globale économiquement préférable à la
possession d’un système informatique, comme en témoignent les arguments
habituellement avancés en sa faveur : « se concentrer sur son métier », « transformer
des coûts fixes en coûts variables », « confier la gestion à de vrais spécialistes », … ? Si
oui, l’informatique s’orienterait vers une prééminence des entreprises de services,
contrairement à la tendance constatée tout au long de ses 40 ans d’histoire. Pour les
services eux-mêmes, l’avenir est-il à une prestation globale comme l’affirment les
partisans du « FM de systèmes », en sens inverse du mouvement général de l’industrie ?
Nous reviendrons sur ces questions dans le chapitre 15.
Conclusions
cclxxxv
Une des clés de l’évolution du secteur des services est cette recherche permanente
d’adaptation des firmes à la demande, qu’il s’agisse de se convertir d’une spécialité à
une autre pour les plus modestes ou de maintenir une position de généraliste pour les
plus ambitieuses. Considérer que toutes les entreprises de services se ressemblent,
fonctionnent de la même façon et obéissent aux mêmes mécanismes concurrentiels, ou
encore que toutes les entreprises de services sont également capables d’aborder toutes
les formes de service, serait se condamner à ne pas comprendre la dynamique propre à
ce secteur. L’histoire et l’avenir des Sociétés de Service sont faits de leurs efforts pour
se définir à l’intérieur de ce monde diversifié et se transformer pour suivre la demande,
de leurs nombreux échecs et de leurs quelques réussites.
cclxxxvi
Quatrième partie
Vers un nouvel ordre industriel
Unifier, c’est nouer mieux les diversités particulières,
non les effacer pour un ordre vain.
Saint-Exupéry
Nous avons également vu que pour réussir dans un secteur donné, une entreprise
doit posséder une structure et une culture adaptées aux règles particulières de la
concurrence dans ce secteur. A chaque secteur peut donc être associée une personnalité
d’entreprise spécifique, de telle sorte qu’il est pratiquement impossible à une même
entreprise de réussir dans deux secteurs demandant des personnalités différentes et
relevant donc de deux métiers distincts. Ce phénomène d’incompatibilité,
particulièrement sensible dans les services, joue de façon d’autant plus forte que
l’environnement concurrentiel est plus vif. Il contribue au maintien des spécialisations
et de la structure sectorielle acquises, et pousse à l’éclatement les firmes qui ne sont pas
spécialisées dans un métier unique.
Les analyses sectorielles des chapitres précédents reposent sur les entreprises
spécialisées de chaque secteur. Elles s’appliquent donc principalement au monde PC,
dominé par des spécialistes, alors que les généralistes dominent encore le monde
cclxxxvii
traditionnel et le monde ouvert. Dans la dernière partie, nous allons examiner l’industrie
informatique dans son ensemble et synthétiser les conclusions des chapitres précédents
pour proposer une vue globale de l’industrie, de son devenir et de sa place dans
l’ensemble de l’économie. Nous aborderons deux questions principales : comment
chaque entreprise détermine ses activités et comment les entreprises s’organisent entre
elles pour satisfaire le marché. Notre fil directeur sera l’analyse concurrentielle
présentée tout au long de cet ouvrage.
Dans le Chapitre 14, nous verrons comment les forces concurrentielles poussent
les entreprises à séparer leurs activités selon les frontières de ces mêmes secteurs, et les
problèmes difficiles que cet éclatement pose aux généralistes. C’est donc l’ensemble de
l’industrie informatique qui éclate en secteurs spécialisés, à l’intérieur desquels les
représentants des trois mondes se retrouvent en concurrence. Dans chacun de ces
secteurs spécialisés, la concurrence fait disparaître les frontières entre les trois mondes
du PC, des ordinateurs traditionnels et des systèmes ouverts, et a pour effet d’unifier
globalement l’informatique.
Mais dans cette industrie éclatée, les produits des différents spécialistes doivent
pouvoir s’intégrer dans des systèmes pour répondre aux besoins des utilisateurs. Le
chapitre 15 examine ce problème de l’intégration et les opportunités qu’il présente pour
les offreurs, en particulier dans le domaine des services. Il montre aussi comment les
acteurs peuvent pallier leur spécialisation en tissant entre eux des alliances plus ou
moins formelles, allant de la définition de standards à des alliances industrielles, et qui
peuvent se révéler plus ou moins efficaces.
cclxxxviii
Chapitre 14
L’informatique éclatée
L’analyse des différentes formes de production, que nous avons développée dans
les deux parties précédentes, repose sur les spécialisations apparues dans le monde PC
depuis 1981. Mais cette spécialisation n’a pas toujours été la règle. Comme nous
l’avons vu dans la première partie (chapitres 1 et 2), la première moitié des 40 ans
d’histoire de l’industrie informatique a vu la domination sans partage des généralistes
intégrés. Encore actuellement, ces généralistes ou leurs successeurs continuent à
dominer un certain nombre de segments de marché comme les grands et moyens
systèmes ou la maintenance. Ils sont aussi très présents dans les autres segments, y
compris ceux de la micro-informatique où ils coexistent et entrent en concurrence avec
les firmes spécialisées.
Le modèle des généralistes intégrés avait subi ses premières attaques à la fin des
années 60 avec la séparation des tarifs décidée par IBM, puis un peu plus tard avec
l’apparition des unités compatibles. Mais ces événements, s’ils ont permis l’essor d’un
grand nombre de firmes spécialisées, n’ont eu qu’un impact mineur sur la structure et le
mode de fonctionnement des grandes firmes, dont la gamme de prestations est restée
aussi vaste. De même, au moment où naissait avec la micro-informatique un monde PC
éclaté dès l’origine et qui l’est resté, c’est en adoptant une stratégie de généraliste et en
offrant un matériel et des logiciels intégrés qu’Apple prenait le leadership de
l’informatique personnelle. Un peu plus tard, IBM tentait de remettre en vigueur ce
même modèle avec le PS/2 pour le matériel et l’OS/2 pour le système d’exploitation.
Plus tard encore, c’est toujours en adoptant le modèle intégré que se développèrent les
pionniers des stations de travail comme Sun ou Silicon Graphics, en offrant non
seulement des matériels et un système d’exploitation spécifiques, mais en fabriquant
leurs propres microprocesseurs et en offrant leurs propres logiciels d’application.
Contrairement aux grands généralistes traditionnels, toutes ces entreprises se sont choisi
un segment de marché spécifique, mais comme eux elles offrent aux clients de ce
segment un système réunissant la totalité des produits et services nécessaires.
cclxxxix
de spécialisation ? Leur comparaison permet-elle de prévoir l’effacement ou
l’éclatement progressif des généralistes, ou au contraire le regroupement des
spécialistes ?
Une première indication peut être trouvée dans les indicateurs de performance que
nous avons examinés au chapitre 5. Les généralistes connaissent depuis 1989 un
ralentissement de leur croissance et une baisse de leur rentabilité qui les poussent à des
restructurations, des réductions d’effectifs et pour certains d’entre eux à des abandons
d’activités. Nous avons vu également que les quelques firmes mixtes qui se positionnent
entre les généralistes et les spécialistes réussissent généralement moins bien que les
firmes spécialisées dans les prestations individuelles qui composent leur offre. Il semble
bien que le simple fait d’offrir une gamme étendue de prestations, que ce soit par leur
nature ou par le marché qu’elles visent à couvrir, est devenu un handicap. Si tel est bien
le cas, la concurrence entre firmes diversifiées et firmes spécialisées avantage ces
dernières et pousse inéluctablement à la spécialisation.
Cela étant dit, il nous faut maintenant regarder de plus près les mécanismes et les
avantages respectifs de la désintégration et de l’intégration pour rendre compte de
l’évolution actuelle des grands généralistes et pour identifier les tendances de fond qui
modèleront le devenir de l’industrie.
Pour un produit donné, la firme est plus ou moins intégrée verticalement selon
qu’elle exécute toutes les étapes successives de production qui conduisent au produit
fini. Par exemple, pour la majorité de ses ordinateurs, IBM fabrique les composants
mémoire et les microprocesseurs, les intègre sur les cartes et dans les boîtiers et
assemble les unités complètes, alors que de nombreux offreurs de micro-ordinateurs se
contentent de réaliser l’assemblage final à partir d’éléments acquis sur le marché.
Une firme qui produit des biens liés peut procéder à une intégration horizontale de
son offre en proposant des produits composites regroupant plusieurs produits liés. Cette
pratique est appelée « bundling » en anglais (« bottelage » en français). Elle peut aussi
introduire des formes plus subtiles d’interdépendance entre ses produits, par exemple
pratiquer pour un produit A des tarifs et des conditions différentes selon que le client
achète ou non un autre produit B, ou encore fixer ses prix de vente pour chaque produit
ccxc
de façon à maximiser son profit global plutôt qu’à réaliser un profit sur chaque produit
séparément, en acceptant le principe de subventions croisées entre produits.
indépendants ou entre deux parties d’une même firme, a un coût qui dépend en
particulier des modalités de la relation entre les parties à la transaction. Recourir au
marché implique des coûts d’exploration et de sélection, des coûts pour la négociation,
l’établissement et la gestion du contrat ainsi que pour la résolution des désaccords
éventuels. Ces coûts peuvent être réduits ou éliminés en remplaçant le recours au
marché par le recours à un organe de production interne à la firme et soumis à la même
autorité.
ccxci
transaction internes sont inférieurs aux coûts de recours au marché, elle devra être évitée
dans le cas contraire.
La critique de l'intégration
Quels sont donc les coûts et les inconvénients de l’intégration et pourquoi les
néglige-t-on si souvent, alors que, dans l’industrie informatique, la réalité prouve qu’ils
sont suffisamment élevés pour que le mouvement d’ensemble prédominant aille vers
l’éclatement ?
Une liste assez exhaustive d’inconvénients potentiels figure dans Porter , qui les 59
concentrer sur ce qu’elle sait faire mieux que les autres, quitte à faire moins de choses.
Elle met l’accent sur la réactivité et sur l’adaptabilité, et remet en question la croissance
en tant qu’objectif suprême en proposant le slogan « small is beautiful ».
valeur économique, c’est à dire son cash-flow actualisé net, plus que ses marges ou son
chiffre d’affaires. La taille n'est plus un avantage déterminant, car les petites structures
59 M.Porter, The Competitive Advantage ; The Free Press, New York, 1985 publié en français sous le
titre « L'Avantage Concurrentiel » (InterEditions, 1986).
60 Peters TJ, Waterman RH : In Search of Excellence (Harper & Row, 1982)
61 Alfred Rappaport : Creating Shareholder Value (The Free Press, 1986)
ccxcii
peuvent maintenant accéder au capital, au talent et à l'information aussi facilement que
les grandes. Les changements de plus en plus fréquents dans le cycle de vie, le coût des
facteurs, la concurrence globale, les taux d'intérêt, … remettent en question les
économies d'échelle et les synergies, et des actionnaires plus interventionnistes voire des
raiders obligent les chefs d’entreprise à examiner de façon critique et en permanence
chacune de leurs activités. Dans cette logique, une réduction de l'activité peut
augmenter la valeur de l'entreprise si l'activité cédée est destructrice de valeur, c’est à
dire consommatrice nette de liquidités. Les filialisations et les cessions d’activités
deviennent des actions de management normales, facilitées par le développement du
marché des entreprises.
Il faut aussi faire la part des effets de mode, qui sont eux-mêmes en relation avec
la conjoncture économique. Une période de croissance met au premier plan les objectifs
de chiffre d’affaires et renforce tous les facteurs favorables à l’intégration, alors qu’en
période difficile, c’est l’objectif de résultat qui devient prioritaire et renforce les facteurs
favorables à la spécialisation. Comme grandir est beaucoup plus agréable que se battre
pour rester profitable, les chefs d’entreprise adhèrent facilement aux arguments en
faveur de l’intégration, et n’acceptent ceux qui poussent à la dés-intégration qu’en leur
prêtant un caractère exceptionnel.
D’une façon plus générale, plusieurs économistes ont proposé l’idée que le
phénomène d’intégration ou de désintégration est en relation avec le cycle de chaque
industrie ou secteur. Dans un schéma proposé par Stigler et repris par Porter, une
62
industrie nouvelle apparaît nécessairement sous une forme intégrée et le demeure tant
que la taille du marché est insuffisante pour supporter des firmes spécialisées dans les
ccxciii
différents composants ou les différentes étapes de production. De plus, les besoins du
marché ne sont pas encore diversifiés et les processus de production sont encore
instables, ce qui rend difficile aussi bien la spécialisation horizontale que la dés-
intégration verticale. La croissance et la maturité favorisent la spécialisation par niche,
par nature de produit ou par étape de production, en accord avec la remarque d’Adam
Smith selon laquelle « la division du travail est limitée par la taille du marché ». Avec le
déclin de l’industrie et le retrait de nombreux acteurs commence un processus de ré-
intégration progressive.
Ce sont bien ces mécanismes que nous avons vus à l’œuvre pour l’informatique
dans la première partie de cet ouvrage. Le produit intégré « ordinateur » apparu en 1951
sur le marché s’est progressivement décomposé, à partir de la deuxième moitié des
années 60, selon trois dimensions : par nature de prestation (matériel, logiciel, différents
types de services), par type de matériel et par niche de marché. Cette dissociation s’est
effectuée à la fois par apparition de nouvelles entreprises spécialisées et par séparation
plus ou moins nette des prestations à l’intérieur des entreprises généralistes, chacun de
ces mouvements appelant et favorisant l’autre.
ccxciv
renouvellement ou d’installation de systèmes identiques en multiples exemplaires, la
demande de matériel « nu » devient suffisante pour ouvrir un marché à des fournisseurs
qui pratiquent des prix concurrentiels en faisant l’économie du personnel d’assistance.
Pour faire face à cette concurrence spécialisée dans les segments où ils sont
vulnérables, les généralistes doivent suivre ce mouvement des prix, ou peuvent le
prévenir comme IBM avec l’unbundling. Mais pour maintenir leur profitabilité globale,
ils doivent augmenter l’écart entre coûts et prix de vente pour les prestations
caractéristiques des segments où ils restent dominants, ce qui les y rend plus vulnérables
et tend à faciliter l’entrée de nouveaux concurrents. Plus les segments attaqués par les
spécialistes se multiplient, plus les segments relativement protégés se raréfient et
deviennent vulnérables. Au total et sur le long terme, ce sont tous les prix de vente qui
se rapprochent des coûts de revient, y compris pour certaines prestations jusque là
fournies gratuitement et qui deviennent facturées séparément.
Une condition fondamentale pour que ce processus d’éclatement ait lieu est que
les niches où existent des opportunités de spécialisation soient assez visibles et assez
vastes pour justifier les investissements des spécialistes. Or l’industrie informatique
était dominée au départ par quelques généralistes qui se différenciaient par
l’architecture de leurs systèmes et en particulier les conventions qui permettent de relier
ccxcv
entre eux leurs éléments. Ces généralistes formaient un secteur concentré où les parts de
marché étaient par nature inégales. Il est évident que les spécialistes avaient intérêt à
faire porter leurs attaques en priorité sur le fournisseur qui leur procurait le marché
potentiel le plus vaste, en l’occurrence IBM. Le processus d’érosion et d’éclatement
décrit ci-dessus a touché les généralistes dans l’ordre de part de marché décroissante. Il
a été particulièrement rapide pour les secteurs où les investissements étaient les plus
faibles et le cycle le plus court, c’est à dire les secteurs les plus dispersés par nature.
C’est ainsi que s’est développée autour d’IBM, dans les années 70, une
constellation de firmes qui offraient des produits et des services spécifiques,
substituables individuellement aux offres correspondantes d’IBM tout en restant
compatibles au sein d’un système. Tout en respectant les standards de fait définis par
IBM, ces firmes et IBM étaient en concurrence sur de nombreux secteurs, ce qui a eu
pour effet global de faire baisser les prix, d’éliminer les subventions croisées entre
produits, d’améliorer la qualité et la diversité sous toutes leurs formes et de faire
apparaître des produits et services nouveaux.
ccxcvi
centrales sont contraints de se rapprocher des grands producteurs de semi-conducteurs,
ce qui ne laisse subsister dans ce secteur que des firmes comme Fujitsu (et sa filiale
Amdahl), Hitachi ou NEC. On observe ainsi une certaine tendance à la reconcentration
pour les ordinateurs (et les systèmes d’exploitation), à coté d’une poursuite de
l’éclatement pour les périphériques, les services et les progiciels d’application.
De même, le monde Risc/Unix apparu dans les années 80 est resté longtemps
séparé aussi bien du monde traditionnel que du monde PC. Il offre en effet deux types
principaux de systèmes. D’une part des « stations », c’est à dire des ordinateurs
personnels adaptés à un usage scientifique et à des présentations soignées, ce qui
demande des processeurs puissants, de grands écrans, des possibilités graphiques
évoluées, sans équivalent au niveau des PC comme des ordinateurs traditionnels.
D’autre part des « serveurs », c’est à dire des ordinateurs de taille moyenne destinés à
être partagés entre différents utilisateurs dans le cadre d’un réseau de stations ou de
micro-ordinateurs. Ces serveurs sont en concurrence directe avec les ordinateurs
traditionnels, mais ne peuvent être exploités que dans le cadre d’une architecture de
systèmes nouvelle appelée « client-serveur ». Tant que cette architecture n’aura pas
atteint une certaine maturité, la concurrence réelle des serveurs est limitée aux mini-
ordinateurs.
ccxcvii
génération, il permettra à des assembleurs, en utilisant ces puces du commerce, d’offrir
pour une part croissante du marché informatique total des matériels offrant un meilleur
rapport prix/performances que ceux des firmes intégrées.
ccxcviii
aboutira un jour à l’incorporation du parallélisme massif dans des systèmes standard de
niveau industriel, selon un mécanisme évoqué au chapitre 12.
Dans une telle concurrence, ce sont les mondes les plus éclatés qui jouissent de
l’avantage concurrentiel maximal, comme nous l’avons vu précédemment à propos du
monde IBM. On constate qu’il existe actuellement dans l’ensemble de l’informatique
plusieurs niveaux de rapport prix/performances. Par exemple, le prix du Mips pour un63
PC est environ un millième de ce qu’il est pour les grands ordinateurs de structure
traditionnelle, le coût d’un même travail est 10 fois plus élevé sur un grand ordinateur
traditionnel que sur une station, ou encore un PC est 3 fois moins cher qu’une station de
configuration et de puissance équivalentes. De même, les prix pratiqués pour les
progiciels dans le domaine des PC sont sans commune mesure avec ceux des progiciels
pour grands systèmes. Ces différences n’avaient pas de très grandes conséquences en
termes de concurrence tant que les possibilités de substitution restaient limitées par les
gammes de puissance ou de fonctions couvertes, mais elles vont devenir déterminantes
au fur et à mesure que s’étendent les domaines de concurrence.
Toute une partie du monde Unix s’est construit sur le modèle intégré traditionnel
où chaque constructeur produit à la fois son microprocesseur, ses matériels et ses
logiciels, chaque élément s’appuyant sur les autres. Il a été jusque là individualisé par
l’utilisation de processeurs Risc et de systèmes Unix. Mais il est certain que les offreurs
de progiciels spécialisés du monde PC, comme Microsoft, Santa Cruz Operation, Novell
ou le complexe IBM/Apple/Taligent, vont offrir des systèmes d’exploitation
concurrents, et que parmi les nombreux assembleurs de matériel du monde PC, certains
vont offrir l’équivalent des stations et des serveurs actuels.
Les offreurs Unix intégrés, comme Sun ou Silicon Graphics, seront ainsi
concurrencés pour chacun des éléments par des spécialistes qui jouiront d’avantages
concurrentiels par les prix, la diversité, la qualité, etc. Maintenir une offre intégrée serait
pour eux suicidaire car une insuffisance relative dans un seul des secteurs pourrait
condamner l’ensemble. Ils seront donc conduits à séparer leurs prestations et lutter pour
chacune séparément, leur avenir dans chacun des secteurs dépendant de leur capacité à
conserver ou acquérir des avantages concurrentiels spécifiques dans chacun des secteurs
ccxcix
où ils restent présents. En tout état de cause, ils devront faire face aux problèmes de dés-
intégration verticale que nous allons aborder dans la suite.
Dans une firme diversifiée ou intégrée, ces conflits sont généralement résolus par
la Direction Générale. D’une part les différents projets de développement sont en
concurrence et les ressources leur sont allouées en fonction de la politique générale de
l’entreprise, d’autre part la recherche alimente un réservoir de produits potentiels dont
l’introduction éventuelle sur le marché est planifiée globalement sur le long terme en
tenant compte de leur impact réciproque.
Une telle attitude planificatrice est d'autant plus nécessaire que la firme occupe
une large partie du marché global, et d'autant plus facile à mettre en œuvre qu'elle
exerce le leadership. C’est ainsi qu’IBM a traditionnellement disposé d’un portefeuille
impressionnant de technologies de pointe et de produits innovants, mais ne les a
généralement introduits sur le marché que sous la pression de la concurrence, donnant
ainsi l’image d’une firme retardataire sur le plan technique. Si ce mode de gestion
améliore probablement la qualité et la cohérence des produits, il entraîne par contre un
retard des produits commercialisés par rapport aux possibilités de la technologie, et rend
la firme vulnérable aux attaques ponctuelles de concurrents qui en exploiteraient les
toutes dernières possibilités.
Au contraire, dans une industrie fragmentée, chaque acteur n’agit qu’en fonction
de ses produits propres. Plus une firme est spécialisée, et moins elle aura de choix pour
l’allocation de ses ressources de développement et de contraintes à respecter pour
ccc
l’introduction de ses nouveaux produits. En quelque sorte, la sélection des produits
commercialisés, qui dans un monde intégré relevait largement du management des
firmes, est maintenant externalisée et confiée au verdict du marché. En conséquence,
tout se passe comme si le progrès technologique était devenu une force autonome :
chaque firme doit penser qu’il se trouvera toujours quelqu'un pour en exploiter les
dernières possibilités. Aucun acteur ne peut contrôler le processus, et il faut s'organiser
pour réagir au progrès et non plus tenter de le contrôler.
Dans le schéma traditionnel, chacune des activités de la firme opère à une même
échelle, déterminée par la part de marché de la firme tout entière. Cette échelle de
production peut, selon les activités, se situer au voisinage ou au-dessus de l’échelle
économique propre à cette activité, ou au contraire lui être inférieure. Dans ce dernier
cas, le coût de revient unitaire des produits est supérieur à celui que permettrait un
volume de production plus élevé.
Tant qu’il n’existe pas de spécialistes dans les secteurs correspondant aux activités
de la firme, celle-ci n’est en concurrence qu’avec des généralistes comme elle, au
niveau d’une offre intégrée dont le prix de vente couvre l’ensemble des coûts. Les
règles du jeu concurrentiel de ce secteur et la structure industrielle qui en résulte sont
celles de l’activité la plus capitaliste, et relèvent donc du type monopoliste concentré.
Pour y réussir, les firmes doivent adopter la structure et la culture caractéristiques des
activités à cycle long.
Si par contre il existe des spécialistes dans ces secteurs et qu’ils en occupent une
part non négligeable, la firme généraliste opère de fait dans des secteurs concurrentiels
distincts où les règles du jeu et les critères de réussite sont différents, et elle doit lutter
dans chaque secteur contre des entreprises spécifiquement adaptées. Comme il est peu
vraisemblable qu’un généraliste puisse être aussi performant que les spécialistes dans
ccci
tous les secteurs, il est probable que les généralistes perdront des parts de marché dans
certains domaines au bénéfice des spécialistes de ces domaines. En particulier, les coûts
excessifs des composants et des progiciels se traduisent par des prix élevés pour les
matériels qui constituent la source principale de revenu. De plus, l’organisation et la
culture adaptées aux cycles longs deviennent un handicap concurrentiel dans le secteur
des matériels et des services.
La firme a deux solutions pour réduire les coûts des composants : ou bien
abandonner son activité de production et utiliser des composants du marché, ou bien
rapprocher ses volumes de production de l'échelle économique, ce qu’elle ne peut faire
qu’en fournissant ses composants à d’autres entreprises d’assemblage. Dans cette
deuxième approche, elle deviendrait concurrente des autres fournisseurs dans le secteur
des composants, et entrerait de ce fait dans la dynamique de concentration
caractéristique que nous avons étudiée au chapitre 7. Ce secteur est déjà fortement
constitué, et donc l’entrée y est extrêmement difficile et la survie problématique.
Si néanmoins la firme continue à fabriquer des composants, elle doit les vendre à
des assembleurs qui les utiliseront dans leurs propres produits, en concurrence avec
ceux de la firme elle-même. Les avantages concurrentiels dont jouissent éventuellement
ces composants ne peuvent alors suffire à assurer un avantage aux produits qui les
utilisent. L’activité aval de la firme qu’est l’assemblage de matériels ne peut rester
concurrentielle qu’en se différenciant par d’autres caractéristiques propres au matériel
lui-même.
cccii
naturelle d’autoriser l’aval à acheter à d'autres que l'amont. Par ailleurs, les facteurs
organisationnels et culturels deviennent de plus en plus critiques dans la concurrence
entre firmes spécialisées, et chaque segment de la firme doit pouvoir adapter sa
personnalité au secteur où il opère. Sous peine d’échouer, l’activité amont et l’activité
aval doivent devenir autonomes non seulement dans leur comportement concurrentiel à
l’extérieur de la firme, mais aussi à l'intérieur même de la firme éclatée, qui tend à se
décomposer en entreprises indépendantes.
ccciii
l’échelle économique de production et lutter efficacement contre les autres fournisseurs
en réduisant leurs coûts unitaires. En tout état de cause, nous avons vu au chapitre 7 que
les années à venir verront des firmes abandonner ce secteur une à une, avec des
conséquences plus ou moins graves pour le reste de leurs activités et pour leur survie.
Les trois firmes susnommées sont les premiers candidats (involontaires) à cet abandon.
Le tableau est beaucoup plus flou dans les systèmes d’exploitation, qui forment
l’autre domaine dont l’échelle économique de production est élevée. Le caractère
intrinsèquement monopoliste du secteur, qui le soumet à une dynamique de
concentration en tout point parallèle à celle du secteur des composants, semble
nettement moins bien compris tant par les acteurs que par les commentateurs. Les
exigences spécifiques de la production de logiciel de qualité industrielle et leurs
implications économiques et stratégiques, que nous avons présentées au chapitre 12, ne
sont encore qu’imparfaitement perçues.
Néanmoins, plusieurs firmes généralistes s’engagent dans la voie qui tend à rendre
autonomes leurs activités de développement de systèmes d’exploitation, par exemple
Sun en portant son système sur d’autres processeurs que ses puces Sparc. IBM s’est
engagé dans une vaste opération de refonte de tous ses systèmes existants pour les
porter sur la base PowerPC et les rendre conforme aux normes Posix, tout en annonçant
le développement de systèmes nouveaux à travers des coopérations avec Apple dont la
géométrie semble variable, les objectifs fluctuants et la stratégie incertaine. Apple parle
de rendre disponible son futur système (Copland ou System/8) indépendamment du
matériel, mais il n’est pas évident qu’ils veulent le dissocier de la base PowerPC. La
stratégie d’Apple est ainsi liée à celle d’IBM et souffre du même flou. En tout état de
cause, même si de nombreuses firmes décident de rester dans le secteur devenu
autonome des systèmes d’exploitation, la concurrence monopoliste et la dynamique de
concentration restreindront progressivement ce nombre.
ccciv
Or ces activités se situent dans des secteurs de structure dispersée, où les parts de
marché maximales sont de l'ordre de 15% et où la profitabilité est plus faible que dans
le secteur concentré qu'était l'informatique traditionnelle. Cette seule différence pose des
problèmes difficiles aux constructeurs généralistes qui avaient prospéré dans une
structure de type concentré où la récompense du plus performant est une part de marché
supérieure à 60%. Dans le nouvel environnement, la récompense du meilleur n’est plus
au maximum que 15% du marché, ce qui ne correspond pas du tout à une perte de
compétitivité mais à une structure sectorielle différente. Si le leader perdait réellement
sa compétitivité, ce n’est pas à 15% mais à moins de 5% qu’il verrait tomber sa part !
C’est l’ensemble de ces difficultés qui est à l’origine de la crise des grands
généralistes traditionnels, au premier rang desquels IBM, et non telle ou telle
insuffisance ponctuelle évoquée par des commentateurs superficiels. On lit souvent que
les malheurs d’IBM sont dus au fait que cette firme aurait « manqué le tournant de la
micro-informatique ». Or d’une part IBM a été le premier des grands constructeurs à
pénétrer en force dans ce marché, en y établissant des standards durables, et y a
rapidement conquis des positions enviables dans les tout premiers rangs, qu’elle
conserve encore aujourd’hui. D’autre part, il était rigoureusement inimaginable que
l’activité micro-informatique se substitue rapidement et largement à l’activité
traditionnelle, car il s’agissait et il s’agit encore largement de marchés disjoints. Enfin, à
l’exception des secteurs minoritaires des composants et des progiciels, les activités
microinformatiques sont moins profitables que les activités traditionnelles. En réalité,
IBM s’est vite rangé parmi les pionniers de la micro-informatique et y a rapidement et
durablement réussi, mais cette réussite ne lui a pas épargné la crise de l’informatique
classique, et ne lui pas non plus évité de s’aligner sur des standards de part de marché et
de rentabilité différents.
cccv
Pour réussir, il ne suffit plus de bien répondre aux besoins généraux du marché.
Encore faut-il répondre mieux que les concurrents aux besoins spécifiques du segment
ou de chacun des segments particuliers que l'on vise. La démarche marketing
traditionnelle d'analyse de la demande doit être complétée par une conscience aiguë des
atouts distinctifs de la firme, voire céder la place à une stratégie reposant d'abord sur ces
atouts plus que sur une demande exprimée. La firme doit se concentrer sur ce qu’elle
sait faire mieux que les autres, en espérant qu’un marché se révélera, et non produire
simplement ce que le marché demande sans se soucier de savoir si elle y dispose d’un
avantage. Elle doit avant tout exploiter ses atouts spécifiques, et en l’absence de tels
atouts savoir abandonner le secteur.
Enfin, dans l'action commerciale, chaque offreur doit savoir qu'il affrontera des
concurrents dont les stratégies, et donc les organisations et les démarches commerciales,
sont très diverses. Chacun d'eux, dans les domaines où il opère, rencontre une
concurrence multiforme et doit adapter en conséquence son propre comportement
commercial pour faire face à toutes les concurrences.
La convergence des trois mondes confronte ainsi les grands offreurs traditionnels
à de multiples défis : s'organiser pour opérer dans des secteurs dont les règles du jeu
sont fondamentalement différentes, peut-être abandonner certaines de leurs activités,
réduire la taille de l'entreprise et son train de vie pour suivre la réduction de la part de
marché et des marges. Elle leur impose également un bouleversement complet de leur
culture.
C’est dans ce contexte qu’il faut situer les ambitions affichées par de nombreux
constructeurs traditionnels en matière de services. Remarquons que cette attitude est à
l’opposé de celle qu’ils adoptaient dans les années 70 et 80. Après avoir fourni
gratuitement des services comme partie intégrante de leur offre, les constructeurs ont
utilisé la facturation séparée pour limiter leur implication dans les services et favoriser
la création d'entreprises spécialisées. Les années 70 et 80 ont en réalité vu un relatif
désengagement des constructeurs et une autonomisation progressive du secteur des
services par rapport à celui des matériels.
Le revirement que l'on constate depuis quelques années, et qui est surtout le fait
des grands constructeurs traditionnels, a certes pour but de conserver ou d’acquérir un
avantage concurrentiel pour les produits (qui serait encore plus grand si le service était
fourni gratuitement), et de répondre à une demande croissante des clients pour une prise
de responsabilité plus globale quant aux résultats. Mais sa motivation première est
probablement de tirer un revenu de ressources en personnel devenues excédentaires.
Point n'est besoin pour cela que les services soient particulièrement profitables. Tant
qu'on ne se résout pas à se séparer des personnels en question, mieux vaut encore les
facturer au taux du marché que les rétribuer à ne rien faire. En outre, cette offre
rencontre une demande accrue par l'éclatement et la complexité croissante de l'offre
informatique, qui pousse de nombreux clients à se reposer sur un intégrateur
professionnel, voire à exiger de leur fournisseur principal de matériel qu'il prenne une
responsabilité contractuelle dans sa mise en œuvre.
Il n'en reste pas moins que réussir dans les services exige des formes
d'organisation, des systèmes de management et des cultures d'entreprise très différentes
cccvi
de ce qui convient au secteur des matériels en général, et encore plus au secteur
traditionnel. L'avenir dira si les constructeurs sauront gérer leurs activités de services de
façon à se créer un avantage concurrentiel par rapport aux offreurs spécialisés, et
s'organiser pour que leur présence dans des secteurs aussi dissemblables ne présente pas
pour eux plus d'inconvénients que d'avantages.
Au total, la vie est plus dure pour les constructeurs de matériel dans un monde
fragmenté ou « ouvert ». On comprend que la plupart des constructeurs traditionnels
aient cherché à prolonger autant que possible les schémas antérieurs qui avaient présidé
à leur réussite, ne serait-ce que pour se donner plus de temps pour accomplir leur
transformation. Cette attitude contribue à expliquer pourquoi même les constructeurs
qui étaient présents dans les trois mondes ont peu fait pour favoriser leur
rapprochement, et pourquoi c'est dans le monde un peu marginal d’Unix que prennent
naissance les solutions techniques innovantes qui permettront la convergence des grands
et des petits systèmes.
A l’intérieur des entreprises généralistes, les lignes de rupture passent entre les
activités dont les dynamiques concurrentielles et les exigences d’organisation et de
culture sont très différentes, chaque fragment détaché rejoignant le secteur spécialisé
correspondant. La structure d’ensemble de l’industrie informatique, qui était au départ
un secteur unique de type concentré peuplé de généralistes, se transforme en un
complexe de secteurs spécialisés autonomes, chacun obéissant à sa propre dynamique et
doté de sa propre structure, allant de la plus concentrée à la plus dispersée.
Dans chacun de ces secteurs se retrouvent des firmes issues du monde traditionnel
comme des firmes issues du monde PC. La concurrence interne au secteur tend à les
pousser toutes à émuler les plus performantes d’entre elles et à rendre plus homogènes
les organisations, les cultures et les comportements, quelle que soit l’origine de
l’entreprise. L’éclatement en secteurs s’accompagne ainsi d’une homogénéisation des
firmes dans chacun des secteurs.
Or les firmes les mieux adaptées à la forme de concurrence qui règne dans chaque
secteur sont celles qui y opèrent depuis le plus longtemps et ont fait ainsi la preuve de
leur compétitivité compte tenu des règles du jeu en vigueur localement. D’une façon
générale, ce sont celles qui sont issues du monde du PC, sauf pour les services où le
monde micro n’a pas produit de sociétés de services vraiment différentes de celles qui
existaient avant lui dans le monde traditionnel. La submersion de l’ensemble de
l’informatique par les technologies de la micro, dont nous avons parlé précédemment,
cccvii
se double d’une submersion de toute l’industrie par les pratiques et les cultures
industrielles issues du monde du PC.
Bien entendu, il n’est pas exclu que certains grands généralistes continuent à
opérer dans plusieurs secteurs, voire que certaines autres firmes réussissent à prendre
pied et à se maintenir dans des secteurs différents de leur secteur d’origine. Mais il est
probable que ces firmes adopteront pour cela un modèle interne plus voisin de celui du
conglomérat que de la firme intégrée, avec des entités autonomes qui mènent des
stratégies indépendantes en adoptant pour cela des structures et des cultures adaptées au
secteur. Lorsque l’entreprise sera présente dans des secteurs différents mais voisins par
leur dynamique concurrentielle, par exemple l’assemblage de différentes variétés de
matériels, elle pourra conserver les activités correspondantes dans une structure
commune et bénéficier éventuellement d’effets de synergie. Par contre, opérer dans des
secteurs radicalement opposés comme les composants et l’assemblage de matériel, ou
encore le progiciel d’une part, le matériel ou les services d’autre part, commandera de
séparer plus nettement les activités en les confiant à des entités juridiquement distinctes.
Conclusion
Cette « grande unification » conduit à un monde où, comme dans le monde PC, il
existera des fournisseurs spécialisés pour chaque élément d'un système informatique,
qu'il s'agisse de matériels, de progiciels ou de services. Pour pouvoir être combinés
entre eux, ces éléments respecteront des standards, mais en règle générale le choix d'un
fournisseur pour un quelconque de ces éléments laissera un grand nombre de choix
possibles pour chacun des autres. Cette indépendance de choix des fournisseurs, liée à la
possibilité d'assembler les produits de fournisseurs indépendants, est caractéristique de
ce qu'on appelle un monde ouvert.
Ces bouleversements de l’industrie ont déjà commencé, mais ils sont loin d’être
terminés. On a largement surestimé jusqu’ici la concurrence entre l’informatique
traditionnelle et les micros. En réalité, cette concurrence ne fait que commencer, car les
cccviii
avantages concurrentiels théoriques ne jouent qu’à l’intérieur de segments de marché où
les offres sont réellement substituables, ce qui a jusqu’ici été exceptionnel entre la
grande informatique et la microinformatique. Mais il ne faudrait pas en conclure que la
coexistence actuelle va se perpétuer sur le même mode relativement pacifique. Les
arènes de concurrence réelle se multiplient et s’élargissent, et gagnent progressivement
tous les domaines et tous les niveaux de performances. Dans chacune d’elles, le monde
micro jouit des avantages concurrentiels les plus grands, grâce précisément à sa
structure éclatée spécialisée. Ce monde, avec sa structure industrielle et ses
technologies, va submerger progressivement toute l’informatique, amenant des
bouleversements pour l’ensemble des acteurs, et pour les clients de nouveaux standards
de prix, de performances et de facilité d’utilisation.
Pour les acteurs de l'industrie, la vie est au total plus dure dans un monde ouvert.
Si quelques-uns, opérant dans les secteurs monopolistes que sont les composants et les
progiciels, pourront exploiter une position dominante, c'est au prix d'une succession de
paris technologiques de plus en plus coûteux où ils risqueront à chaque fois leur
suprématie. Les autres opéreront dans des secteurs où les enjeux seront certes plus
raisonnables, mais où les positions sur le marché seront fragiles et où rien ne sera jamais
acquis. C'est précisément cet univers dangereux qui garantit aux clients les meilleures
offres possibles.
Pour porter un diagnostic d'ensemble, encore faut-il utiliser les bons critères. La
santé d'une industrie se mesure d'abord à sa vitalité, c'est à dire à sa capacité de
satisfaire les besoins de ses clients, et d'améliorer cette satisfaction sur tous les plans :
fonctions, performances, coûts, fiabilité, facilité d'utilisation, richesse des choix, etc. A
cette aune, l'industrie informatique « pète de santé ». Bien sûr, certains acteurs ont
disparu et d'autres disparaîtront encore. Mais il ne faut pas confondre la santé d'une
industrie tout entière avec celle de chacune des firmes qui la composent. L'élimination
des entreprises les moins performantes est précisément le principal mécanisme par
lequel l'industrie se maintient en bonne santé. Bien sûr, de nombreuses entreprises
« dégraissent », mais c'est justement afin d'être mieux armées pour la poursuite du
combat concurrentiel. Nous avons trop tendance à juger les entreprises d'après leur
capacité à créer des emplois, et à oublier que leur véritable mission première est de
fournir des produits.
cccix
Chapitre 15
Les mécanismes intégrateurs
cccx
Les systèmes et le problème de l’intégration
cccxi
Mais l'abondance même des produits peut faire problème pour de nombreux
utilisateurs, vers qui se déplacent les responsabilités de choisir et d'assembler les
éléments disponibles sur le marché.
De plus, dans le monde désintégré et ouvert vers lequel évolue l’informatique, les
choix relatifs à chacun des composants constitutifs d’un système sont indépendants des
choix relatifs aux autres composants. Contrairement à la situation qui prévaut encore
aujourd’hui, tous les systèmes d’exploitation majeurs fonctionneront sur tous les
microprocesseurs majeurs, et donc le choix d’un système d’exploitation n’entraînera ni
celui du microprocesseur ni celui d’une gamme de matériel. A l’inverse, un nombre
croissant de grands assembleurs de matériel, comme aujourd’hui IBM, Digital
Equipment ou Hewlett-Packard, offriront le choix entre plusieurs microprocesseurs. Le
choix d’un constructeur pour le matériel n’imposera donc pas le choix d’un
microprocesseur ou indirectement d’un système d’exploitation. De même, pour chaque
élément fonctionnel destiné à rendre un service donné (stockage, impression,
communication, entrée ou affichage d’informations, production de sons, …), qu’il
s’agisse de matériel ou de logiciel, on trouvera sur le marché plusieurs produits
concurrents compatibles avec le reste du système.
cccxii
Une fois le choix effectué, les standards peuvent atténuer le problème
d’intégration mais certainement pas le faire totalement disparaître. De plus, les
standards ne seront jamais ni définitifs, ni universels, ni parfaits et continueront à
évoluer. Aussi longtemps que la concurrence existera et maintiendra le progrès
technique en avance sur la normalisation (c'est à dire toujours, souhaitons-le !), Il
existera des standards concurrents, et le choix d'un constructeur pour un élément ne sera
pas neutre par rapport aux autres.
Dans le monde traditionnel des années 70, un client avait le loisir de s'affranchir
de ces problèmes en optant une fois pour toutes pour un constructeur généraliste. Dans
un monde ouvert, il doit assumer lui-même ces choix, ou s'en remettre à une société de
services.
Quand son choix se sera fixé et quand ses décisions seront prises, il ne pourra plus
compter sur la même assistance qu’un fournisseur généraliste privilégié pouvait lui
apporter au stade de l’intégration. Aucun fournisseur spécialisé ne sera capable ni
désireux d’apporter une autre aide que celle qui est strictement nécessaire à la mise en
place de ses produits. De plus, les fournisseurs de matériels, qui opèrent dans un secteur
dispersé très concurrentiel et peu profitable, chercheront à limiter leurs interventions
non facturées.
cccxiii
La fragmentation de l’offre confronte ainsi les utilisateurs à des problèmes accrus
dans deux domaines : la conception des systèmes et le choix des composants d’une part,
l’intégration d’autre part. La plupart des clients se reposaient pour cela, plus ou moins
délibérément, sur un fournisseur privilégié, et ce rôle sécurisant a fait beaucoup pour le
succès d’IBM et de ses suivants les plus importants. Un client avait toujours le loisir de
s’affranchir de cette tutelle, mais il découvrait alors le coût et les servitudes de
l’indépendance, si bien que seuls les plus grands se le permettaient de façon
systématique.
cccxiv
Ce changement de contexte et de mode de travail représente une mutation délicate
dont tous ne sont pas immédiatement capables. La difficulté de cette transition explique
sans doute en grande partie le flottement et le ralentissement de l’évolution
informatique que l’on constate dans de nombreuses entreprises, ainsi que le retard
technologique qui affecte de plus en plus l’informatique d’entreprise par rapport à
l’informatique personnelle, voire l’informatique familiale. Il aboutit souvent à une
remise en cause de la position et du rôle du Directeur Informatique, voire de la place de
l’informatique dans l’entreprise, et pousse les instances dirigeantes à accorder une
oreille attentive aux sirènes de l’infogérance et du « facilities management ».
L’organisation de l’offre
Devant ces nouveaux problèmes des utilisateurs, une partie au moins de l’offre
cherche à s’organiser soit pour réduire les besoins d’orientation et d’intégration, à
travers des alliances ou des coopérations entre fournisseurs, soit pour répondre à ces
besoins en offrant des services appropriés, que nous désignerons d’une façon générale
par « services d’intégration ». Même si ces alliances constituent un phénomène de
second ordre par rapport à la tendance générale à la dés-intégration de l’industrie, et
même si les services d’intégration ne sont qu’une forme de services parmi d’autres, les
réponses apportées par les différents acteurs aux problèmes d’intégration ne sont pas
sans effet sur les structures d’ensemble de l’industrie et sur les stratégies des acteurs.
Fournir des services d’intégration est généralement considéré comme une source
d’avantages concurrentiels globaux. La situation d’intégrateur permet d’intervenir en
amont dans les choix des composants à intégrer, et donc de favoriser ses propres
productions ou de valoriser ce pouvoir de préconisation dans des relations avec les
autres fournisseurs. L’intégrateur se place ainsi dans une position privilégiée non
seulement par rapport au client, mais par rapport à tout le reste de l’industrie.
Dans une industrie éclatée, le rôle d’intégrateur peut être tenu de multiples façons
et par de multiples acteurs. On peut schématiquement distinguer deux approches :
l’intégrateur peut identifier un besoin et son marché, et intégrer à l’avance le ou les
systèmes nécessaires pour le satisfaire. Cette approche est du type « produit » car le
fournisseur définit unilatéralement les caractéristiques fonctionnelles et les conditions
financières et commerciales de son offre, et doit investir pour développer son produit
avant de le proposer sur le marché et de connaître les réactions de celui-ci. Dans une
deuxième approche, de type « services », l’intégrateur part des besoins spécifiques de
chaque client pour construire dans chaque cas un système sur mesure et unique.
cccxv
L’intégration de type « produits » rejoint l’ancienne offre de « systèmes clés en
mains » aujourd’hui en perte de vitesse, et constitue l’un des avatars de l’« offre de
solutions » actuellement à la mode. Pour les raisons ci-dessus, elle ne peut guère réussir
qu’à des fabricants de produits spécialisés comme des progiciels d’application ou des
périphériques particuliers, jouissant d’une bonne connaissance des besoins spécifiques
de leurs applications et d’un accès privilégié au marché correspondant. C’est d’ailleurs
probablement ce qui explique l’échec de presque toutes les sociétés de services qui ont
abordé ce domaine sans disposer d’une base de produits sur laquelle asseoir la
facturation de leur activité. Elle peut demander des coopérations permanentes entre
fournisseurs dans la mesure où l’intégrateur ne produit pas tous les éléments du système
et doit en acquérir certains auprès d’autres fournisseurs.
La variante nouvelle de cette thèse est que les clients veulent des résultats, c’est à
dire un service aux utilisateurs, et ne sont pas intéressés par le détail des technologies
informatiques. Ils préféreraient donc acheter un service global produit sous la
responsabilité d’un fournisseur, plutôt que se procurer les produits individuels
nécessaires et conserver la responsabilité de la production du service.
cccxvi
Dans des variantes plus limitées, le client peut sous-traiter la construction du
système et tout ou partie du choix de ses éléments. C’est l’activité d’intégration de
systèmes, où le prestataire remet au client un système en état de marche que ce dernier
aura la charge de faire fonctionner. A l’inverse, le prestataire peut prendre en charge la
gestion opérationnelle d’un système existant, dont il peut acquérir la propriété et dont il
peut assurer l’évolution ultérieure. On parle alors d’infogérance ou « facilities
management ».
L’économie de l'infogérance
Pour qu’une prestation existe de façon permanente, il faut qu’une firme au moins
l’offre et y réalise un profit de façon durable. Cela suppose d’une part qu’il existe des
cccxvii
clients pour lesquels cette prestation présente des avantages par rapport à d’autres
façons de satisfaire le même besoin. Dans ce cas précis, ceci implique que le coût du
contrat est inférieur au coût des ressources internes nécessaires pour produire le même
résultat en niveau et qualité de service.
Pour qu’un contrat d’infogérance soit réellement intéressant sur le plan financier,
il faut que son montant soit inférieur au coût direct des ressources informatiques auquel
il se substitue. Cette règle est évidemment défavorable à l’infogérance, mais représente
la seule base de comparaison réaliste.
A l’opposé, pour que le contrat soit profitable pour le prestataire, son montant doit
couvrir le coût complet des ressources d’exécution qui lui sont consacrées, plus les frais
commerciaux découlant de l’établissement de la proposition et du contrat, ainsi que de
l’activité commerciale en général et des propositions non suivies d’effet. Il doit enfin
laisser à l’entreprise une marge suffisante. Or les coûts unitaires des ressources de base
sont en gros les mêmes pour l’entreprise de services et pour ses clients. Le prestataire
doit donc savoir réaliser une économie d’au moins 20% sur les ressources réelles
consacrées au contrat, par rapport à celles que le client utilise ou aurait utilisé. Cette
économie nécessaire monte à 40% si le prestataire veut faire bénéficier son client d’une
réduction de 20% de ses dépenses informatiques, comme certains n’hésitent pas à le
promettre.
cccxviii
Reste un potentiel limité de partage de compétences critiques. Mais s’il existe des
activités où le partage avec d’autres peut engendrer une économie substantielle, cela
peut justifier une offre de services limitée à cette activité, mais reste insuffisant pour
justifier une offre de services globale. Dans une concurrence entre une offre globale
dans laquelle la majorité des activités n’est pas profitable et des offres spécialisées
limitées aux activités profitables, ces dernières l’emportent nécessairement en forçant
les offreurs intégrés à dissocier leurs prestations, comme nous l’avons vu au chapitre
précédent.
cccxix
Dans de tels cas, la priorité devrait être une refonte totale du système, qui peut
être facilitée en sous-traitant l'exploitation du système existant pour consacrer les
ressources de l’entreprise à développer le nouveau, ou au contraire en confiant à un
prestataire la totalité du développement et de l’exploitation du nouveau système. Mais
dans ce dernier cas, si le système nouveau est réellement un système moderne bien
adapté, il sera trop intégré à la vie de l’entreprise pour que son exploitation soit sous-
traitée, et celle-ci sera d’ailleurs assez peu coûteuse pour que cela en vaille la peine.
Dans un cas comme dans l’autre, la situation d’infogérance ne saurait être que
temporaire. C’est ce qu’on appelle le « FM de transition ».
Sous sa forme la plus complète, qui répondrait pourtant le mieux aux besoins
supposés du marché, où le prestataire aurait à la fois la responsabilité de l’intégration du
système et de la production permanente du service, l’infogérance est en réalité
extrêmement peu pratiquée. Le plus souvent, le prestataire reprend un système
préexistant déjà opérationnel chez le client, y compris souvent le personnel, en
promettant des économies sur les coûts d’exploitation. Cette approche élimine les
risques liés à la conception et au développement, mais limite par là même les
possibilités d’économies sur l’exploitation. Son effet le plus évident est de reporter sur
le prestataire les problèmes sociaux inhérents à la réduction des effectifs d’exploitation,
ce qui peut être un argument suffisant pour certains clients.
Au-delà des modes actuelles, qui ne touchent d’ailleurs qu’un petit nombre de
comptes, un contrat global d’exploitation à long terme ne peut satisfaire qu’un marché
de firmes « démissionnaires » ou de cas exceptionnels. La tendance actuelle est à
l’éclatement en prestations limitées dans le temps et répondant aux besoins précis d’une
étape particulière, ou différenciées par leur nature et définies par la sous-traitance de
tâches spécifiques. Un exemple actuellement populaire est la gestion du parc de micro-
ordinateurs, qui ne concerne que l’infrastructure et non la superstructure applicative.
Les tâches correspondantes sont génériques, relativement faciles à spécifier et à évaluer,
et peuvent être couvertes par un contrat standard, ce qui fait de ce service un quasi-
produit.
Partenariats et alliances
Devant les problèmes que pose au marché l’éclatement de l’offre informatique, les
offreurs peuvent trouver des avantages concurrentiels à nouer des alliances entre eux,
qui peuvent viser des objectifs très divers et prendre des formes juridiques et
cccxx
contractuelles variées. Mais de la même façon qu’il est vital pour une firme que sa
personnalité soit cohérente avec ses activités, il est important pour une alliance que sa
forme soit cohérente avec ses objectifs. Sinon, la sanction est la même : une alliance
inadaptée à son objet échouera comme une firme inadaptée à son secteur.
A partir de cette arithmétique simple commence le jeu subtil des coalitions et des
luttes d’influence qui fait les délices des banquiers d’affaires et des administrateurs
professionnels, et qui donne à une participation donnée un poids différent selon la façon
dont est réparti le reste du capital, et selon la position active ou passive, amicale ou
hostile, des autres actionnaires. Une prise de participation minoritaire peut être un pied
dans la porte, une position d’attente ou un renfort à une coalition existante. Mais la
plupart du temps, quand un investisseur décide d’entrer au capital d’une entreprise, il ne
peut en général que faire abstraction des coalitions potentielles futures et agir en
fonction de ce qu’il acquiert dans l’immédiat. C’est le point de vue que nous adopterons
dans la suite de cette analyse.
cccxxi
solide où il peut faire confiance aux dirigeants en place. Il se gardera d’intervenir dans
sa gestion et se contentera donc d’une participation minoritaire, dont il peut facilement
se débarrasser si nécessaire. C’est la motivation « du banquier ».
cccxxii
de management spécifiques, voire des modifications de la structure et des systèmes de
gestion. Même après ces actions de direction, les objectifs ne seront atteints que si le
comportement attendu n’est pas en contradiction avec les objectifs propres et la
personnalité de l’entreprise. Ceci implique une certaine parenté entre les entreprises, ou
du moins entre les parties des entreprises concernées par la mise en œuvre des accords.
Face à ces risques, l’intérêt des parties est donc que les accords aient un objet
limité et clair, que les risques d’échec soient reconnus et pris en compte et que les
entreprises conservent toute leur indépendance dans les domaines non concernés par
l’accord. On préférera donc les formes d’accord qui exigent le niveau d’engagement le
plus bas possible qui soit néanmoins compatible avec l'objectif commun. Pour la même
raison, les accords devront avoir une durée limitée et prévoir les dispositions à prendre
en cas d’échec.
Autrement dit, dans l’immense majorité des cas où des accords contractuels
suffisent à définir la coopération souhaitée, il vaudra mieux éviter les participations en
capital. De même, si les parties au contrat peuvent respecter leurs engagements en
restant chacune maîtresse de ses ressources, il sera préférable d’en rester à ce type
d’accord et d’éviter la création de filiales communes.
Des accords contractuels sans participation sont beaucoup plus efficaces que des
participations sans accord industriel précis. En dehors de leur rôle de pur placement
financier, les participations minoritaires ne jouent par elles-mêmes qu’un rôle
symbolique, et dans le cas où elles sont assorties d’un siège au Conseil, celui d’un
observatoire permettant d’identifier les opportunités de collaborations opérationnelles et
d’en faciliter la réalisation. Mais réduites à elles-mêmes, elles n’ont aucune importance
opérationnelle a priori.
cccxxiii
Participations majoritaires et acquisitions
Le public non averti pense que les transactions en capital qui accompagnent une
prise de contrôle constituent l’événement important. En réalité, pas plus qu’une prise de
participation, une prise de contrôle ne suffit à changer les stratégies des firmes
concernées. Réaliser les synergies potentielles qui ont motivé l’acquisition exige un
travail dont le coût et la durée sont le plus souvent sous-estimés. Si ce travail n’est pas
entrepris dès l’acquisition, les synergies et donc les bénéfices attendus ne se réalisent
pas. S’il est entrepris, il coûtera de nombreux efforts assez lourds pour décourager
l’acquéreur de les mener tous à bien, et qui peuvent de toute façon encore échouer.
Bref, acquérir une entreprise, ou entrer à son capital à quelque hauteur que ce soit,
est à un projet industriel ce que prendre un billet d'avion pour Katmandou est à
l'ascension de l'Himalaya. On a dépensé une partie du budget, mais l’aventure n’est pas
encore commencée et tous les échecs sont encore possibles.
Un cas courant est celui d’une entreprise de progiciel, qui occupe par exemple
40% d’un certain marché, et qui acquiert une autre entreprise qui en détient 25%. Les
commentateurs s’empressent d’acclamer le fait que l’acquéreur détient maintenant 65%
du marché. Mais c’est se laisser abuser par une illusion arithmétique, en oubliant qu’il
s’agit toujours à ce stade de deux produits différents, et que les économies d’échelle ne
se réaliseront que lorsque tous les utilisateurs utiliseront le même produit. Pour y
parvenir, la firme devra consentir des investissements commerciaux et de
développement, et il est probable qu’une partie des clients profiteront de cette
conversion forcée pour s’adresser à un autre fournisseur. Au bout du compte, l’acheteur
aura dépensé notablement plus que le prix d’acquisition pour acquérir une part de
marché inférieure à celle de la société acquise.
cccxxiv
Dans le cas où les entreprises appartiennent au même secteur, d’autres difficultés
sont à attendre du fait qu’elles étaient concurrentes avant l’acquisition. Il va falloir
consolider et rationaliser les productions, donc abandonner certains produits en
mécontentant à la fois ceux qui les avaient créés, ceux qui les vendaient et les clients qui
les utilisaient. Il faudra consacrer du temps et des efforts à apaiser les querelles internes
pour faire collaborer les adversaires d’hier. Tout cela demandera du temps, car ceux qui
se consacraient à lutter contre vos produits n’en deviennent pas du jour au lendemain les
avocats les plus actifs ni les plus crédibles.
Les quelques études objectives qui ont cherché à évaluer le résultat réel des
acquisitions concluent toutes que la majorité d’entre elles échoue, dans la mesure où les
espoirs qui avaient initialement motivé l’opération ne se réalisent pas par la suite. Le
pourcentage d’échecs est estimé à 60% si les deux firmes opéraient dans le même
secteur, à 80% si elles opéraient dans des secteurs différents. La Bourse ne s’y trompe
d’ailleurs pas. En règle générale, dès que la rumeur dit qu’une firme va être rachetée,
ses actions montent. Par contre, quand la transaction est annoncée, les actions de
l’acquéreur baissent. Autrement dit, l’effet immédiat d’une acquisition est d’affaiblir
l’acquéreur. L’effet à long terme dépend des actions qui seront engagées après
l’acquisition, et de leur succès. Le seul gagnant certain est le vendeur, c’est à dire les
actionnaires de la firme acquise, qui ont empoché la plus-value créée par les espoirs de
l’acquéreur même si ce dernier échoue à les réaliser.
Au total, pour l’observateur neutre, les cas où l’acquisition d’une autre entreprise
aboutit réellement à renforcer la firme devraient être considérés comme des exceptions
et non comme la règle. A l’annonce d’une acquisition, et en l’absence de détails
spécifiques qui permettraient de prévoir exceptionnellement une réussite, les pronostics
les plus vraisemblables sont au nombre de deux. Ou bien les deux firmes continueront à
coexister et à mener des stratégies largement indépendantes et conformes à la logique de
leur secteur, quels que soient leurs liens capitalistiques, et rien n’aura réellement
changé. Ou bien la firme acquise sera éliminée, l’acquéreur sera affaibli à court terme
par ses efforts et ses problèmes internes, ainsi que par les dépenses d’acquisition, et
l’effet à long terme sera négligeable. Dans un secteur dispersé très dynamique en
évolution rapide, on peut même craindre que l’affaiblissement temporaire consécutif à
l’acquisition ne se transforme en handicap à long terme s’il empêche la firme de saisir à
temps les opportunités de marché. Ce pronostic peut évidemment souffrir des
exceptions, mais ce serait une erreur de les considérer comme la norme.
cccxxv
types de dirigeants : ceux qui s’occupent de gérer convenablement l’entreprise et pour
qui les transactions en capital appartiennent à un univers étranger, et ceux qui voient la
vie de l’industrie comme un jeu de participations au capital de « boîtes noires » qu’ils
seraient bien incapables de diriger.
Partenariats et « coopétition »
Une première règle sera de chercher à distinguer la réalité de l’accord, c'est à dire
ses motivations et ses dispositions industrielles ou financières, derrière les motivations
commerciales ou d'image qui expliquent sa présentation. On vérifiera en particulier si
telle annonce spectaculaire de « partenariat » ne déguise pas une simple relation de
client à fournisseur tout à fait ordinaire, comme c’est souvent le cas. Un grand titre
comme « la Société X s’allie au constructeur Y pour l’informatisation de ...» annonce le
plus souvent une simple commande de matériel, de même que « le constructeur de
micro-ordinateurs Z devient partenaire d’Intel » veut dire que Z a décidé de
s’approvisionner en puces chez Intel comme des centaines d’autres.
Un véritable partenariat se définit par un partage des risques et implique que les
parties fonctionnent selon des schémas autres que leurs pratiques contractuelles
normales. Si par exemple une entreprise confie à une autre tout ou partie du
développement ou de la fabrication d’un produit, il faudra se demander qui fixe les
spécifications, qui fixe le prix de vente et qui prend quel risque sur le revenu. Si le
produit est défini unilatéralement par la firme donneuse d’ordre et que le revenu du
sous-traitant ne dépend que de la conformité aux spécifications, il s’agit d’une sous-
traitance normale. Il n’y a partenariat réel que si le sous-traitant participe à la définition
du produit et si son revenu dépend du chiffre d’affaires réalisé par le donneur d’ordre.
Une deuxième règle est de dissocier les participations et les accords industriels, et
de toujours chercher les accords derrière les participations. En l’absence d’accords
explicites, on pourra ignorer les participations minoritaires comme sans importance en
termes opérationnels, et attendre l’annonce d’accords concrets.
Pour les prises de contrôle, on recherchera de même les projets industriels sous-
jacents, en les rapprochant des tendances structurelles générales, et en se posant la
cccxxvi
question de la compatibilité culturelle des firmes en cause. En l’absence de
renseignements spécifiques sur la transaction, l’attitude la plus réaliste est de poser en
principe que toute acquisition a de fortes chances d’être une erreur de gestion, ou de le
devenir à terme. A partir de ce postulat, il faut ensuite rechercher s’il existe des raisons
de penser que cette acquisition particulière peut par exception se révéler une bonne
affaire pour l’acquéreur, en mesurant bien ce que la réalisation lui coûtera de temps et
d’efforts en sus du prix de l’acquisition. Une fois ce coût réel établi, il conviendra de
comparer les résultats de l’acquisition aux autres actions qui auraient été possibles pour
le même coût.
Il faudra donc toujours regarder la part négative de l’accord, c’est à dire ce que
chaque partenaire s’interdit de faire, soit contractuellement, soit de fait en acceptant une
limitation de ses ressources ou en abandonnant leur contrôle. Il faudra comparer les
gains et les sacrifices de chaque entreprise et estimer comment leurs motivations se
rencontrent et s'accordent. Enfin, il faudra se souvenir qu’une bonne alliance a un objet
limité et précis, que les alliances trop ambitieuses ou trop vagues ont toutes chances
d’échouer, et enfin que des changements de l’environnement peuvent rendre caduque
une bonne alliance.
cccxxvii
des difficultés sont nombreux à les imputer à un mauvais choix de secteur et à croire
qu’en changer résoudra leurs problèmes. En abordant une nouvelle activité, la firme
peut espérer exploiter plus complètement ses avantages concurrentiels réels, latents ou
supposés, ou tout simplement investir les bénéfices accumulés grâce à ses succès
précédents. Enfin, toute une littérature présente les actions de diversification et
d’acquisition comme le comportement normal de l’entreprise, encouragé par les
banques d’affaires et les consultants qui en vivent.
Nous n’entrerons pas ici dans les controverses sur les finalités de l’entreprise. Il
nous suffira de constater que, justifiées ou non, de nombreuses entreprises s’engageront
dans des actions de « diversification ». Notre propos est d’examiner lesquelles de ces
actions ont des chances de réussir assez fréquemment pour que la structure de
l’industrie en soit modifiée.
Pour se développer, une entreprise peut utiliser deux méthodes : ou bien compter
sur une simple croissance endogène, ou bien acquérir d’autres entreprises. Dans un cas
comme dans l’autre, les activités nouvelles, qu’elles soient entreprises à l’intérieur de la
firme ou qu’elles fassent l’objet de l’acquisition, peuvent être plus ou moins proches des
activités actuelles. Une acquisition peut même porter sur une entreprise directement
concurrente et donc sur des activités appartenant au même secteur que celui de
l’acquéreur.
L’entrée dans un nouveau secteur par développement propre pose en gros les
mêmes problèmes que l’entrée ex nihilo par création d’une nouvelle entreprise. Quelles
que soient les qualités de la firme d’origine et le secteur où elle opère, l’entrée dans un
secteur dispersé sera facile et l’entrée dans un secteur concentré sera difficile et risquée.
Les activités existantes de l’entreprise témoignent d’avantages concurrentiels dans le
secteur d’origine, qui peuvent ou non se révéler pertinents dans le nouveau secteur et y
seront rarement suffisants. Plus profondément, l’organisation et la culture qui ont permis
à l’entreprise de réussir dans son secteur sont plus ou moins bien adaptées au nouveau.
Les chances de réussite seront maximales si les activités nouvelles s’accommodent de la
même organisation et de la même culture, donc a priori si les cycles majeurs des
activités ont des durées voisines et si les secteurs ont des niveaux de concentration
voisins.
Nous avons également vu que des firmes adaptées aux cycles longs, donc aux
secteurs concentrés, peuvent assez facilement tolérer en leur sein des organisations
adaptées aux cycles courts alors que l’inverse est beaucoup plus difficile. De plus, les
firmes opérant dans des secteurs dispersés ont généralement une profitabilité et des
capitaux modestes, si bien qu’elles ne disposeront qu’exceptionnellement des réserves
nécessaires à l’entrée dans un secteur concentré. Il est donc pratiquement impossible
pour une firme d’un secteur dispersé d’entrer dans un secteur concentré par croissance
endogène. A l’inverse, les firmes de secteurs concentrés peuvent assez facilement tenter
de pénétrer dans des secteurs dispersés, mais elles n’y réussiront durablement qu’à
condition de créer et de préserver pour ces activités une organisation et une culture
cccxxviii
opposées à leur personnalité d’origine, ce qui ne peut guère être garanti que par une
organisation nettement séparée.
Pour une firme opérant au départ dans un secteur dispersé, entreprendre des
activités différentes, mais relevant également d’un secteur dispersé, est une opération
relativement facile et susceptible de réussir. Mais dans ce type de secteurs, les
économies d’échelle potentielles sont peu importantes. Réunir ces deux activités en une
seule firme ne présente donc que des avantages limités qu’il convient de mettre
sérieusement en balance avec la perte possible d’autonomie, d’agilité et de spécificité.
Dans la majorité des cas, deux activités de type dispersé réussiraient aussi bien
séparément. Les réunir ne leur confère un avantage concurrentiel que s’il existe entre
leurs chaînes de valeur de nombreuses possibilités de synergie, et cela pour des
65
activités où l’échelle optimale est assez élevée pour dépasser l’échelle de chacune des
entreprises.
Ces secteurs, où les obstacles à l’entrée sont faibles et les profits modestes, sont le
lieu de beaucoup de succès éphémères que les entreprises chercheront à étendre, mais
aussi de nombreux échecs qui pourront tenter les repreneurs, les redresseurs et les
vautours. Notons néanmoins que si le véritable actif d’une entreprise en difficulté est
son personnel, comme c’est le plus souvent le cas dans les services, il existe des façons
plus simples et plus économiques de le récupérer que d’acheter la firme. De même, il
vaut souvent mieux créer une nouvelle entreprise qu’en racheter une en difficulté. Au
total, il est probable que les secteurs dispersés, c’est à dire le matériel et les services,
connaîtront une activité de restructuration interne importante mais sans effet sur leur
niveau global de concentration.
cccxxix
constitue par elle-même un avantage concurrentiel déterminant. Une firme dominante et
une firme désireuse de quitter le secteur trouveront donc assez naturellement un terrain
d’entente, l’une achetant des parts de marché et peut-être des compétences rares, l’autre
réalisant une partie de ses investissements passés et offrant une voie d’évolution à ses
clients. C’est par exemple ce qui s’est passé entre Intel et Hewlett-Packard.
Mais les entreprises des secteurs concentrés, en particulier dans le secteur des
composants, sont également soumises à de fortes tensions qui vont dans le sens de la
dés-intégration verticale. Pour partager les investissements colossaux et dissocier des
échelles économiques de production et des cycles différents, certaines entreprises se
spécialisent dans l’une des trois étapes principales de fabrication des puces : la
production des tranches de silicium, la gravure des circuits et le conditionnement des
puces. Cette filière de « fonderie » peut être utilisée par des tiers pour faire produire des
circuits de leur conception, ce qui répartit encore les investissements entre des firmes de
production, les « fondeurs », et des firmes qui conçoivent des puces et les font produire
à façon, les firmes de composants « fabless ».
Cet éclatement du secteur des composants est en cours. Des firmes spécialisées
dans une ou plusieurs des étapes de fonderie se créent en Extrême-Orient, le plus
souvent à l’initiative et avec le soutien financier des pouvoirs publics locaux, et se
lancent dans la production des mémoires. Dans le même temps, des entreprises
occidentales abandonnent la fonderie pour ne conserver que la conception des
microprocesseurs. Il ne reste guère qu’Intel et IBM pour maîtriser la totalité des
opérations du secteur y compris la conception et la fabrication des microprocesseurs de
grande diffusion, tandis que quelques autres fondeurs comme Texas Instruments
continuent à concevoir des microprocesseurs spéciaux pour leurs besoins propres. Cette
évolution ralentira probablement la concentration du secteur.
cccxxx
des traitements anormalement favorables. Si d’ailleurs une société tenait trop compte
dans ses actions des intérêts d’une entreprise d’un secteur différent, sous prétexte
qu’elle appartient au même conglomérat, il est fort à craindre qu’elle dégraderait ses
avantages concurrentiels dans son propre secteur.
En ce qui concerne les services, il existe de nombreuses raisons pour que les
firmes des secteurs concentrés n’y pénètrent pas à grande échelle. Nous avons vu que la
réussite dans ces activités est extrêmement sensible à la personnalité de la firme, et que
les personnalités requises pour les différentes formes de service sont toutes très
éloignées de celle d’une firme de composants ou de progiciels. De plus, la profitabilité y
cccxxxi
est faible par rapport à celle dont jouissent les producteurs de ces secteurs. Pour ces
raisons, il est probable que la présence des firmes de composants et de progiciels dans
les services se limitera en gros aux services qui sont en support direct de leurs produits,
c’est à dire pour les progiciels l’assistance technique à l’utilisateur, pouvant aller
jusqu’à l’intégration de systèmes autour des produits de la firme. Pour les composants,
les opportunités sont réduites puisque les producteurs ne sont pas en contact direct avec
les utilisateurs, et il est donc probable que les producteurs de composants resteront dans
leur ensemble en dehors des services.
L’éventualité nouvelle serait une menace d’expansion vers l’aval d’Intel, profitant
pour cela de sa puissance financière, ou de PowerOpen qui reconstituerait une IBM
dominatrice intégrant maintenant Apple. On conçoit ce qui motive les producteurs de
composants à être présent sur les marchés des produits finaux, et par ailleurs ce
mouvement d’expansion vers l’aval est facilement réalisable. Mais quelles pourraient
être les motivations et les chances de réussite d’une invasion à grande échelle ?
Une possibilité intéressante serait que les firmes de composants absorbent une
partie du secteur des progiciels. Ce mouvement serait cohérent avec les tendances
technologiques lourdes des composants, qui intégreront des fonctions de plus en plus
riches, au premier rang desquelles les fonctions centrales des systèmes d’exploitation. Il
serait favorisé si le logiciel de base éclatait en objets indépendants reposant sur un
micronoyau adapté, dont il serait tentant d’intégrer les fonctions dans le silicium dès
qu’elles seraient raisonnablement stabilisées. On peut alors penser que le mouvement
cccxxxii
continu de migration des fonctions logicielles depuis la périphérie et les firmes
innovatrices, en direction du noyau et des firmes intégratrices, que nous avons décrit au
Chapitre 12, finirait par traverser la frontière qui sépare encore le matériel du logiciel.
Un tel rapprochement est d’autant plus vraisemblable qu’il concerne deux secteurs
concentrés de culture voisine, et que les profits réalisés dans les progiciels sont
attrayants même pour une firme de composants. La partie du secteur des progiciels qui
concerne les systèmes d’exploitation risque donc de s’intégrer progressivement au
secteur des composants, ce qui déplacerait le centre de gravité de l’industrie du progiciel
restante vers les applications et contribuerait à la fragmenter. Dans ce mouvement, ce
sont plutôt les producteurs de composants qui absorberaient des producteurs de
progiciels que l’inverse. Mais certains grands producteurs de progiciels pourraient
vouloir graver une partie de leurs produits dans le silicium et devenir ainsi concepteurs
de puces spécialisées (ASIC pour application-specific integrated circuit) dont ils
confieraient la fabrication à des fondeurs.
Ces conclusions sont résumées dans le tableau ci-dessous, qui donne pour les
secteurs figurant sur chaque ligne la signification la plus probable de l’entrée d’une
firme de ce secteur dans chacun des secteurs figurant en colonne. Aux cas présentés ci-
dessus, nous avons ajouté la possibilité pour certaines firmes de progiciels ou de
services spécialisées dans des domaines d’application particuliers de traduire leur
compétence spécifique en un « objet informatisé », pénétrant ainsi dans le secteur du
matériel.
Mouvements sectoriels
cible
Composants Matériels Progiciels Services
origine
concentration absorption
Composants marginal improbable
normale de fonctions
mouvements support
Matériels improbable improbable
aléatoires client
objets mouvements
Services improbable improbable
informatisés aléatoires
Conclusions
cccxxxiii
n’est la poursuite de la concentration dans les secteurs les plus concentrés que sont les
composants et les progiciels de base. Mais cette concentration pourra s’accompagner
d’un éclatement de ces deux secteurs eux-mêmes et d’un rapprochement entre certaines
de leurs composantes, comme la conception de microprocesseurs et le développement
de progiciels. Cette perspective, qui reste une question ouverte, peut affecter l’évolution
de Microsoft et d’Intel d’une part, de la galaxie IBM/Motorola/Apple d’autre part, et par
contrecoup d’une bonne partie de l’industrie.
Dans tous les secteurs, et en particulier dans les plus dispersés et les plus
dynamiques comme le matériel et les services, il faut s’attendre à voir se développer,
parmi les multiples stratégies possibles, des tentatives de ré-intégration partielle dont la
plupart resteront isolées et sans effet majeur sur les structures sectorielles. Le
dynamisme de ces secteurs continuera à donner naissance à une multitude d’alliances
répondant à une grande variété de motivations et revêtant des formes très diverses. La
plupart n’ont d’autre importance que médiatique et leur durée sera souvent éphémère. Il
conviendra donc de les considérer avec un œil froid et critique.
cccxxxiv
Chapitre 16
Les frontières de l'informatique
Dans ce dernier chapitre, nous allons revenir sur la question des limites de
l’industrie informatique, que nous avons laissée délibérément en suspens à plusieurs
reprises. Dans le chapitre 6, nous avons vu que la théorie économique ne fournit pas de
critères rigoureux permettant d'isoler une partie quelconque du système économique
pour l'étudier indépendamment du reste. Reprenons ici la phrase de Chamberlin : « Le
monde économique peut être considéré comme un réseau de marchés et de secteurs
interdépendants, dont les frontières sont choisies de façon à rendre la représentation
commode, mais qui sont essentiellement arbitraires ». Le concept d’« industrie » qui
nous a servi tout au long de cet ouvrage, et que nous avons défini comme un ensemble
de secteurs interdépendants, est tout aussi arbitraire sinon plus.
Nous avons buté à plusieurs reprises sur cette imprécision. Dans le chapitre 1,
nous avons vu l’informatique se séparer de l’industrie électronique et de la
mécanographie, dont elle était issue, pour devenir une industrie autonome. Dans
l’analyse des statistiques industrielles que nous avons effectuée au chapitre 4, nous
avons vu que ni Datamation ni McKinsey n’incluent la production de composants
électroniques dans l’industrie informatique, alors que ce secteur y joue un rôle central. A
l’inverse, il existe de nombreuses firmes pour lesquelles l’informatique, au sens strict où
nous l’avons définie, n’est qu’une activité parmi d’autres. Faut-il accepter le fait que ces
firmes opèrent dans plusieurs industries ou au contraire considérer que toutes les
activités de ATT, Hewlett-Packard, Canon, NEC, Hitachi, Siemens, Olivetti, Toshiba ou
Xerox sont par définition de l’informatique ?
cccxxxv
informatique : il y a maintenant de l’informatique partout, y compris dans des « objets
informatisés » produits par des industries incontestablement différentes comme
l’industrie automobile, l’aéronautique, les appareils ménagers ou les instruments de
musique. A l’inverse, les systèmes informatiques utilisent des produits et services
provenant d’autres industries : communication, financement, etc.
cccxxxvi
télécommunications, dont le rapprochement avec l’informatique est un thème à la mode,
mais qui donne lieu à des variations souvent fantaisistes.
L’analyse des relations des différents secteurs de l’informatique avec les autres
industries nous aidera à aborder quelques questions relatives à place de l’informatique
dans l’ensemble de l’économie. Nous pourrons enfin tenir compte de ces interactions et
des phénomènes aux limites pour esquisser une évolution générale à plus long terme de
l’industrie.
cccxxxvii
L’informatique à usage interne
En utilisant l’informatique pour leurs besoins propres, les firmes visent une plus
grande efficacité dans un certain nombre de domaines qui peuvent être la gestion, la
production, la commercialisation, la recherche et le développement, etc. Les bénéfices
qu’elles en retirent réellement sont l’occasion de nombreuses controverses qui n’entrent
pas dans le sujet de cet ouvrage. On peut admettre a priori que l’utilisation plus ou
moins judicieuse et plus ou moins efficace de l’outil informatique est une nouvelle
dimension de différenciation des entreprises, qui peut conférer de nouveaux avantages
ou désavantages concurrentiels selon son impact sur l'ensemble de la chaîne de la
valeur . 66
Tant que ces avantages ne concernent que des activités indirectes comme la
gestion, leur seul effet potentiel est d’aider les firmes les plus performantes dans
l’utilisation de l’informatique à se développer au détriment des autres, les règles du jeu
de la concurrence restant inchangées. L’incidence réelle de ces avantages potentiels doit
d’ailleurs être pondérée par l’importance relative des activités auxquelles ils
s’appliquent dans l’ensemble des activités de la firme. Une amélioration même
importante d’une activité marginale ne peut apporter qu’un avantage marginal. Si par
contre l’introduction de l’informatique permet de modifier profondément les procédés
de fabrication, les méthodes de production ou les cycles de développement, l’économie
de la production peut en être assez bouleversée pour changer les échelles économiques
de production et donc influencer le degré de concentration de certains secteurs.
Aujourd’hui l’informatique est devenue bon marché et offre des points d’entrée
très bas. Une informatisation adaptée est maintenant possible quelle que soit la taille de
l’entreprise. De plus, l’informatique met à la portée des petites entreprises des
techniques avancées de gestion, de production, d’étude et de développement qui étaient
jusqu’alors réservées aux grandes entreprises. Bien utilisée, elle peut également
raccourcir les cycles de fonctionnement, ce qui tend à réduire l’échelle économique de
production et à favoriser les entreprises dont la personnalité est adaptée aux cycles
66 voir Porter, « L’Avantage Concurrentiel »
cccxxxviii
courts. Au total, l’informatisation tend donc à favoriser la dispersion, surtout dans les
secteurs où les facteurs de concentration sont liés à l’information et aux modalités de
gestion.
Bien entendu, le poids relatif de cette pression vers la dispersion se limite aux
éléments de la chaîne de la valeur où l’informatique peut apporter des gains
substantiels. Il existe des secteurs où la concentration reste la règle pour des raisons plus
fondamentales auxquelles l’informatique est étrangère. L’industrie des composants
électroniques en est un exemple extrême : bien que la production y soit fortement
informatisée, la nature des coûts fixes et des coûts variables les rend largement
insensibles à l’informatique, et l’échelle économique de production reste gigantesque en
tout état de cause.
cccxxxix
Par ailleurs, l’industrie est truffée de mécanismes qui assurent que ces possibilités
seront exploitées : du côté informatique, la recherche de volume par les acteurs des
secteurs concentrés (composants, progiciels) et la recherche de niches nouvelles par les
acteurs des secteurs dispersés (matériels, logiciels, services). Dans les autres industries,
la recherche d’avantages concurrentiels et de nouvelles niches par tous les acteurs. Au
total, on peut être assuré que presque toutes les autres industries incorporeront
progressivement de l’informatique dans leurs productions, au fur et à mesure que la
miniaturisation et la baisse des coûts le permettront.
Si donc les objets informatisés appartiennent au secteur défini par leur fonction, la
caractéristique d’un ordinateur, qui le distingue de tous les autres objets contenant de
l’informatique, est précisément son caractère universel. Nous définirons donc un
ordinateur comme « une machine à exécuter des programmes ». Cette définition
implique la capacité d’exécuter des programmes qui n’existaient pas quand l’ordinateur
a été construit. Elle suppose donc l’existence de moyens d’entrée et de stockage de
nouveaux programmes destinés à être exécutés. Elle implique aussi que le domaine
d’application de l’ordinateur ne soit pas limité a priori par la nature même des
dispositifs d’entrée et de sortie, et donc que ceux-ci soient suffisamment généraux pour
accepter et restituer de façon raisonnablement commode des informations de nature
générale. Ainsi un ordinateur est-il par définition capable de rendre des services qui
n’avaient pas été explicitement prévus lors de sa construction. Notons au passage que
cccxl
cette définition ne limite pas l’ordinateur aux technologies électroniques. Sous réserve
de conserver son caractère général, il peut être mécanique, hydraulique, pneumatique,
optique, etc.
Un appareil qui ne satisfait pas à ces conditions d’universalité, quelles que soient
les capacités de traitement de l’information dont il est doté, remplit des fonctions
limitées et spécifiques qui visent à satisfaire un besoin particulier. Son prix et la part de
marché de chacune des firmes qui l’offrent résultent du jeu de la concurrence entre
objets satisfaisant ce besoin particulier et non de la concurrence avec les ordinateurs
universels, même s’il en utilise les technologies ou certains composants. Du point de
vue économique, cet objet vise un segment de marché extérieur au marché informatique
et ses producteurs forment un secteur particulier extérieur à l’industrie informatique.
Sont ainsi exclus les appareils dont le programme est fixe ou à choisir dans un ensemble
fini donné a priori, ou ceux dont la nature des entrées et sorties limite les applications
possibles à une classe bien définie.
Offres et secteurs
cccxli
Dans un secteur existant, l’introduction de l’informatique peut entraîner l’entrée
de nouveaux acteurs et l’apparition de nouveaux avantages concurrentiels, conduisant à
une nouvelle distribution des parts de marché, voire à la sortie possible d'acteurs
anciens. Elle peut aussi entraîner une modification des forces concurrentielles, donc
conduire à une nouvelle structure du secteur.
Si par contre les avantages concurrentiels dominants des nouveaux produits sont
principalement dus à la proximité des technologies informatiques ou à une compétence
générale en traitement de l’information, alors les firmes informatiques ont des chances
d’être les plus compétitives. Le secteur restera alors dans l’industrie informatique,
même si le produit ne satisfait pas nécessairement à la définition de l’ordinateur
proposée plus haut. Ce sera peut-être le cas des « assistants personnels ».
cccxlii
favorise tous ces processus, et donc même si un grand nombre de ces tentatives
échouent, le nombre et la variété des objets et des services informatisés sont destinés à
croître inéluctablement.
Il est probable que cette invasion de toutes les industries par les technologies
informatiques aura pour effet de limiter la demande de matériels et de services
informatiques proprement dits, c’est à dire universels. Plus les objets et services
incorporeront leurs propres fonctions de traitement de l’information, moins il y aura
besoin de machines universelles de traitement. Autrement dit, plus il y aura d’objets
informatisés, moins il faudra relativement d’ordinateurs.
Cette évolution est comparable à ce qui s’est produit dans le domaine de l’énergie.
Les premières machines à vapeur étaient des objets volumineux, complexes et coûteux.
Chacune d’entre elles devait donc alimenter un nombre maximum de machines
utilisatrices d’énergie, que l’on rassemblait pour cela dans de grands ateliers desservis
par une seule source d’énergie. Les moteurs étaient universels et partagés, et leur
utilisation exigeait des mécanismes de transmission complexes.
cccxliii
Le développement des produits informatisés entraînera une évolution divergente
des quatre principaux secteurs de l’informatique, en même temps que leurs frontières
avec les autres industries s’estomperont. Des secteurs bien définis de matériels et
services spécifiquement informatiques coexisteront avec des matériels et services
informatisés dans les autres industries, mais la transition entre produits informatiques et
produits informatisés sera probablement continue, et de nombreuses entreprises offriront
une gamme située à cheval sur la frontière. Quant aux secteurs des composants et des
progiciels, ils resteront bien individualisés à cause de leur caractère concentré, mais ils
serviront de plus en plus les autres industries. La part relative des matériels et services
informatiques dans leurs débouchés diminuera, et donc le poids relatif de l’informatique
dans le jeu concurrentiel qui les modèle.
Les télécommunications
Monopole et concurrence
Dans les années 50, au moment où naît l’industrie informatique, l’industrie des
communications était caractérisée presque partout par une situation de monopole d’état
protégé fonctionnant selon une logique de « service public ». Elle produisait un service
simple assorti de très peu d’options (par exemple un choix de vitesses de transmission).
Les modalités de fourniture du service, en particulier tarifaires, n’étaient pas régies par
une logique concurrentielle mais par décision administrative reposant plus ou moins sur
cccxliv
un raisonnement économique visant le « bien public ». L’industrie était en général
totalement intégrée, la même organisation fournissant le service et construisant tous les
appareils nécessaires aussi bien aux usagers (les appareils terminaux) qu’à
l’infrastructure du service.
C’est ainsi que s’est créée une forte demande d’ouverture à la concurrence, où
toute la profession informatique et en particulier les constructeurs a joué un rôle moteur
au côté des utilisateurs. Au passage, certains acteurs informatiques ont essayé de
pénétrer le secteur, plus pour suppléer aux carences des opérateurs ou pour les
aiguillonner que pour vraiment les concurrencer, et ont assez rapidement renoncé. Les
acteurs des télécommunications ont néanmoins interprété l’attitude des grands
constructeurs comme une agression à grande échelle, illustrant la règle qui veut qu’un
secteur ait du mal à comprendre les motivations et les mécanismes de secteurs
industriels différents. Malgré l’attitude défensive un tantinet paranoïaque des
opérateurs, cette pression a fini par entraîner l’ouverture des télécommunications à la
cccxlv
concurrence, très improprement appelée « dérégulation » ou « déréglementation ». Ces
deux termes évoquent en effet la suppression des règles du jeu existantes, alors que
l’ouverture à la concurrence nécessite au contraire la définition de règles nouvelles, qui
étaient inutiles en situation de monopole d’état puisque les pouvoirs publics décidaient
unilatéralement et souverainement.
cccxlvi
monopoles nationaux dénués de tout sens économique, alors que l’informatique partait
d’un oligopole asymétrique naturel déjà formé sur le marché mondial. Les marchés
géographiques des télécommunications ne se constitueraient certainement pas selon les
frontières des états, mais couvriraient des zones beaucoup plus vastes. Dans chacun de
ces marchés nouveaux, quelles entreprises prendraient le leadership ? Il est certain que,
parmi les opérateurs actuels, la plupart disparaîtraient. Quant à ceux qui sortiraient
vainqueurs, au prix de quels efforts et de quelles mutations internes y parviendraient-
ils ? Pour conserver leur position relative, les offreurs traditionnels rencontreraient des
difficultés analogues à ce qu’ont connu les anciens leaders de l’informatique et
devraient consentir des sacrifices comparables sinon pires. Ces perspectives expliquent
(mais n’excusent pas) que certains s’accrochent au statu quo tant qu’ils le peuvent.
Quelle convergence ?
Il est clairement impossible de formuler une réponse générale pour l’ensemble des
deux industries sans raisonner secteur par secteur. Il faudrait d’abord appliquer aux
télécommunications la démarche d’analyse sectorielle que nous avons utilisée dans cet
ouvrage, afin d’identifier les différents secteurs, la dynamique concurrentielle qui y
règne et les personnalités d’entreprise qui leur sont adaptées. Il faudrait ensuite prendre
en considération, pour chaque combinaison possible d’un secteur d’une industrie avec
un secteur de l’autre, la compatibilité des personnalités d’entreprise et les avantages
concurrentiels dont les firmes peuvent jouir dans un secteur grâce à leur appartenance à
l’autre.
Nous n’entrerons pas dans le détail de ce raisonnement, qui ferait apparaître des
zones où une convergence locale est possible entre secteurs, selon des modalités
d’ailleurs différentes. Le secteur des composants, à cause de son extrême concentration,
sert et continuera à servir les deux industries, et les mêmes microprocesseurs seront de
plus en plus utilisés dans les ordinateurs et dans les objets informatisés que sont les
téléphones, les télécopieurs, les centraux téléphoniques, les concentrateurs, les routeurs,
etc. En ce qui concerne précisément ces objets, qui définissent un grand nombre de
secteurs au sens de Porter (« groupe de firmes qui fabriquent des produits étroitement
substituables »), il existe et il continuera d’exister des firmes offrant à la fois des
matériels proprement informatiques et des matériels relevant plutôt des
télécommunications. Au niveau du macro-secteur du matériel, il y a donc continuité
entre l’industrie informatique et l’industrie des communications, et il sera d’autant plus
difficile de situer une frontière que les deux feront appel aux mêmes composants. Les
services d’intégration seront naturellement amenés, comme c’est déjà le cas, à combiner
des produits et services de communications avec des produits et services informatiques.
cccxlvii
Enfin, de la même façon qu’il est difficile de tracer une frontière entre matériels
informatiques et produits informatisés, on verra se rejoindre les services « à valeur
ajoutée » issus des communications et les services informatisés issus des autres
industries.
Dans tous les domaines précédents, il est vain de chercher à définir une frontière
précise entre informatique et télécommunications, bien que certains secteurs puissent
être rangés sans équivoque dans l’une ou l’autre industrie. On retrouve cette idée
fondamentale émise par Chamberlin : « Le monde économique peut être considéré
comme un réseau de marchés et de secteurs interdépendants, dont les frontières sont
choisies de façon à rendre la représentation commode, mais qui sont essentiellement
arbitraires ». A l’inverse, puisque la question des frontières d’une industrie n’admet pas
de réponse exacte, celle de savoir si deux industries convergent est également vide de
sens à ce niveau de généralité. Ce n’est que pour chacun des secteurs élémentaires qu’il
est possible de déterminer un rattachement préférentiel à l’une ou à l’autre industrie, ou
pour certains d’entre eux une position mixte ou intermédiaire.
Parmi les secteurs selon lesquels l’industrie des télécommunications est en train
de s’organiser, celui des « services de base » reste typique des télécommunications et
n’a pas de correspondant en informatique. Ces services sont en partie substituables à
certains services « à valeur ajoutée » appartenant eux-mêmes à l’industrie des
télécommunications, mais rien de ce qui compose l’informatique ne leur est
substituable : ni bien sûr les produits, ni les services qui se résument à des services
d’assistance, de développement et d’intégration depuis la disparition des services de
traitement. De plus, ce secteur est fortement capitaliste, les cycles de fonctionnement y
sont longs et l’échelle économique de production très élevée, toutes caractéristiques qui
sont à l’opposé de celles du secteur des services en informatique.
cccxlviii
entreprises en logiciel sont nécessaires à la satisfaction des besoins propres des
opérateurs.
Du côté positif, on trouve le désir de rester près des utilisateurs au moment où les
services « à valeur ajoutée » menacent de s’interposer entre les opérateurs de base et le
marché. Mais quelque justifié que soit cet objectif, le satisfaire de cette façon est
illusoire. Il ne suffit pas en effet qu’une société d’un groupe soit en contact avec le
marché pour que tout le groupe en bénéficie. Quels sont les mécanismes formels qui
font remonter l’information de la ligne de front où opère la société de services
informatiques jusqu’aux décideurs et aux personnels concernés de l’opérateur de
télécommunications ? Et si ces mécanismes existent, quels coûts et quelles contraintes
imposent-ils à la firme de services ? Ces coûts et ces contraintes ne se traduisent-ils pas
par un handicap concurrentiel qui au mieux déforme sa vision du marché, et au pire la
condamne ?
cccxlix
industrielle quand elle s’applique aux structures des deux industries. Fécond par sa mise
en œuvre dans les autres industries, le « mariage de l’informatique et des
télécommunications » n’a d’autre réalité que médiatique pour ces industries elles-
mêmes.
cccl
jeux actuelles, ou des objets nouveaux analogues aux assistants personnels, prendront
une place de plus en plus grande.
Une des voies les moins hasardeuses pour prévoir l’avenir est de rechercher des
régularités dans le passé, d’en identifier les mécanismes, de déterminer si ces
mécanismes sont en action dans le présent et, si c’est le cas, d’extrapoler leurs effets
passés. Dans le domaine de l’économie, c’est la théorie du développement et plus
précisément des cycles économiques qui peut nous fournir la base de ce raisonnement.
A priori, cette piste est encourageante. Plusieurs économistes ont cru constater que
l’économie occidentale se développe selon des cycles d’environ 50 ans, formés d’une
période d’expansion de 25 ans suivie d’une période de ralentissement de 25 ans, qui ont
cccli
reçu le nom de « cycles de Kondratiev ». L’économiste autrichien Joseph Schumpeter a
proposé une explication de ce phénomène , reposant elle-même sur la théorie du
67
ccclii
sous forme de capital, qui n’a pas de contrepartie sous forme de biens réels et a donc un
effet inflationniste. A l’inverse, la mise sur le marché ultérieure des biens, sans création
de nouveau pouvoir d’achat, aura un effet déflationniste. Ces phénomènes monétaires
qui accompagnent l’innovation contribuent à expliquer sa chronologie : en début de
cycle, la capacité d’investissement est saturée, la tendance inflationniste pousse à limiter
le crédit et les turbulences engendrent l’incertitude, toutes circonstances défavorables à
toute nouvelle innovation. En fin de cycle, les capacités d’investissement se
reconstituent, le crédit se desserre pour contrer la déflation et la stagnation des
technologies invite à l’innovation. Ces facteurs expliquent le caractère cyclique des
phénomènes liés au processus d’innovation.
Tout en nous limitant à des innovations isolées sans nous intéresser à l’économie
dans son ensemble, introduisons dans la théorie les considérations de structure
industrielle que nous avons développées tout au long de cet ouvrage. Nous pouvons
alors dire qu’une innovation déclenche trois processus parallèles :
–d’abord la diffusion du nouveau produit, aboutissant tôt ou tard à la saturation de
son marché. Ce processus se déroule probablement selon une courbe en S, avec un
démarrage modéré, une phase de croissance rapide puis un ralentissement progressif.
–deuxièmement, un processus d’imitation par d’autres offreurs et de développement
de la concurrence, qui tend à ramener l’économie vers l’équilibre stationnaire, en
particulier en réduisant les profits dans le secteur innovant.
–en troisième lieu, un processus d’adaptation structurelle de l’industrie par
éclatement, regroupement et disparition de secteurs, et par une nouvelle répartition
des parts de marché et un changement des positions relatives, qui prend toute son
importance dans les secteurs concentrés.
L’innovation initiale peut rayonner à partir du secteur où elle est née, et modifier
un plus ou moins grand nombre de secteurs, que ce soit en étant concurrente des
produits de secteurs connexes, ou parce que les nouveaux produits créent des
opportunités d’innovation dans d’autres secteurs, ou encore à travers la modification du
prix des facteurs de production, qui peuvent être utilisés dans d’autres secteurs et les
contraindre à s’adapter. Ces effets peuvent à leur tour déclencher des effets indirects
cccliii
analogues dans d’autres secteurs. Les impacts de l’innovation se diffusent ainsi de
proche en proche, plus ou moins rapidement et en touchant des secteurs plus ou moins
lointains avec des intensités diverses.
D’une façon générale, plus un secteur est affecté à un moment donné, moins il est
probable que de nouvelles innovations se produiront dans ce secteur. De plus, la
dynamique concurrentielle des secteurs dispersés érode rapidement leur capacité
d’innovation endogène, tandis que les secteurs concentrés conservent une certaine
capacité d’innovation. Les foyers d’innovation les plus probables sont donc ceux qui
n’ont pas été récemment touchés par une innovation antérieure, directement ou
indirectement, les secteurs concentrés ou des acteurs complètement nouveaux.
cccliv
ajoute une restructuration des secteurs traditionnels, par modification des niveaux de
prix d’éléments critiques comme les composants et les progiciels. Par ailleurs, à travers
l’évolution des composants et partiellement des matériels et des logiciels, la micro-
informatique sème des germes d’innovations dans toute l’économie, et crée dans les
autres industries de nombreuses occasions d’innovations, actuellement à divers stades
de concrétisation.
ccclv
développera avec de nouveaux acteurs et de nouvelles règles du jeu, à côté de
l’informatique qui sera devenue un secteur relativement mineur dont on ne pourra plus
attendre d’innovations spectaculaires.
L’histoire de l’informatique serait alors terminée en tant que telle. Elle aura
fertilisé toute l’économie, mais en sera au passage devenue un élément secondaire, sous
réserve d’une innovation radicalement nouvelle, et par définition imprévisible, qui en
relancerait la dynamique. Mais de même que l’avenir des objets informatisés, ceci,
comme disait Kipling, est une autre histoire...
ccclvi
Annexe A
Tableaux des chapitres 4 et 5
Les tableaux A–I à A–XII donnent pour chaque firme le pourcentage de son
chiffre d’affaires 1992 qu’elle a réalisé dans chacun des segments de marché figurant en
colonne.
ccclvii
Tableau A-V - Spécialistes Moyens Systèmes
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Stratus 0.0 100 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
Sequent 0.0 73.5 0.0 0.0 2.3 6.5 0.0 0.0 17.6 0.0
Tandem 0.0 40.9 0.0 5.7 0.0 27.0 9.9 15.0 1.5 0.0
ccclviii
Tableau A-IX - Spécialistes Périphériques de Communication
Nom Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Northern Telecom 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
Racal 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
Synoptics 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
3COM 0.0 0.0 0.0 0.0 0.0 0.0 100 0.0 0.0 0.0
Cabletron 0.0 0.0 0.0 0.0 0.0 0.0 92.8 7.2 0.0 0.0
Digital Comms 0.0 0.0 0.0 0.0 19.8 0.0 80.1 0.0 0.0 0.0
Motorola 0.0 20.3 0.0 0.0 0.0 0.0 79.7 0.0 0.0 0.0
ccclix
Fiserv 0.0 0.0 0.0 0.0 6.6 0.0 0.0 0.0 93.4 0.0
Grumman 0.0 0.0 0.0 0.0 0.0 0.0 0.0 7.5 92.5 0.0
Andersen Consult 0.0 0.0 0.0 0.0 10.1 0.0 0.0 0.0 89.9 0.0
Systematics 0.0 0.0 0.0 0.0 11.0 0.0 0.0 0.0 89.0 0.0
American Managt 0.0 0.0 0.0 0.0 11.7 0.0 0.0 0.0 88.3 0.0
EDS 0.0 0.0 0.0 0.0 12.3 0.0 0.0 0.0 87.7 0.0
Policy Managt 0.0 0.0 0.0 0.0 14.8 0.0 0.0 0.0 85.2 0.0
GE 0.0 0.0 0.0 0.0 15.0 0.0 0.0 0.0 85.0 0.0
Science Apps 0.0 0.0 0.0 0.0 0.0 0.0 0.0 15.0 85.0 0.0
CAP 0.0 0.0 0.0 0.0 20.0 0.0 0.0 0.0 80.0 0.0
ccclx
Parts de marché
Categorie Total Lge Mid PC Stat Soft Peri Com Maint Serv Oth
Comm 2.0 0.0 1.1 0.0 0.0 0.1 0.0 34.1 0.1 0.0 0.0
General 59.2 90.7 88.3 51.7 62.9 57.0 52.2 49.4 84.1 31.8 85.4
Large 1.3 9.1 0.0 0.0 0.0 0.1 0.7 0.0 1.2 1.0 2.4
Maint 0.3 0.0 0.0 0.0 0.0 0.5 0.0 0.0 2.8 0.0 0.0
Midrange 1.1 0.0 8.8 0.0 1.0 0.0 1.1 1.3 1.4 0.2 0.0
Mixed 3.7 0.0 0.6 0.1 2.5 4.7 1.2 15.2 4.6 8.4 0.0
Other 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.2 0.0 11.1
PC 6.8 0.0 0.0 45.7 0.0 1.2 3.6 0.0 0.0 0.0 0.0
Periph 8.4 0.2 0.0 2.6 1.0 0.1 40.2 0.0 1.1 1.0 1.2
Services 10.1 0.0 0.0 0.0 0.0 4.3 0.0 0.0 0.8 55.0 0.0
Software 4.4 0.0 0.0 0.0 0.8 30.5 0.1 0.0 1.1 1.8 0.0
Stations 2.2 0.0 1.2 0.0 31.8 1.6 1.0 0.0 2.6 0.8 0.0
Pour chaque segment (en colonnes), ce tableau donne les pourcentages du chiffre
d’affaires réalisés respectivement par le groupe des 13 généralistes, les spécialistes du
segment et les autres firmes, ainsi que le nombre des firmes de chacune des 3 catégories
présentes. Les chiffres utilisés sont ceux de 1992.
.
large mid PC stat soft péri comm maint serv
gpe des 13 91% 88% 52% 63% 57% 52% 49% 84% 32%
(10) (10) (12) (10) (11) (11) (7) (10) (11)
spécialistes 9% (3) 9% (3) 47% 32% 30% 40% 35% 3% (1) 42%
(9) (3) (15) (14) (7) (26)
autres <1% 3% (4) 1% (4) 5% (6) 13% 8% 16% 13% 26%
(1) (32) (17) (4) (17) (26)
ccclxi
Analyse par segment de marché
Les tableaux A-XV à A-XXIII contiennent, pour chacun des segments, la liste des
firmes de l’échantillon qui y sont présentes. Pour chaque firme sont rappelées sa part de
ce marché en colonne 2, sa catégorie ou spécialisation en colonne 3, la part de ce
segment dans le chiffre d’affaires informatique de la firme (son degré de spécialisation
relativement à ce segment) en colonne 4. Les firmes sont classées dans l’ordre
décroissant de leur part de ce segment de marché.
ccclxii
Apple 15.3% PC 75.4%
Compaq 11.6% PC 100.0%
NEC 11.3% General 25.9%
Fujitsu 7.4% General 13.0%
Dell 5.1% PC 90.0%
AST Research 3.2% PC 100.0%
Gateway 2000 3.1% PC 100.0%
AT&T/NCR 2.8% General 9.6%
Hitachi 2.5% General 7.9%
Packard Bell 2.5% PC 95.0%
Canon 2.1% Periph 16.0%
Commodore 2.1% PC 100.1%
Hewlett-Packard 2.0% General 5.7%
Tandy 1.8% PC 84.4%
Digital Equipment 1.3% General 3.2%
UNISYS 1.2% General 5.5%
CompuAdd 1.0% PC 65.0%
Wang 0.6% General 14.8%
Texas Instruments 0.5% General 20.0%
Xerox 0.4% Periph 4.8%
Wyse 0.3% General 18.8%
Data General 0.2% General 6.4%
Lexmark 0.1% Periph 2.2%
Datapoint 0.1% Mixed 8.1%
ccclxiii
Microsoft 8.4% Software 91.0%
NEC 5.2% General 12.0%
Computer Associates 5.0% Software 100.0%
Novell 2.8% Software 100.0%
Hitachi 2.8% General 8.7%
Lotus 2.3% Software 90.0%
Digital Equipment 2.3% General 5.6%
Oracle 2.2% Software 59.7%
UNISYS 2.0% General 9.1%
Finsiel 1.8% Mixed 52.8%
EDS 1.7% Services 12.3%
Wordperfect 1.6% Software 100.0%
Borland/Ashton-Tate 1.3% Software 100.1%
Legent 1.3% Software 100.0%
Hewlett-Packard 1.2% General 3.3%
Autodesk 1.0% Software 100.1%
SAS 1.0% Software 100.1%
CAP 1.0% Services 16.0%
Cadence 0.9% Software 76.9%
AT&T/NCR 0.8% General 2.7%
Apple 0.8% PC 3.8%
Andersen Consulting 0.8% Services 10.1%
Adobe 0.8% Software 100.0%
Mentor Graphics 0.7% Software 74.4%
Sun 0.7% Stations 6.5%
Informix 0.7% Software 83.6%
NYNEX 0.7% Mixed 40.0%
Prime/Computervision 0.6% Mixed 21.2%
Intergraph 0.6% Stations 18.8%
Ask Computer 0.6% Mixed 48.0%
Sybase 0.5% Software 70.2%
Bell Atlantic 0.5% Maint 20.0%
Sterling Software 0.4% Mixed 51.7%
Dun & Bradstreet 0.4% Mixed 24.9%
Dell 0.3% PC 5.0%
Control Data 0.3% General 19.3%
GE 0.3% Services 15.0%
Silicon Graphics 0.2% Stations 9.0%
Policy Management 0.2% Services 14.9%
Systematics 0.2% Services 11.1%
Wang 0.2% General 4.0%
Digital Comms 0.1% Comm 19.8%
Xerox 0.1% Periph 1.4%
American Management 0.1% Services 11.7%
Texas Instruments 0.1% General 4.4%
National Computer Systems 0.1% Services 10.0%
CompuAdd 0.1% PC 5.0%
Data General 0.1% General 2.3%
FISERV 0.1% Services 6.6%
Reynolds and Reynolds 0.1% Mixed 8.1%
Datapoint 0.1% Mixed 7.0%
ccclxiv
Cray 0.0% Large 2.0%
Tandy 0.0% PC 1.9%
Ceridian 0.0% Services 1.5%
Sequent 0.0% Midrange 2.3%
ccclxv
AT&T/NCR 21.8% General 31.7%
Northern Telecom 15.1% Comm 100.0%
IBM 14.5% General 3.4%
NTT 12.3% Mixed 60.0%
Motorola 4.9% Comm 79.7%
Racal 4.5% Comm 100.0%
Hewlett-Packard 4.1% General 5.0%
Fujitsu 4.0% General 3.0%
3COM 3.3% Comm 100.0%
Hitachi 3.0% General 4.0%
BT 2.7% Mixed 47.5%
Synoptics 2.6% Comm 100.1%
Cabletron 2.4% Comm 92.8%
Digital Equipment 1.6% General 1.8%
Tandem 1.3% Midrange 9.9%
Digital Comms 1.2% Comm 80.1%
Wang 0.3% General 2.7%
Datapoint 0.2% Mixed 12.4%
ccclxvi
Nom Part Categorie Spéc
IBM 13.6% General 9.9%
EDS 9.1% Services 87.7%
Computer Sciences 5.3% Services 100.0%
Andersen Consulting 5.2% Services 89.9%
ADP 4.4% Services 100.0%
Fujitsu 4.1% General 9.5%
CAP 4.0% Services 84.0%
TRW 3.8% Services 97.0%
Digital Equipment 3.3% General 11.1%
NEC 3.2% General 9.7%
UNISYS 2.8% General 17.1%
NTT 2.7% Mixed 40.0%
First Data 2.6% Services 100.0%
AT&T/NCR 2.6% General 11.5%
Nomura 1.8% Services 100.0%
Price Waterhouse 1.6% Services 100.0%
Ceridian 1.4% Services 98.5%
PRC 1.4% Services 100.0%
SHL 1.3% Services 100.0%
Hewlett-Packard 1.3% General 4.7%
Ernst and Young 1.3% Services 100.0%
Coopers and Lybrand 1.3% Services 100.0%
Finsiel 1.2% Mixed 47.3%
Systematics 1.1% Services 88.9%
GE 1.1% Services 85.0%
Martin Marietta 1.1% Services 100.0%
Storage Technology 1.0% Periph 31.0%
Shared Medical Systems 1.0% Services 100.1%
Boeing 1.0% Services 100.0%
Amdahl 1.0% Large 18.0%
Science Applications 1.0% Services 85.0%
BT 1.0% Mixed 52.5%
Policy Management 0.9% Services 85.3%
Litton 0.9% Services 100.0%
Grumman 0.8% Services 92.5%
NYNEX 0.8% Mixed 60.0%
Intergraph 0.7% Stations 29.0%
FISERV 0.7% Services 93.6%
Computer Task Group 0.6% Services 100.1%
American Management 0.6% Services 88.4%
Lockheed 0.6% Mixed 35.9%
Oracle 0.6% Software 21.1%
Microsoft 0.6% Software 8.0%
National Computer Systems 0.4% Services 56.6%
Ask Computer 0.4% Mixed 37.7%
MAI Systems 0.3% Mixed 56.6%
Texas Instruments 0.3% General 20.0%
Dun & Bradstreet 0.3% Mixed 24.9%
Sterling Software 0.3% Mixed 48.4%
Datapoint 0.2% Mixed 44.8%
Reynolds and Reynolds 0.2% Mixed 42.1%
ccclxvii
Structure de dépenses
ccclxviii
Stratus Midrange 23.97% 43.66% 32.37%
Norsk Data Midrange 0.43% 41.10% 58.47%
Mentor Graphics Software 20.83% 39.79% 39.38%
Wang General 8.41% 39.03% 52.56%
Ask Computer Mixed 10.48% 39.02% 50.50%
Microsoft Software 17.52% 36.35% 46.13%
Oracle Software 11.79% 32.59% 55.62%
Adobe Software 25.30% 30.82% 43.88%
Cadence Software 18.36% 28.62% 53.02%
Autodesk Software 15.87% 28.58% 55.55%
Borland/Ashton-Tate Software 13.63% 27.00% 59.37%
Lotus Software 15.90% 26.55% 57.56%
Sybase Software 17.29% 26.28% 56.43%
Legent Software 14.23% 22.72% 63.05%
Informix Software 14.74% 16.53% 68.73%
ccclxix
Croissance du chiffre d’affaires
gen AT&T/NCR -12.0 14.7 6.8 9.8 -5.9 -4.1 -2.9 0.2
gen Control Data -51.5 -20.3 -9.8 -57.0 -12.6
gen Data General 7.4 1.3 2.0 -2.6 -4.6 -2.1 -9.2 -3.8
gen Digital Equipment 22.9 51.8 15.4 -14.5 3.9 5.9 -0.5 -3.7
gen Fujitsu/ICL 64.2 27.8 25.0 -4.7 10.5 8.0 12.4 3.4
gen Groupe Bull 26.7 21.8 9.0 -2.4 -2.2 -6.7 -3.7 -16.1
gen Hewlett-Packard 18.5 17.6 23.8 23.1 14.1 10.6 14.9 31.0
gen Hitachi 63.9 25.1 40.2 12.1 2.7 7.8 10.3 3.1
gen IBM 6.1 6.7 9.0 -0.1 14.7 -7.1 -1.4 -3.1
gen NEC 63.9 36.6 29.2 7.5 -11.6 28.5 1.5 9.2
gen Olivetti 56.4 12.4 20.5 0.6 30.7 -5.7 -4.8 -12.0
gen Siemens Nixdorf 60.2 27.9 6.1 -2.3 3.6 -6.2 14.6 -14.0
gen Texas Instruments -8.4 -2.6 10.8 5.7 21.0 7.1 6.7 -5.0
gen UNISYS 3.4 -9.0 0.9 11.7 0.1 -15.1 -14.2 -8.4
gen Wang 9.9 9.0 0.3 -7.6 -12.2 -18.1 -15.2 -40.5
lge Amdahl 12.1 55.8 19.7 16.6 2.7 -21.1 48.3 -33.4
lge Convex >100 73.1 51.7 50.1 32.1 -5.4 17.0 -16.7
lge Cray 56.9 15.2 10.0 3.8 2.5 7.2 -7.5 12.2
mid Norsk Data 58.5 21.3 6.5 -20.5 5.6 -23.4 -34.9 -39.0
mid Philips 29.1 -89.5 56.2 >100 -6.8 -7.0 -83.1 -87.8
mid Pyramid 13.6 34.8 45.5 28.5 80.0 10.5 -11.1 21.1
mid Sequent >100 92.5 97.7 91.3 70.9 -14.3 44.1 15.1
mid Stratus 55.4 47.8 44.0 28.6 18.3 11.1 8.4 10.7
mid Tandem 34.0 30.3 15.5 17.7 11.7 3.2 6.9 -2.1
mix Ask Computer 30.2 48.5 51.3 20.5 9.1 9.7 12.3 -7.7
mix Comp/Prime 11.1 13.3 6.5 -6.5 4.7 -13.0 -22.9 -22.4
mix Datapoint -10.1 1.1 4.3 -15.7 -5.2 -3.6 -3.1 -28.0
mix Dun & Bradstreet 24.3 27.8 4.4 4.9 -17.8 1.9 0.9 -14.1
mix Finsiel 28.0 15.0 20.6 27.9 32.0 24.5 9.9 -18.4
mix MAI Systems 10.7 16.1 32.6 -13.9 0.2 -14.0 -19.0 -56.7
mix Sterling Software
ccclxx
PC Acer 26.4 >100 29.5 17.4 19.0 8.0 25.0 58.0
PC Amstrad >100 55.1 6.0 2.5 -30.2 -32.4 -29.6 -66.1
PC Apple 15.8 49.8 45.8 21.2 6.9 13.2 11.2 16.9
PC AST Research -1.2 71.6 59.0 4.6 21.7 41.1 37.9 97.8
PC Atari 81.6 41.0 35.9 8.6 1.0 -47.6 -50.7 -77.0
PC Commodore 4.9 -2.7 18.3 -10.2 14.9 4.3 -29.6 -52.2
PC Compaq 24.1 95.8 68.7 39.2 25.1 -9.1 25.3 75.4
PC Dell >100 >100 62.1 50.7 40.6 62.9 >100 42.7
PC Everex >100 97.5 6.4 15.2 -40.1
PC Nihon Unisys 56.3 30.4 66.3 8.4 3.0 27.0 28.5 -19.2
PC Packard Bell >100 >100 31.6 16.8 33.2
PC Seiko Epson 34.3 38.3 18.3 -6.3 5.6 -3.3 32.3 -13.1
PC Tandy 13.3 10.6 19.0 14.8 -26.7 -4.2 -13.7 -62.8
PC Tulip 101.5 -13.9 8.8
serv ADP 17.8 13.0 10.2 4.5 2.8 4.3 14.6 12.7
serv American Mgmnt -41.1 28.6 22.4 >100 -60.3 8.9 16.6 9.5
serv Andersen Cons’g 34.6 31.9 32.4 30.2 18.4 20.3 14.5 9.7
serv BSO/Origin 22.0 18.0 9.3
serv Cap Gemini 71.3 >100 38.3 -33.1 34.8 -4.6 64.9 -29.8
serv Ceridian -14.3
serv Comp Sciences 22.1 16.0 10.5 15.1 16.4 15.8 27.2 1.1
serv Comp Task Gp 23.9 18.6 28.6 6.5 4.7 16.9 6.2 -2.4
serv CSK Group 60.9 23.5 29.7 9.2 6.4 16.5 1.2 -4.9
serv EDS 21.6 26.8 33.7 13.3 40.7 24.4 20.3 7.8
serv First Data 7.9 12.4 21.4 -6.2 25.8
ccclxxi
serv Fiserv 46.2 18.1 57.1
serv GSI 34.3 23.3 13.9 5.5 35.4 12.6 15.1 -6.0
serv Hoskyns 33.6 34.4 20.8 -15.6 0.4
serv Logica 45.7 36.7 27.2 10.7 15.1 3.6 2.8 -9.3
serv National Comp 5.9 15.6 -4.1 -0.8 1.8
serv Policy Mgmt 19.5 20.5 20.0 19.7 -8.9
serv Programmator 169.9 41.2 10.0
serv Science Apps 15.7 24.7 10.5 17.0 11.1
serv Sema Group 64.0 30.3 18.7 1.0 42.2 10.2 6.8 17.6
serv Shared Medical 20.1 4.2 -3.1 3.0 3.4 8.8 7.0 6.8
serv Sligos 54.6 42.9 45.3 14.8 35.3 7.4 18.2 -2.2
serv Systematics 20.7 21.4 24.3
serv TRW 6.7 22.5 0.5 8.0 0.0 4.5 -0.5 1.9
serv VOLMAC 81.6 44.7 33.3 -6.4 52.2
soft Adobe >100 >100 >100 45.4 39.0 36.2 15.8 17.9
soft Autodesk 77.6 51.3 47.9 52.3 33.2 19.8 29.1 13.9
soft Boole+Babbage 6.2
soft Borland/AshtTate >100 37.0 16.0 -32.4 58.8 15.2 -4.5 -0.9
soft Cadence 16.6 61.3 0.6 10.8 -15.2
soft Computer Ass 43.7 42.7 34.4 -3.4 20.6 17.6 -3.9 16.0
soft Corel 56.0
soft Informix 91.5 89.2 51.1 40.1 0.8 23.1 57.7 24.4
soft Legent 77.7 >100 32.4 1.2 4.5 15.1 >100 -1.3
soft Lotus 25.5 39.8 18.4 18.7 23.1 21.1 8.6 9.0
soft Mentor Graphics 26.9 27.8 35.6 26.3 14.5 -8.1 -12.3 -3.1
soft Microsoft 60.0 75.5 57.3 32.6 55.1 54.0 42.9 26.4
soft Novell >100 77.6 47.3 15.2 22.7 35.0 39.2 18.8
soft Oracle >100 >100 >100 94.8 37.6 2.5 20.7 29.2
soft SAP 64.6 25.0 25.1
soft SAS
soft Software AG 84.8 34.4 31.8 15.5 29.0 18.7 16.5 2.0
soft Sybase >100 64.8 61.3
soft Ultimate 27.6 24.1 1.6 1.3 -4.7 -1.3 -38.7 -23.7
stat Intergraph 15.1 5.8 24.8 7.5 21.5 14.4 -1.6 -10.7
stat Silicon Graphics 88.3 >100 79.4 50.4 40.6 32.3 45.0 32.8
stat Sun >100 >100 93.4 41.1 34.0 25.0 10.9 17.3
ccclxxii
Data General 0.2 -2.1 -8.9 -3.3 -9.3 -8.6 6.4 -5.4 -7.8 -3.7
Digital Equip 5.7 10.2 12.0 7.6 6.8 -0.7 -6.1 -17.7 -0.5 -15.9
Fujitsu/ICL 2.4 2.3 2.9 3.4 2.5 2.5 1.9 0.1 -0.4
Groupe Bull 0.7 1.1 0.9 0.8 -0.6 -19.6 -9.9 -15.7 -17.9 2.2
HP 6.9 6.9 7.3 7.5 6.4 5.7 5.7 4.9 6.0 6.4
IBM 13.1 9.2 9.5 9.7 6.0 8.7 -4.4 -7.7 -13.0 4.7
Olivetti 8.2 7.7 5.5 4.2 2.2 0.7 -5.3 -8.1 -5.4
UNISYS 5.6 1.2 5.5 6.6 -6.3 -4.3 -16.0 4.3 7.3 1.4
Wang -2.6 -3.2 3.2 1.3 -18.9 -28.1 -19.6 -24.2 38.2 1.7
ccclxxiii
Tableau A-XXIX - PC
Nom 85 86 87 88 89 90 91 92 93 94
Acer 6.9 12.5 6.3 5.1 -0.3 0.3 -2.3 0.2 2.2 6.4
Apple 4.1 7.7 9.2 9.5 8.2 8.7 5.0 7.3 -0.4 4.8
AST 17.1 10.2 2.9 0.9 2.4 9.0 8.5 5.1 -1.9 -1.5
Atari -10.1 1.0
Commodore -29.7 -1.2 4.5 7.2 1.0 4.0 4.8 -15.6 -60.3
Compaq 5.3 6.9 11.1 12.4 11.6 12.6 4.0 5.2 6.4 8.0
Dell 2.4 3.2 5.9 5.6 1.3 5.0 5.7 5.0 -1.4 4.3
Everex 5.4 5.6 4.9 5.6 -0.2 -6.4 -11.6
Gateway 5.8 3.6
Nihon Unisys 2.0 1.8 1.8 1.7 1.7 1.7 0.6 1.5 0.7
Packard Bell 2.0 1.4 0.0
Tulip 9.2 7.9 4.0 -4.5 1.3
ccclxxiv
Tableau A-XXXIII - Progiciels
Nom 85 86 87 88 89 90 91 92 93 94
Adobe 10.9 22.4 22.9 25.3 27.8 23.8 22.5 16.4 18.2 1.1
Autodesk 22.0 22.1 25.9 27.9 26.0 23.9 20.3 11.9 15.6 1.7
Boole+Babb 6.5 7.4
Borland/Asht 13.7 12.7 12.8 12.6 -10.8 0.4 -15.3 -17.5 -3.2 -4.8
Cadence -8.6 -19.7 9.7 -1.6 -5.5 12.8 -1.8 8.6
Comp Ass 10.3 6.5 6.1 10.7 12.0 9.4 8.4 11.5 16.6 16.6
Corel 12.3 19.8 19.8
Informix 23.3 12.7 13.6 1.4 4.4 -31.8 7.0 16.9 15.9 14.1
Legent 18.2 19.6 16.0 16.9 14.7 19.2 17.4 7.7 13.6 10.8
Lotus 16.9 17.1 18.2 12.6 12.2 3.4 5.2 8.9 5.7 -2.1
Mentor 5.9 6.3 9.2 12.3 11.8 5.4 -15.4 -11.6 -9.4 8.0
Microsoft 19.2 22.2 20.3 21.1 21.9 26.2 25.5 25.7 25.2 24.7
Novell 11.5 11.8 10.8 10.8 12.3 20.8 25.9 27.1 -2.8 10.4
Oracle 8.9 9.4 12.5 14.3 12.7 5.4 0.1 3.5 12.6 14.3
SAP 18.0 18.2 17.4 15.3 13.3 15.4
Software AG 19.8 15.9 7.9 3.7 0.6 1.1
Sybase ns 0.4 6.2 9.0 10.3 10.8
Ultimate 10.3 8.6 8.7 -8.1 1.1 -20.2 -23.7 -20.0 -2.8
ccclxxv
MAI Systems -0.8 3.6 7.4 5.5 -11.3 -22.2 -18.2 ns 24.5
Sterling Soft 13.0 12.3
ccclxxvi
Bibliographie
Cette bibliographie ne contient que les références directement citées dans cet ouvrage. Ces
références contiennent souvent de nombreuses références à d'autres ouvrages, ou reprennent souvent le
contenu d'ouvrages antérieurs du même auteur ou d'auteurs ayant traité des mêmes sujets.
ccclxxvii
RAINELLI M. – Economie Industrielle, Dalloz (1993)
SAMUELSON P.A. – Economics, McGraw Hill (1948 etc...)
SCHERER F.M. – Industrial Market Structure and Economic Performance, Rand McNally (1980)
SCHERER F. M. ET AL – The Economics of Multi-Plant Operation, an international comparison study,
Harvard University Press (1975)
SCHUMPETER J. – Business Cycles, McGraw-Hill (1939)
SCHUMPETER J. – The Theory of economic development, Oxford University Press (1934)
SIMON H. A.— Behavioral Economics and Business Organizations, 1982)
SIMON H.A. – Administrative Behaviour, The Free Press (1945,1976)
STIGLER – The Organization of Industry, Richard Irwin (1968)
WILLIAMSON O.E. – The Economics of Discretionary Behavior, Prentice Hall (1964)
WILLIAMSON O. E. – Markets and Hierarchies, The Free Press (1975)
ccclxxviii