Archive pour avril 2009

Intégration verticale contre intégration horizontale – Cas d’étude

24 avril 2009

Pour illustrer le précédent article sur l’intégration verticale et horizontale, prenons trois compagnies : Apple, Dell et Microsoft. La culture de toute entreprise est fortement influencée par ses débuts. Ces trois entreprises n’échappent pas à la règle.

Apple comparé à Dell

Apple a commencé comme constructeur de micro-ordinateur dans les années 70. Tous les constructeurs de cette décennie (Apple, Commodore, Atari, Sinclair, etc.) ont développé une culture similaire d’intégration verticale pour deux raisons: 1) les faibles performances des micro-ordinateurs de cette époque demandaient une forte intégration des composants et 2) il n’existait pas de composants tout prêts de toute façon. La seule exception de cette intégration verticale à été les microprocesseurs: la micro-informatique de l’époque se résumant à un marché de niche de hobbistes, les investissements nécessaires pour concevoir ou construire leurs propres processeurs ne s’est jamais justifié.

Tous les constructeurs de micro-ordinateurs des années 70 ont pris l’habitude de tout construire: électronique, système d’exploitation, boîtier – à l’exception du microprocesseur. Le seul survivant de cette génération, Apple, a gardé cette culture.

A contrario, les assembleurs de PC des années 80, de part la nature du PC, ont tout de suite suivit le modèle d’intégration horizontal. La vente de PC par correspondance a permit à Michael Dell de commencer avec un petit budget, vendant des ordinateurs depuis sa chambre d’université. Mais Dell étant un businessman et non un technicien, pas question de concevoir ou de construire quoi que ce soit. Il achetait les composants de PC, les assemblait lui-même et revendait le produit fini.

Plus d’un quart de siècle plus tard – une éternité en haute technologie – la différence de décennie entre les compagnies se fait toujours sentir. Apple se distingue toujours par ses produits, Dell par ses prix et sa simplicité d’achat. Apple ne cesse de se targuer d’être la seule compagnie à avoir le contrôle à la fois du logiciel et du matériel alors que Dell se targue de sa rigueur opérationnelle et de dépenser le moins possible en recherche & développement. Dell reste un fidèle client de Microsoft et Intel alors qu’Apple a poussé l’intégration verticale jusqu’à aller développer sa propre chaîne de magasins comme ses propres batteries pour portable. A ce jour cependant, Apple n’a toujours pas créé ses propres processeurs.

Apple comparé à Microsoft

Microsoft a également démarré dans les années 70, mais est un éditeur de logiciel. Sa culture a donc été différente d’Apple. Ne vendant que du logiciel à l’époque embarqué dans l’électronique de certains micro-ordinateurs (Microsoft BASIC), Microsoft s’est donc trouvé tout de suite à la merci des constructeurs d’ordinateurs pour ses ventes. Il a donc été important d’arriver à contrôler le plus possible les dits constructeurs (ce que Redmond a brillamment réussi). La logique d’intégration horizontale du PC a donc été naturelle pour Redmond. A noter cependant que Microsoft a une culture d’intégration verticale logicielle. La firme de Bill Gates pousse en effet à ce que tous les logiciels jugés importants soient estampillés Microsoft: le système d’exploitation, le navigateur Web, la suite bureautique, etc.

Un autre aspect où Apple et Microsoft se différentient est concernant la réinvention perpétuelle de la roue. Pour les constructeurs d’ordinateurs des années 70, les besoins de performance primaient sur la compatibilité ascendante. C’est ainsi qu’ils n’ont pas hésité à repartir à zéro pour concevoir leurs machines 16 bit des années 80 (Apple avec le Macintosh, Atari avec le ST, Commodore avec l’Amiga), brisant la compatibilité avec leurs machines 8 bit. Apple a très clairement gardé cet aspect de cette culture. La firme à la pomme n’a pas hésité à recréer toute l’électronique de certains de ses ordinateurs portables. Elle a brisé plusieurs fois la compatibilité de MacOS et a changé deux fois de famille de processeurs du Mac: du Motorola 68000 vers le PowerPC puis vers Intel.

A contrario, dans un marché à intégration horizontale, la compatibilité est primordiale – des produits tiers en dépendent. C’est ainsi que Microsoft a toujours préféré construire au-dessus de l’existant et ainsi garder la compatibilité, même si cela a un coût. Redmond a par exemple conçu Windows comme une interface au-dessus de MS-DOS plutôt qu’un système d’exploitation à part entière. Ce système, même bancal, a perduré 15 ans – de Windows 1.0 à Windows ME en passant par Windows 95. De la même manière, Intel a toujours gardé la compatibilité ascendante de ses processeurs x86. C’est une des raisons pour lesquels ses processeurs consomment tant d’énergie – chaque nouvelle version est grandement basée sur l’existant.

Cela ne veut pas dire qu’Apple se fiche de la compatibilité et Microsoft ne réinvente jamais. Microsoft est reparti de zéro avec Windows NT, et Apple en général garde la compatibilité d’un Mac et d’un iPod à l’autre. Mais Apple reste bien plus à même que Microsoft de recommencer un design à zéro.

Cas d’exemple

Prenons le marché des baladeurs MP3 comme cas d’exemple, et comment la culture a influencé ses compagnies:

  • Apple a conçu le système d’exploitation ainsi que toute l’électronique de ses iPod – exception faite des processeurs – ce qui lui a permit de développer des baladeurs extrêmement minces. Et la firme à la pomme n’a pas hésité à repartir à zéro pour nombre de ses iPod. La firme de Steve Jobs a également développé l’interface logicielle (iTunes) et le magasin en ligne (iTunes également), permettant d’offrir un mécanisme le plus simple possible pour acheter de la musique pour l’iPod.
  • Microsoft s’est initialement focalisé sur la couche logicielle, que ce soit le système d’exploitation du baladeur et l’intégration avec Windows Media Player. Il a passé des partenariats avec le plus de constructeurs de baladeurs possibles. Après plusieurs années d’échec Redmond s’est cependant rendu compte du bénéfice de l’intégration verticale sur le secteur encore jeune des baladeurs MP3, et a décidé de produire son propre baladeur en sortant le Zune.
  • Dell a lancé une gamme de baladeur MP3 conçue par Creative Technologies. Après de piètres résultats il a depuis abandonné ce marché et s’est depuis retranché à vendre sur son site Web des baladeurs de marques tierces.
Publicités

Microsoft ne peut plus miser sur tous les chevaux

16 avril 2009

Microsoft l’a compris depuis longtemps: contrôler la plate-forme logicielle permet de contrôler l’industrie. Et l’une des tactiques de Redmond a été de miser sur tous les chevaux.

Dans les années 80 la plate-forme logicielle s’appelait le système d’exploitation du PC. Bill Gates a donc décidé d’être sur les fronts. Microsoft était ainsi derrière MS-DOS, co-développait OS/2 avec IBM, développait Windows de son côté et avait racheté les droits d’un Unix sur PC. Bill Gates a même tenté de former un partenariat avec Apple pour licencier MacOS, mais Steve Jobs a décliné l’offre. A une époque où l’avenir du PC était encore incertain, Microsoft a misé sur le plus de chevaux possibles pour être sûr d’avoir le ticket gagnant.

Malheureusement pour Redmond, cette méthode commence à montrer ses limites du fait d’un marché informatique devenu trop complexe.

Beaucoup de marchés à conquérir

On assiste en effet à une multiplication des plates-formes (Internet, mobile, etc.). Miser sur tous les systèmes d’exploitation possibles sur PC demandait beaucoup d’énergie. Miser sur toutes les plates-formes possibles actuelles en demande encore plus.

Si bien qu’à l’heure actuelle il existe plusieurs marchés que Microsoft pourrait qualifier de stratégiques:

  • Le navigateur Web
  • La plate-forme Internet (les standards et formats utilisés sur le Web)
  • La recherche Internet
  • Les services Internet grand public
  • Le cloud computing
  • Les ordinateurs de poche (assistant numérique, smartphone, baladeur MP3)
  • L’électronique de salon (console de jeu, magnétoscope numérique)

Cela fait beaucoup de marchés à conquérir. Steve Balmer a beau être quelqu’un de brillant, il ne peut pas suivre tous ces marchés à la fois avec la même énergie. Par exemple, si Microsoft a bien comme priorité affichée d’être le numéro un de la recherche Internet, il ne s’en est pas donné les moyens. Bill Gates comme Steve Balmer ont tous deux boudés les conférences dédiées à la recherche Internet ainsi que les experts du secteur. On a parfois l’impression que Redmond ne s’intéresse à certains marchés plus par contrainte que par désir réel.

Encore plus de marchés à surveiller

Mais le plus gros problème est que le nombre de marchés qui peuvent potentiellement être stratégiques a explosé.

Dans les années 90, pris de surprise par le succès du Web et de Netscape, Microsoft s’est lancé tête baissée pour écraser ce dernier et imposer son navigateur Web… et a du coup ignoré la monté de Google et l’importance de la recherche sur Internet. Maintenant que Redmond veut « tuer » Google (dixit son PDG), quel autre marché naissant va-t-il manquer?

Il est en effet très difficile – voire impossible – de prédire l’avenir des marchés. Qui aurait pu prévoir qu’un jour Amazon.com se baserait sur sa puissante infrastructure Internet pour devenir un pionnier du cloud computing?

Parfois des marchés annexes apparemment anodins deviennent stratégiques du jour au lendemain. Microsoft s’est très tôt implanté sur le marché de l’assistant numérique, empêchant Palm de contrôler le secteur. Pas question de laisser à quelqu’un d’autre le contrôle de la plate-forme mobile qui pourrait un jour concurrencer l’ordinateur portable. Mais Bill Gates ne s’est pas rendu compte qu’Apple et son iPod – un vulgaire baladeur MP3 à ses yeux – pouvait s’attaquer à la dite plate-forme mobile. Ce que Steve Jobs ne s’est pas privé de faire en lançant l’iPhone puis l’iPod Touch qui sont des ordinateurs de poche bien plus puissants qu’un simple assistant numérique. Après avoir raillé l’iPod pendant des années et prédit un piètre avenir à ce type de produit, Microsoft a finalement décidé de concurrencer l’iPod en sortant le Zune.

De la même manière, quel produit contrôlera l’électronique de salon? Est-ce que ce sera les consoles de jeux comme la Xbox? Une console plus familiale comme la Nintendo Wii? Le magnétoscope numérique? Ou quelque chose d’autre?

Le poids de l’existant

Finalement, le dernier handicap de Redmond est son existant.

Lorsqu’on a un chiffre d’affaire annuel de quelques $60 milliards, quelle doit être la taille d’une division pour exister? $100 millions? $1 milliards? C’est à la fois pour cette raison (et en partie du fait de la culture même de Microsoft) que Redmond a sous-estimé certains marché: l’absence présumée de revenu. Dans son livre « The Road Ahead » (1995) Bill Gates a complètement loupé l’avènement du Web. Il considérait en effet Internet comme un réseau où tout était gratuit. « Il n’y a pas d’argent à se faire. En quoi est-ce un business intéressant? » a-t-il répondu à l’un de ses employés qui essayait de le convaincre de l’importance du Web. Et ce n’est que lorsque Google a commencé à dégager des bénéfices colossaux que Microsoft s’est intéressé à la recherche Internet.

Autre handicap du géant de Remond : une obsession de vouloir tout lier à Windows, même lorsque cela n’apporte pas grande valeur ajoutée. Là où le Kindle d’Amazon.com ou l’iPod Touch d’Apple peuvent se connecter directement à Internet sans passer par un ordinateur, Microsoft a une préférence à lier ses ordinateurs de poche à Windows Media Player. De même, certains modules de Windows Live demandent d’installer Virtual Earth 3D. Le résultat est certes joli, mais loin d’être aussi pratique qu’un site qui fonctionne quel que soit le navigateur et sans avoir à installer un plugin.

Conclusion

Dans les années 80 certains affirmaient que Bill Gates connaissait ses concurrents mieux qu’ils se connaissaient eux-mêmes. Bill a en effet su très bien diriger Microsoft pour positionner ce dernier au bon endroit.

Mais le monde a changé, et ni Bill Gates ni Steve Balmer ne peuvent plus garder les yeux sur tous les concurrents potentiels – personne ne le peut.

Dans un prochain article nous ferons un tour de l’état des lieux des victoires et défaites récentes du géant de Redmond.

Intégration verticale contre intégration horizontale

8 avril 2009

Potentiellement tout marché technologique est tôt ou tard affecté par le passage d’une intégration verticale – où les constructeurs construisent la plupart des composants de leur produit – à intégration horizontale – où ils achètent les composants à des vendeurs spécialisés.

Lorsqu’une technologie est nouvelle, l’intégration verticale prime. Les produits manquent cruellement de performance, leurs constructeurs doivent donc customiser les composants pour augmenter les performances – impossible donc d’utiliser des composants standards du marché. Ce phénomène n’est pas unique à l’informatique. Lorsque les frères Wright ont construit le premier avion, ils ont du également construire leur propre moteur car ceux du marché étaient trop lourds. Plus proche de nous, Google n’a pas construit le moteur de recherche le plus puissant de son époque seulement en utilisant en parallèle des milliers de serveurs. La compagnie a dû également créer la couche logicielle ainsi que customiser une partie de la couche matérielle.

Au fur et à mesure les performances s’améliorent et un autre besoin se fait sentir : le besoin de flexibilité et de rapidité de développement. Lorsqu’IBM a réalisé en 1980 qu’il devait s’implanter sur le marché de la micro-informatique il fallait faire vite. Plutôt que de tout développer en interne comme il en avait l’habitude, IBM a du assembler à l’a va-vite des composants de vendeurs tiers (le disque dur de chez Seagate, le processeur central de chez Intel, le système d’exploitation de chez Microsoft, etc.) Pour faire fonctionner ses composants ensemble IBM a du instaurer des protocoles qui permettent ces derniers de communiquer efficacement. Le résultat n’était pas particulièrement performant mais a été développé en un temps record.

Mais pour faire fonctionner des composants de compagnies différentes, IBM a du standardiser les communications entre chacun des dits composants. Sans le savoir Big Blue a scié la branche sur laquelle il était assit, car il a miné la valeur ajoutée qu’il apportait – n’importe qui pouvait assembler ses propres PC en achetant aux mêmes fournisseurs qu’IBM. C’est ainsi que ceux qui ont tiré le plus de bénéfices du PC ont été ceux qui ont fourni le plus de valeur ajoutée: Microsoft et Intel.

Le modèle horizontal ne génère pas au début des produits très performants. Le PC a mis des années avant de concurrencer en termes de performances les autres types d’ordinateurs (Macintosh, Atari ST, Commodore Amiga). Mais il a amélioré les standards régulant les communications entre ses composants : le bus PCI, puis AGP, puis PCI Express, le port USB, etc. Les économies d’échelles aidant, le PC est devenu le type d’ordinateur délivrant le plus de puissance pour le meilleur prix.

Mais une fois que le modèle d’intégration horizontal est établi, il est très difficile de lutter contre. Compaq a bien essayé de développer ses propres cartes-mère pour lui donner un avantage compétitif sur la concurrence, rien n’y a fait : la concurrence a acheté des cartes-mère Intel sans avoir à débourser un centime en R&D. Compaq n’a pu lutter contre les économies d’échelle d’Intel.

Dans un prochain article nous verrons plus en détails les cas d’Apple, de Microsoft et de Dell, et comment leur culture influence leur approche à ce sujet.

Dans un autre article nous verrons pourquoi et comment Apple a su résister au PC et se porte très bien tout en conservant un modèle d’intégration vertical.

Le pouvoir de l’inertie affecte tout le monde – vous et moi y compris

1 avril 2009

On m’a récemment demandé pourquoi de nombreuses entreprises gardent leurs mainframes, ces gros ordinateurs inventés dans les années 50. Car ces machines coûtent fort cher à la maintenance et son technologiquement désuètes. Le noyau du système d’exploitation des mainframes IBM (le leader sur ce marché) croit toujours manger des cartes perforées! Pour lui, un écran (texte) est composé de 25 cartes perforées correspondant aux 25 lignes texte de l’écran (non, il n’y a pas de mode graphique)

Je connais peu l’univers des mainframes car je ne les ai jamais côtoyées directement. Je peux cependant émettre des hypothèses.

Il est à parier que si les entreprises gardent leurs mainframes c’est parce que le coût d’un changement est plus grand que le coût de rester sur des systèmes antédiluviens.

Tout d’abord, un peu de mise en contexte. Quelles sont les compagnies qui ont des mainframes? Les grosses entreprises – historiquement les banques, assurances, etc. – qui doivent faire tourner des logiciels bien souvent critiques. Or les mainframes ont un gros avantage: elles ne plantent jamais. A ce qu’on m’a dit, lorsqu’une barrette mémoire flanche sur une mainframe IBM, le système d’exploitation s’en rend compte, réorganise la mémoire (le tout sans planter!) et… appelle automatiquement le support IBM pour qu’un technicien soit envoyé sur place remplacer le composant défaillant – et accessoirement facturer le client.

D’un autre côté, considérons une migration vers un système plus moderne. Comme toute migration elle va être longue, coûteuse et douloureuse. Autant les bugs d’un système sur mainframe ont été éradiqués au cours des dernières décennies, autant un nouveau système va avoir des bugs. D’un point de vue strictement financier, une migration ne va être rentabilisée qu’au moyen voire long terme.

Du côté utilisateur, soit le changement n’est qu’interne et l’utilisateur final va garder son interface utilisateur (auquel cas il va se demander pourquoi on change de système) soit l’interface utilisateur est modifiée (auquel cas il va falloir le former au nouveau système) Dans tous les cas de figure, les utilisateurs habitués à un système sur mainframe vont hurler à la mort pour chaque bug rencontré. Voire pire – une banque n’apprécierait pas du tout qu’un bug introduit lors de la migration perde l’enregistrement de plusieurs transactions financières.

Certes, les entreprises aiment un Directeur Informatique (DI) qui est entreprenant et cherche à économiser des sous. Mais la première attente des entreprises envers leur division informatique est un devoir de stabilité: que les systèmes soient opérationnels et qu’il y ait moins de problèmes possibles.

Autrement dit, un DI qui réussi une telle migration pourra recevoir des félicitations (à terme), sans pour autant passer pour un héros. Un DI qui loupe sa migration va en prendre pour son grade – s’il garde son poste! Et un DI qui garde les choses comme elle ait restera apprécié de sa direction, l’entreprise étant habituée à payer la facture.

Par quel choix sont tentés les DI à votre avis?

L’inertie touche tout le monde, y compris vous et moi

La morale de cette histoire est que l’inertie a un pouvoir bien plus important qu’on ne le pense.

« Oui, mais ce sont des banques et autres grosses entreprises » me diront certains. « Les particuliers n’ont pas une telle inertie. » Ah non? Je prendrais un exemple simple: le clavier d’ordinateur.

Conçu à la fin du 19e siècle, le clavier que nous utilisons toujours (AZERTY comme QWERTY) a été conçu pour ralentir la frappe – évitant que les machines à écrire mécaniques ne se bloquent. Le problème de blocage n’étant plus de mise avec les claviers moderne, combien d’entre vous ont opté pour un clavier optimisé du style Dvorak? Aucun. Certes il existe un bénéfice à terme (une frappe plus rapide), mais cela nécessiterait de réapprendre à taper au clavier, pas qu’aucun d’entre nous n’a franchi.

Mais prenons un exemple plus simple: quand on considère le nombre d’heures et d’années que l’on passe devant un clavier de nos jours, il est utile de se protéger du syndrome du canal carpien. Combien d’entre vous utilisent un clavier ergonomique comme le Microsoft Ergonomic Keyboard? Quasiment aucun (je ne m’en suis moi-même acheté un qu’il a quelques mois seulement) Les touches sont toujours au même endroit, le clavier est très confortable pour les poignets et l’avantage potentiel est grand –  mais la séparation des touches au milieu du clavier a rebuté tout le monde.

Exemple encore plus simple: combien d’entre vous avons réellement appris à taper à la machine, c’est-à-dire avec les bons doigts sur les bonnes touches? Là encore quasiment personne. Nous avons appris à taper au clavier de nous-même. Avec le temps nous sommes devenus assez rapides, mais pas aussi rapides qu’on pourrait le devenir. On pourrait se forcer à taper correctement, mais cela demanderait des efforts et notre vitesse de frappe s’en trouverait ralentie dans un premier temps. Donc on garde nos bonnes vieilles habitudes.

Qu’ont tous ces exemples en commun? Un handicap initial important (ré-apprentissage de la frappe, grosse migration) va éclipser un faible gain au jour le jour (une meilleure frappe, un meilleur système) ou un gain potentiel important à long terme (éviter le syndrome du canal carpien)