Archive for the ‘Intégration verticale / horizontale’ category

Apple et les cartes en ligne

24 septembre 2012

Lorsqu’Apple s’excuse publiquement sur un de ses produit, on sait que la firme à la pomme a vraiment commit un impair. D’habitude, elle ignore le problème ou rejette la faute sur les utilisateurs. Tim Cook s’est pourtant publiquement excusé sur Apple Maps qui remplace Google Maps avec iOS 6. Il faut dire que les problèmes de ce service, réels ou exagérés, ont fait le tour de la toile.

Tout avait pourtant commencé d’une manière très « Applesque ». Depuis le début, l’iPhone et l’iPad ont leur propre application de carte en ligne qui se basait sur des données fournies par Google. Seul ombre au tableau, l’application n’offrait pas de direction assistée vocale – option importante sur le marché du mobile. Selon All Things D, Google était réticent à licencier l’accès à ce type de donnée, gardant ainsi un avantage pour Android. Le géant de la recherche en ligne voulait faire plus que de fournir les données à Apple, comme mettre son nom sur ses cartes affichées sur iOS, mais Apple a toujours refusé.

La firme à la pomme ayant toujours favorisé l’intégration verticale, elle a tout logiquement décidé d’acheter quelques compagnies de cartographie en ligne pour créer son propre service. Le but étant d’offrir une fonctionnalité de direction vocale avec en prime des cartes 3D dépassant celles de Google Maps. Après tout, Apple s’est toujours évertué avoir des compétences matérielles et logicielles.

Sauf que remplacer Google Maps demande plus qu’une histoire de logiciel. Un service de carte en ligne ne s’improvise plus. Google a en effet mis beaucoup d’efforts sur les trois points critiques d’un tel service : l’interface graphique, l’infrastructure serveur et les données. Et le géant de Mountain View n’a pas lésiné sur les moyens avec pas moins de 1100 employés et 6000 contractants pour conduire des voitures, voler dans des avions, corriger les erreurs, etc.

Avant Apple, le gouvernement français a tenté de concurrencer Google Maps en lançant Géoportail en 2006. Etant donné que le service était mis en œuvre par l’IGN et le BRGM, deux établissements publics spécialisés dans le domaine, il a bénéficié de données solides. Etant en plus focalisé sur le territoire français, il avait un avantage sur Google qui essaie de couvrir le monde entier. Mais le service a initialement négligé l’infrastructure serveur, et s’est écroulé sous le trafic lors de son lancement (cela a été depuis corrigé). Qui plus est, son interface utilisateur reste inférieure à celle de Google, que ce soit en terme de facilité d’utilisation, de beauté des cartes ou de fonctionnalités telles que la vue de la rue.

Apple, de son côté, a su créer des cartes de toute beauté. On peut également penser qu’ils ont mis en place l’infrastructure serveur appropriée. Son point faible a par contre été les données. Car autant Google est connu pour automatiser le plus possible, autant la compagnie vérifie manuellement TOUTES ses cartes, s’assurant qu’il n’y ait pas de défaut, que les routes sur les cartes coïncident bien avec les routes des photos aériennes, etc.

En d’autres termes, la cartographie en ligne s’est horizontalisée, c’est-à-dire qu’elle est devenue une affaire de spécialiste. Et Google en a fait une de ses spécialités. Pour concurrencer sérieusement Google Maps, il faut soit mettre énormément de moyens en place pour le concurrencer sur tous les points (données, interfaces graphique et infrastructure), soit faire appel à une autre compagnie spécialisée dans la cartographie en ligne – et encore.

Apple devrait connaître le principe, la compagnie ayant à maintes reprises investi beaucoup d’efforts dans certains domaines pourtant réservés aux spécialistes. Par exemple, la firme de Tim Cook ne se contente pas d’avoir Jony Ive créer de nouveaux designs pour les futurs produits de la compagnie, elle travaille avec les usines de fabrication pour voir comment manufacturer les dits produits. Parfois, l’intégration verticale fonctionne. Apple a racheté une compagnie de semiconducteurs pour concevoir ses propres processeurs autour de l’architecture ARM pour son iPhone et son iPad. Parfois, cela fonctionne moins. Après des années à avoir mis en avant le processeur PowerPC (né d’une alliance entre Apple, IBM et Motorola), Apple s’est finalement décidé à basculer sur Intel. De la même manière, Apple a abandonné son interface Firewire au profit du standard USB.

Maintenant, de nombreuses personnes ont affirmé que la « Mapocalypse » ne serait jamais arrivée sous Steve Jobs. Pas si sûr. Steve était certes un micro-manager, mais il n’est pas dit qu’il aurait eu le temps d’examiner suffisamment de cartes pour trouver des défauts (qui restent statistiquement rares). Doit-on rappeler que le fiasco MobileMe est arrivé sous Steve ? Par contre, il est certain que Scott Forstall, le vice président en charge d’iOS, se serait fait sérieusement remonter les bretelles par Jobs si ce dernier était encore vivant. Après une tentative ratée d’ « effet spécial » impliquant un ballon lors d’une présentation de l’iPhone, Steve s’est régulièrement moqué de Scott à propos de cet incident. Mais Tim Cook n’est pas Steve Jobs. S’il n’est pas un tendre, il n’est pas non plus le style à hurler après / dénigrer / rabaisser les fautifs comme Jobs l’a fait avec l’équipe de MobileMe.

Apple peut-il corriger le problème de Maps ? Sans aucun doute. La compagnie a les moyens nécessaires. Cela prendra cependant peut-être du temps.

Publicités

Sur la parallélisation massive

8 janvier 2010

Deux expressions à la mode ces temps-ci sont « cloud computing » et « grid computing« , le concept qui consiste à distribuer la puissance de calcul ou de traitement sur un vaste réseau d’ordinateurs respectivement hébergés au sein d’un centre de données ou éparpillés sur Internet.

Un exemple le plus fréquemment utilisé est celui de Google (cloud computing). Aux débuts du Web, AltaVista était l’un des plus puissants moteurs de recherche, et utilisait une poignée de DEC Alpha – les machines haut de gamme 64-bit de Digital Equipment Research. Google a suivi une approche diamétralement opposée: au lieu d’utiliser quelques machines haut de gamme, utiliser un réseau de milliers de PC ordinaires. D’autres ont suivi, comme Amazon.com qui est désormais également connu pour ses services de cloud computing.

Côté cloud computing, le projet SETI@home (1999) demandait aux Internautes de par le monde de consacrer les capacités de calculs inutilisés de leurs ordinateurs pour trouver des signes d’intelligence en analysant tout bruit en provenance de l’espace. Sur le même modèle, la simulation moléculaire Folding@Home de l’université de Stanford se base en grande partie sur les volontaires qui donnent les capacités non utilisées de nombreuses machines, mais principalement de leur PlayStation 3.

La parallélisation massive est à la mode. Exit les Crays?

La parallélisation, étape incontournable pour des hautes performances

Mais si on y regarde d’un peu plus près, un supercalculateur tel qu’un Cray est basé sur une architecture massivement parallèle. Un Cray ne contient pas un CPU super-méga puissant, mais est composé de plusieurs cabinets, eux mêmes composés de plusieurs circuits qui contiennent plusieurs CPU tournant en parallèle. Les supercalculateurs modernes peuvent être composés de plusieurs milliers d’ordinateurs totalisant plus de 70.000 CPUs multi-cœurs. On ne lance pas une application sur un Cray en espérant qu’elle tourne magiquement super vite. L’application doit être vectorisée pour que plusieurs parties puissent tourner en parallèle.

La même logique de parallélisation est standard dans beaucoup d’autres industries, comme celle du disque dur. Le principe des disques RAID est en effet d’utiliser plusieurs disques en parallèle pour avoir un plus gros disque virtuel et/ou augmenter les performances (selon les configurations). Et même dans le monde du PC la parallélisation n’est pas un phénomène nouveau. Dans les années 90, la nouveauté du Pentium était de contenir deux cœurs i486. De nos jours on peut facilement acheter un PC à base de processeur à 2 ou 4 cœurs.

Où que l’on regarde, les solutions de haute performance incluent toutes un type de parallélisme car c’est la manière la plus facile d’augmenter les performances.

Quelle différence entre supercalculateur et cloud computing?

D’un point de vue technique, la grosse différence est la manière dont la parallélisation est effectuée.

Google ne cherche pas à utiliser des composants haut de gamme. La raison est ici historique: lorsque Google a démarré, la compagnie avait relativement peu d’argent. Brin et Page ont donc cherché les composants les moins chers du marché, et ont rajouté des serveurs de redondance pour pallier à d’éventuelles pannes. Montain View a depuis gardé le reflexe de ne pas forcément prendre les composants les plus haut de gamme – et pas forcément pour des questions d’argent. Pendant un temps Google utilisait des Pentium 3 au lieu de Pentium 4 car ces derniers dégageaient plus de chaleur à puissance de calcul égale (la chaleur dégagée est une gros problème, que ce soit pour les fermes d’ordinateurs ou les supercalculateurs). Et pour ce qui est de SETI@Home ou Folding@Home, ces derniers doivent se satisfaire des machines des gens qui ont bien voulu participer.

Les supercalculateurs, de leur côté, ont toujours eu comme client des organisations ayant les poches pleines et qui sont prêtes à payer le prix fort pour avoir les meilleures performances possibles. Pour des vendeurs tels que Cray, il a donc été logique de n’utiliser que les composants les plus performants qui soient.

Le choix des composants a une incidence sur le type de modèle suivi. Google ou SETI@Home suivent naturellement une logique d’intégration horizontale: ils utilisent des composants standard du marché, et connectent leurs machines par un réseau – ou Internet dans le cas de SETI. Les supercalculateurs, eux, cherchant les composants les plus performants du marché, ont bien souvent dû utiliser des composants spécialisés, d’où une logique d’intégration verticale. Les supercalculateurs ont en effet pendant longtemps utilisé des processeurs dits vectoriels (c’est-à-dire qu’ils peuvent utiliser plusieurs opérations en parallèle). Ces processeurs sont montés sur des carte-mères spéciales, et chaque machine est connectée par le biais d’un bus spécialisé haute performance. Si Google a également customisé une partie de l’électronique de ses serveurs, il est loin d’atteindre le niveau de Cray.

Jusqu’alors, ces deux différences jouent en faveur des supercalculateurs. Sauf pour deux facteurs:

  • Google comme Folding@Home ont du apprendre à contourner le problème de l’intégration, ce qui leur a donné à terme un avantage. Car leur infrastructure monte beaucoup plus facilement en charge qu’un supercalculateur. Ces deux architectures peuvent en effet facilement doubler le nombre de machines utilisées, et n’ont pas de problèmes pour utiliser du matériel hétérogène. Un supercalculateur, par contre, aura un nombre maximum de machines qu’il peut utiliser, et est optimisé pour un type de processeur donné. Il faut reconcevoir l’architecture si l’on veut augmenter le nombre limite de machines ou utiliser des processeurs plus récents.
  • Utiliser des composants standards tels que des PCs ou des PlayStation permet de bénéficier des énormes économies d’échelles dont ces derniers jouissent. Les processeurs communément utilisés par les PCs ne valent peut-être pas les processeurs vectoriels dernier cri, mais à coût égal ils fournissent bien plus de punch. De la même manière, les jeux vidéos 3D ont créé une forte demande de processeurs graphiques 3D (Graphical Processing Unit ou GPU). Parce que le marché du jeu vidéo est si important, les GPUs développés par ATI et autres Nvidia sont des bouffeurs de nombres très puissants pour un prix modeste. Leur seul inconvénient est qu’ils ne peuvent pas effectuer n’importe quel type d’opération, rendant leur utilisation limitée pour des besoin de gros calculs.

Comparaison puissance et prix

Il est très difficile de pouvoir comparer les prix dans la mesure où non seulement les prix des supercalculateurs sont rarement publics, mais les prix ne cessent du chuter et les performances d’augmenter.

Au jour du 1er janvier 2010, le supercalculateur le plus puissant est le Cray XT5, avec une puissance de 1,75 petaFLOPS (milliards de milliards d’opérations à virgule flottante par seconde), suivi de l’IBM RoadRunner (1,7 petaFLOPS). Le Cray XT6, successeur du XT5, a été annoncé fin 2009 mais n’est pas encore disponible. De son côté, Folding@Home a en avril 2009 fourni plus de 8.1 petaFLOPS en utilisant 350.000 machines.

Quid du coût au teraFLOPS? En décembre 2009, Folding@Home avait 55.291 PS3 qui fournissaient 1,559 teraFLOPS. A $300 la PS3, cela revient à $10.000 le teraFLOPS ou $10 million le petaFLOPS – mais je suppose que Sony ferait une bonne réduction si quelqu’un achetait 55.000 PlayStation 3 d’un coup.

Selon la brochure du Cray XT5, chaque cabinet de ce dernier délivre une puissance de 7 à 12 teraFLOPS. Sachant que le prix d’entrée de gamme d’un cabinet était en 2007 de $500.000, cela nous fait du $70.000 le teraFLOP. Les prix ont du chuter depuis, mais il n’est pas indiqué combien faut-il de cabinets pour atteindre le petaFLOPS (100 cabinets à 7 teraFLOPS ne dégagent pas forcément 700 teraFLOPS). On peut cependant penser que le prix au petaFLOP doit être désormais bien inférieur à $70 millions.

L’IBM RoadRunner, quant à lui, fournit 1.04 petaFLOPS pour la bagatelle de $125 millions (source: Wikipedia).

En d’autres termes, non seulement une solution de grid computing offre des performances comparables à celle d’un supercalculateur, mais avec un prix du matériel bien moindre: avec $16,5 millions de PS3 (prix grand public que Stanford n’a même pas eu à payer!) et quelques serveurs de Stanford, Folding@Home fournit des performances équivalentes à celles de l’IBM RoadRunner qui lui coûte $133 millions (Folding@Home utilise également Internet, mais je ne pense pas que le coût soit important).

Par contre, le grid computing a plusieurs inconvénients. L’université de Stanford ne se soucie peut-être pas de savoir qui possède les PS3 qu’elle utilise, mais des clients comme le Pentagone sont plus sensibles à de tels détails. Et héberger 55.000 PS3 demanderait beaucoup d’espace, de maintenance et d’électricité. Un supercalculateur reste donc beaucoup plus pratique.

Tendances

Depuis plusieurs années ont voit un rapprochement entre les solutions distribuées (cloud ou grid computing) et les supercalculateurs.

L’inconvénient majeur des solutions de cloud computing est la demande en espace. Mais la technologie de masse n’a cessé d’évoluer pour offrir une intégration de plus en plus poussée. Au début les PCs étaient une grosse boite sur le bureau puis dans la salle machine. Puis les serveurs PC sont devenus disponibles en racks, ce qui permet d’en stocker quelques dizaines dans un cabinet, gagnant du coup beaucoup d’espace. Google a personnalisé le matériel pour transformer une armée de cabinets en un cloud computer. Et il est à parier qu’ils ont continué à améliorer l’intégration entre les cabinet comme entre les racks à l’intérieur d’un cabinet. Parce qu’ils ont du déployer des centres de données (data centers) de par le monde, Google a dés 2005 travaillé sur des containers bourrés de serveurs (Google l’a reconnu en avril 2009). Ces containeurs sont prêts à être mis dans un bateau ou sur une remorque de camion, et à être déployés à peu près n’importe-où.

Les processeurs Intel et AMD, quant à eux, ont augmenté en puissance, certains ayant maintenant de 8 à 12 cœurs. Finalement, Nvidia (le plus gros constructeur de processeurs graphiques avec ATI) s’est attaqué au marché des « supercalculateurs personnels » depuis quelques années avec sa gamme Tesla. D’un côté il commercialise le Tesla C1060, une carte dédiée au calcul scientifique qui contient quelques 240 processeurs graphiques et coûte $1200 (de nombreux constructeurs tels que Dell, HP ou autres incorporent une C1060). Nvidia vend aussi son propre supercalculateur, le Tesla S1070, qui contient quatre C1060 (soit 960 processeurs graphiques) et qui pour $8000 fournit 345 gigaFLOPS (il peut fournir 4 petaFLOPS mais uniquement en simple précision).

En d’autres termes, l’intégration des composants grand public ne cesse de progresser. Aujourd’hui certains processeurs Intel ont 12 cœurs et un Tesla C1060 contient 240 processeurs graphiques. Demain le nombre de cœurs passera à 24 ou 32, et le prochain Tesla contiendra plus de GPU plus puissants. De même, il est possible que l’on voit apparaitre des cartes-mères avec de plus en plus de processeurs.

Il est cependant intéressant de noter que le cloud computing (où l’organisation possède et héberge les machines) est pour l’instant grandement utilisé pour de l’informatique de gestion (principalement des services Web). Le seul type d’informatique distribuée qui concurrence les supercalculateurs (informatique scientifique) est le grid computing (où l’organisation emprunte de la puissance de calcul à des ordinateurs volontaires disponibles sur Internet).

Mais le grid computing, de par sa nature, ne peut que rester un marché de niche. Cela dépend en effet entièrement de la bonne volonté des gens de prêter  la capacité de calcul de leur ordinateur ou console de jeu favoris. Folding@Home a peut-être réussi à enrôler un grand nombre de possesseurs de PlayStation 3, il risque à tout moment d’en perdre si un nouveau projet plus populaire apparait (comme un projet lié à la lutte contre le cancer par exemple)

Mais cela n’empêche pas les supercalculateurs d’évoluer également. A commencer par leur utilisation de composants du marchés. Depuis quelques années, les supercalculateurs ont délaissés les processeurs vectoriels pour acheter… des processeurs Intel et AMD. Même ce marché pourtant très fermé n’a pu résister aux économies d’échelles dont bénéficient Intel, AMD et autres Nvidia. Le Cray XT5 est en effet équipé d’AMD Opteron à 4 ou 6 cœurs (le XT6 sera équipé d’AMD Opteron 8 à 12 cœurs). L’IBM RoadRunner utiliser des Opterons aidés par des Cells (le processeur de le PS3). Et en 2008, Cray et Intel ont annoncé un partenariat pour développer des supercalculateurs. En Septembre 2008 Cray sortait son premier supercalculateur à base d’Intel Xeon quadruple cœurs:  le Cray CX1 (une version du XT1 utilise en plus un Tesla C1060). La station de travail Cray CX1-iWS, quant à elle, est en vente exclusivement chez… Dell!

Conclusion

Si le grid computing concurrence les supercalculateurs (Stanford a fait beaucoup d’économies grâce à Folding@Home) ce type d’informatique ne les remplacera pas pour les raisons citées plus tôt.

Le réel danger pour les supercalculateurs est qu’un jour le cloud computing s’attaque au domaine de l’informatique scientifique. Folding@Home a prouvé que l’informatique massivement distribuée peut fournir des performances supérieures aux meilleurs supercalculateurs. Or les clients de ces derniers désirent le plus de puissance possible. Sachant qu’il a fallu 55.000 PS3 à Folding@Home pour dépasser le petaFLOPS, qu’un container Google contient 1160 serveurs et que chaque serveur a la taille de plusieurs PSP 3, un constructeur pourrait arriver à créer un cloud computer sous forme de containers qui rivalise avec les Cray. L’installation ne serait pas plug ‘n play (le plus difficile est de gérer le refroidissement des machines), mais il n’est pas impossible qu’elle reste beaucoup plus facile que celle d’un supercalculateur qui doit être assemblé manuellement.

Le cloud computing va-t-il s’attaquer un jour au marché des supercalculateurs? Trop tôt pour le dire. Le grid computing, lui, n’est pas près de disparaitre. Après tout, qui n’aimerait pas bénéficier d’une puissance de calcul comparable aux meilleurs supercalculateurs pour trois fois rien?

Mais quoi qu’il arrive, les fabricants de processeurs grand public (Intel, AMD, N`vidia, etc.) ont déjà gagné car ils ont conquéri ces trois marchés. AMD a d’ailleurs racheté ATI, poussant beaucoup à spéculer qu’Intel se doit de racheter Nvidia afin d’avoir dans son offre des CPUs comme des GPUs.

La course aux performances

1 janvier 2010

Wired a récemment publié un article fort intéressant sur l’échec de Duke Nukem Forever, l’un des plus grands fiascos du monde du jeu vidéo. Cette bérézina apporte plusieurs leçons utiles, au-delà du jeu vidéo même.

Après le succès de Duke Nukem 3D en 1996, son éditeur, 3D Realms, a annoncé Duke Nukem Forever en 1997. 12 ans plus tard (oui, DOUZE ANS), le projet a été annulé. En mai 2009, 3D Realms a en effet arrêté définitivement tout développement de Duke Nukem Forever, sans pour autant avoir un jeu vidéo à montrer.

Que c’est-il passé? Comment peut-on passer 12 ans de développement et dépenser plus de $20 millions sans avoir un jeu vidéo au bout du compte? L’ article de Wired commente en détail comment 3D Realms a voulu produire un jeu qui dépassait ce qui existait… et a été piégé par un perfectionnisme qui ferait pâlir Steve Jobs lui-même.

Intégration horizontale vs. le top des performances

Afin de gagner du temps, 3D Realms a décidé d’acheter un moteur 3D d’une compagnie tierce et de bâtir le jeu autour de ce moteur. Cette démarche d’intégration horizontale aurait eu beaucoup de sens si la compagnie n’avait pas eu un but incompatible avec le premier choix: vouloir produire un jeu qui dépasse graphiquement tout ce qui existe. Ca avait été brièvement le cas pour Duke Nukem 3D, cela devrait être également le cas pour Duke Nukem Forever.

Or on a assisté dans les années 90 et 2000 à une explosion des possibilités des jeux en 3D. Des jeux vidéo qui étaient au top graphiquement semblaient dépassés 6 mois plus tard. Lorsqu’un marché est en une telle ébullition et change tellement vite, la seule manière d’être au top des performances est de suivre un modèle d’intégration verticale et de créer son propre moteur graphique. Ca avait été le cas pour Duke Nukem 3D.

Paradoxalement, dans un marché où la course à la performance est roi, vouloir acheter un moteur d’une compagnie tierce ne permet pas de gagner du temps mais en fait perdre!

3D Realms a acheté le moteur de Quake II, disponible fin 1997. Mais contrairement à l’équipe de Quake II, l’équipe de Duke Nukem Forever n’a pu commencer le jeu autour de ce moteur uniquement lorsque ce dernier a été terminé. Lorsque l’on désire produire un jeu vidéo au top du top à une époque où la technologie évolue tellement rapidement, le timing idéal veut que le développement du jeu vidéo même se termine en même temps que celui du moteur 3D. Si le moteur est au top du top à ce moment-là, le jeu vidéo peut créer la sensation pendant peut-être 6 mois. Cela implique que l’équipe qui développe le jeu vidéo doit travailler avec un moteur incomplet (voir inexistant au début).

Dans le cas de Duke Nukem Forever, 3D Realms n’a pu commencer le développement du jeu vidéo proprement dit qu’après que le moteur de Quake II ait été terminé. Or pendant la production de Duke Nukem Forever, d’autres moteurs sont apparus. L’équipe a donc décidé de changer de moteur pour Unreal, plus performant. Outre le coût (ils ont en gros acheté le moteur de Quake II pour rien), il a fallu recommencer le jeu quasiment à zéro.

Le développement de Duke Nukem a été maudit par une série de décisions du même genre: utiliser une nouvelle version d’Unreal, rajouter de nouveaux effets graphiques, etc. Dés que le chef de projet voyait la concurrence faire quelque chose de cool, il fallait que Duke Nukem Forever l’ait aussi. Chaque changement rallongeait le temps de développement, ce qui augmentait le risque que quelqu’un d’autre sorte d’autres effets graphiques.

Se focaliser sur les mauvaises fonctionnalités

Outre le fait que l’intégration horizontale n’était pas le bon modèle pour les buts qu’ils s’étaient fixés, 3D Realms s’est focalisé sur les mauvaises fonctionnalités à apporter, à savoir les performances.

Ils ont oublié que le facteur le plus important d’un jeu vidéo est la jouabilité (gameplay en anglais). Depuis Pong, nombreux sont les jeux vidéos qui étaient graphiquement superbe, avaient une bande sonore géniale, parfois une intro à tomber par terre… mais étaient au final décevant car la jouabilité était terrible. Jeu trop dur, difficile de contrôler le personnage, etc.

On remarque que les jeux vidéo mythiques (Pac Man, Tetris) avaient tout sauf des graphismes ou une bande sonore extraordinaires. Le gameplay rendait par contre ces jeux extrêmement prenants. L’une des raisons du succès de Nintendo est d’avoir beaucoup misé sur cet aspect plutôt que les performances – contrairement à Sega puis Sony et Microsoft. Ses jeux vidéos phares comme Super Mario Bros n’ont jamais été célèbres pour avoir un graphisme extraordinaire, mais cela ne les a pas empêché d’être des hits. Le dernier exemple est sa console de jeu Wii. Là où Sony et Microsoft se sont battus pour fournir la console qui délivre le plus de punch, Nintendo a raflé la mise en offrant une jouabilité inédite.

Conclusion

Fournir les meilleurs performances au monde est un travail extrêmement difficile – que ce soit dans le monde du jeu vidéo ou ailleurs. La moindre erreur, le moindre délai et tout est à recommencer.

Vouloir offrir DE LOIN les meilleures performances au monde est quasiment impossible. La meilleure manière d’y arriver est AVANT que la course aux performances commence. Doom a révolutionné le monde des jeux 3D pour plusieurs raisons. La première était que les PC à base d’Intel 80386 commençaient à se populariser. La deuxième était que ses développeurs ont osé avant tout le monde à repousser les limites de ce que l’on pensait être possible – avant eux, de nombreux développeurs ont sans doute cru impossible de développer un jeu tel que Doom sur PC. Finalement, Doom avait une fort bonne jouabilité.

Mais une fois que la course a commencé, c’est un travail extrêmement fastidieux d’être au top. Dans de nombreux cas, on dépense une grande quantité d’énergie pour avoir un résultat comparable avec la concurrence. L’aspect différentiateur n’est plus les performances mais d’autres facteurs. Dans le cas des jeux vidéo, le gameplay. C’est ce qui a rendu un autre jeu de combat 3D célèbre: Halo.

iPhone et ses concurrents

13 novembre 2009

Aux Etats-Unis, Verizon (premier opérateur télécom cellulaire du pays) vient de sortir son dernier smartphone, le Motorola DROID – un smartphone à base d’Android 2.0, le système d’exploitation mobile de Google.

Signe des temps, la presse a depuis plusieurs semaines spéculée sur la capacité de DROID à être un iPhone killer. Comme le Palm Pre avant lui.

Si le DROID est de bonne facture, il y a peu de chance qu’il fasse beaucoup d’ombre au smartphone d’Apple. Il s’est vendu 100000 DROID le premier week-end. Cela reste peu par rapport à l’iPhone qui dépasse la barrière du million dans un temps comparable pour chaque nouvelle version, mais reste honorable.

Passons en revue les avantages et inconvénients de l’iPhone.

Les points sur lesquels la concurrence peuvent gagner

Il existe certains points sur lesquels la concurrence peut espérer marquer des points face à l’iPhone:

  • Un clavier réel: si utiliser un écran tactile à la fois comme écran et comme clavier (suivant les usages) était une très bonne idée, cela reste difficile de taper avec précision sur un iPhone.
  • Le réseau (suivant les pays): aux Etats-Unis, l’iPhone a un partenariat exclusif avec AT&T. Le problème est que le réseau 3G de ce dernier n’a pas bonne réputation et son abonnement est relativement cher.
  • Le multi-tâches: l’iPhone ne permet pas de garder plusieurs applications en mémoire en même temps et de passer de l’un à l’autre. Un système concurrent multi-tâches serait certes une bonne chose mais certainement pas un avantage suffisant pour faire basculer la balance.

Mais si avoir au moins l’un des trois facteurs risque d’être nécessaire pour être une concurrence sérieuse face à l’iPhone, ces trois plus ne sont en aucun cas suffisants. Le DROID comme le Palm Pre ont à la fois un vrai clavier (tout en restant minces), ne sont pas liés au réseau AT&T et possèdent un système d’exploitation multi-tâches. Et ni l’un ni l’autre n’ont réellement déchaîné les passions.

L’iPhone et sa compatibilité

L’avantage de l’iPhone est bien entendu sa logithèque et liste de matériel.

Mais la compatibilité logicielle n’est pas forcément l’atout indestructible d’Apple. Tout d’abord, la plupart des 100000 applications disponibles pour l’iPhone ne sont que très rarement téléchargées – voire pas du tout. Fidèle à la règle des 80/20, seule une minorité d’applications est populaire. La concurrence n’a donc pas à trouver un équivalent pour toutes les applications disponibles sur l’iPhone. Ensuite, il n’existe encore pas de killer app pour smartphone – un programme tellement extraordinaire qu’il justifie à lui seul l’achat du matériel (comme le tableur en son temps ou le jeu Halo pour Xbox). Cela veut dire que la plupart des applications utilisées ne justifient pas à elles seules de rester sur l’iPhone. En attendant, l’iPhone garde l’avantage, car les utilisateurs savent que n’importe quelle application développée par leur compagnie / magazine / site Web favoris sera disponible pour iPhone.

La compatibilité matérielle risque, elle, de donner plus de fil à retordre pour rattraper Cupertino. Non seulement l’iPhone bénéficie du matériel construit pour l’iPod, mais  si une voiture possède une intégration avec un seul smartphone, lequel pensez-vous sera supporté?

La seule chose qui pourrait jouer en défaveur de l’iPhone est si Cupertino rejette une killer app. On se souvient par exemple de Google Voice qu’Apple a rejeté (les disciples de Steve Jobs ont a depuis affirmé qu’elle n’a pas été rejetée mais est toujours en cours d’évaluation). Si demain une killer app apparaît mais que cette application donne trop de pouvoir aux utilisateurs de smartphone, il est possible qu’Apple passe à côté de l’opportunité et la rejette – lâcher trop de contrôle est quelque chose que Steve Jobs déteste.

Android et la customisation

Le gros risque pour Motorola en utilisant Android reste le risque de diluer son avantage compétitif. D’un côté il bénéficie des investissements de Google – gratuitement, ce qui n’est pas rien. Mais d’un autre côté, n’importe quel autre constructeur peut faire de même. C’est tout le problème de l’intégration horizontale.

J’indiquais dans un précédent article qu’Apple a récemment racheté PlaceBase, un concurrent de Google Maps. Le but est sans doute de fournir aux services de cartographie de l’iPhone des fonctionnalités exclusives. La concurrence, elle, est dépendante de Google pour rester au top. C’est possible – Google peut se permettre d’engloutir des millions si besoin est – mais pas certain. Google comme Apple sont deux compagnies très créatives.

Est-ce qu’utiliser Android signifie saper son avantage compétitif? Pas forcément. La grande question restera de savoir si Android peut être suffisamment customisable.

Apple a pu produire l’iPhone car ils ont pu s’assurer que le système d’exploitation utilise toutes les possibilités du matériel comme un écran tactile / clavier. C’est un facteur critique dans un marché en évolution constante.

Android étant open source, il peut en théorie permettre de telles – en théorie.

Toute personne ayant travaillé sur la customisation de n’importe quel logiciel d’entreprise (CRM, ERP, etc.) vous le dira: il existe parfois un fossé entre la théorie et la pratique en matière de customisation. Est-ce que les customisations peuvent-elles être faciles et rapides à mettre en oeuvre sans briser la future compatibilité?

Imaginons que demain un constructeur de smartphone utilise en exclusivité un écran tactile « à feedback » où l’utilisateur « sente » sous ses doigts l’écran. Android pourra-t-il être customisé de manière facile et rapide pour tirer partie d’un tel écran? Qui plus est, cette customisation fonctionnera-t-elle avec la prochaine version d’Android ou devra-t-elle être réécrite complètement?

L’avenir nous le dira. A moins que la concurrence ne fasse que suivre Apple.

Conclusion

Etant donné les circonstances actuelles, difficile de voir un avenir sombre pour l’iPhone. Apple a le vent en poupe et personne ne semble pouvoir briser son élan.

Qui plus est, Cupertino peut éliminer certains des avantages dont la concurrence bénéficie. En Europe plusieurs pays ont interdit le couplage exclusif d’iPhone à un seul opérateur mobile. Aux Etats-Unis les rumeurs vont bon train sur un iPhone pour le réseau Verizon l’année prochaine.

Si demain Steve Jobs annonce un iPhone avec un vrai clavier, la concurrence est morte. Quand on sait que tous les smartphones sont en gros au même prix (inhabituel pour un produit Apple), quel avantage d’acheter un concurrent? A l’heure actuelle tous les smartphones sont plus ou moins des copies de l’iPhone. A moins qu’un concurrent arrive à créer la sensation avec de nouvelles fonctionnalités (comme Apple l’a fait en 2007 avec l’iPhone), il sera très dur de s’attaquer à la forteresse Apple.

A moins qu’une killer app pour smartphone fasse son apparition – le genre qui viole les règles imposées par Cupertino…

Comment la technologie influence la chaine de valeur ajoutée

30 octobre 2009

Pourquoi est-ce Microsoft et Intel qui ont récolté les fruits du PC et non IBM? Ce dernier a pourtant créé le PC. Qui plus est, jusqu’alors, l’argent avait toujours été dans le matériel. Que s’est-il passé?

Pour mieux comprendre, il faut analyser la chaîne de valeur ajoutée du PC. Car l’évolution des technologies a eu une influence sur cette chaîne, et par conséquent a parfois bouleversé des marchés.

Un ordinateur comme le PC n’est pas entièrement fabriqué par une seule compagnie, mais fait partie d’une chaîne dite de valeur ajoutée. Les assembleurs de PC tels que Dell, HP et autres Lenovo assemblent en effet plusieurs composants provenant de fournisseurs tiers: le système d’exploitation à Microsoft, le processeur central à Intel ou AMD, le disque dur chez Western Digital / Seagate / Hitashi / …, etc. Ces vendeurs eux-même commandent à des fournisseurs (du moins dans le cas de composants physiques). Un fabricant de carte graphique va acheter le processeur graphique auprès d’un vendeur spécialisé, qui lui-même aura ses propres fournisseurs. A l’autre bout de la chaîne, les fabricants de PC vendent rarement en direct. Ils passent par des distributeurs comme la Fnac, Carrefour ou, pour leur clientèle professionnelle, par des sociétés de service.

Chaque élément de cette chaîne est un marché en lui-même. Western Digital se bat pour avoir la plus grande part de marché des ventes de disques durs. La Fnac se bat avec Carrefour pour être le lieu où les consommateurs iront faire leurs achats. Microsoft, quant à lui, jouit d’un quasi-monopole sur le marché du système d’exploitation.

Face à cette chaîne de valeur ajoutée, le consommateur se trouve devant une multitude de choix. Quel type de disque dur choisir? Quel processeur? Quel fabricant de PC? Dans quel magasin acheter? Dans les faits, les consommateurs ne vont faire qu’un ou deux choix, et laisser ces derniers dicter le reste de leurs décisions.

A l’heure actuelle, la plupart des consommateurs veulent une machine sous Windows (s’ils préfèrent Mac OS X, le choix est tout de suite beaucoup plus simple). Microsoft a un tel monopole que pour beaucoup de monde le système d’exploitation n’est même pas un choix mais une évidence.

Certains consommateurs choisiront ensuite la marque du PC se basant sur divers critères (meilleure qualité/prix, service, facilité d’achat en ligne, réputation, influence de la publicité) et trouver le premier magasin où acheter cette marque. D’autres au contraire se fichent de la marque et iront à leur magasin préféré acheter l’ordinateur que le vendeur leur conseillera.

Le besoin de se différentier

Le consommateur cherche au bout du compte les composants qui ont le plus d’influence sur le produit final. Ce seront les vendeurs de ces composants qui toucheront le jackpot et qui imposeront leurs conditions au reste de la chaîne.

Pour les vendeurs de la chaîne de valeur ajoutée, l’aspect différentiateur est donc clé pour avoir une influence sur le client final. Le fait qu’un disque dur provienne de Western Digital ou de Seagate n’aura que peu d’influence sur l’ordinateur car l’utilisateur a peu de chance de remarquer une différence. Par contre, il verra tout de suite la différence si le PC est livré avec Windows ou avec Linux. Le problème des fabricants de disques durs n’est pas qu’ils n’offrent que peu de valeur ajoutée. Contrôler une tête de lecture plus petite qu’un grain de poussière pour lire l’information sur des plateaux tournant à plus de 7000 tours / minute n’est pas une mince affaire. Mais un disque de 500 Go à 7200 t/min reste un disque de 500 Go à 7200 t/min, quelle que soit la marque. L’aspect différentiateur n’est qu’une histoire de quantification (capacité, tours/min, prix). C’est pour ça que les prix des disques durs ne cessent de chuter – malgré des performances de plus en plus grandes – et que les vendeurs se font dans les 10% de marge. A comparer avec Microsoft qui vend Windows au prix fort et jouit de marges dépassant 80%.

L’évolution technologique

IBM a grandi à une époque où c’était le matériel qui dirigeait tout. Mais la technologie évolue sans cesse, et il arrive que certains événements changent la décision d’achat, bouleversant ainsi l’équilibre des pouvoirs:

  • L’arrivée de standards: les standards sont fort pratiques pour les consommateurs car une seule décision (le choix du standard) implique plusieurs décisions implicites. Lorsque les consommateurs ont choisi VHS au dépend de Betamax ou V2000, ils ont choisi un standard de magnétoscope avant de choisir la marque – se simplifiant du coup la vie. L’inconvénient pour les vendeurs est qu’un standard diminue leur aspect différentiateur. Parfois même un standard peut sérieusement diminuer la valeur ajoutée. Le « standard » du PC (c’est-à-dire les standards qui régissent les interactions entre ses différents composants) ont transformé les constructeurs d’ordinateurs en de simples assembleurs (voir Intégration verticale contre intégration horizontale)
  • La spécialisation: certains maillons de la chaîne se scindent. Le PC est bien entendu un exemple, mais il en existe d’autres. Si plusieurs des premiers constructeurs de cartes graphiques pour PC concevaient également les processeurs graphiques – le canadien Matrox est l’exemple type – il y a rapidement eu une spécialisation avec d’un côté les fabricants de cartes graphiques et de l’autre les fabricants des processeurs graphiques utilisés par lesdites cartes.
  • L’offre dépasse la demande: les besoins du consommateur augmentent constamment, mais les performances et fonctionnalités offertes augmentent également, et ce à un plus grand rythme. A tel point qu’il existe un seuil au-delà duquel les produits offrent plus de performances et/ou de fonctionnalités que n’ont besoin la majorité des utilisateurs. Il existe certes certains utilisateurs aux besoins très pointus, mais ils ne sont qu’une minorité. Par exemple, jusqu’à il y a quelques années, on n’avait jamais trop d’espace disque sur son ordinateur de bureau. Cette ère est désormais révolue. De moins en moins d’utilisateurs se soucient de la place disque car n’arrivent plus à remplir 500 Go. De même, Microsoft se bat depuis plus de 10 ans pour convaincre les utilisateurs que sa prochaine version de Windows et de MS-Office vaut le coup d’être achetée.
  • Changements radicaux de besoins: à l’inverse de la dernière tendance, certaines nouvelles technologies changent radicalement les besoins en performances du consommateur en créant un nouveau type de besoin. S’ils s’étaient cantonnés à la 2-D, la course à la performance des consoles de jeux vidéos se serait arrêtée – l’offre en performance aurait dépassé la demande depuis longtemps. Mais l’avènement des jeux en 3-D a fait exploser la demande en puissance de calcul – demande qui n’est elle pas près d’être rassasiée.
  • Un élément de la chaîne peut être remplacé. C’est comme ça que Dell a utilisé le téléphone puis Internet pour remplacer le réseau de distribution traditionnel. Plus généralement, Internet a bouleversé plusieurs chaînes de valeur ajoutée. C’est ainsi que plus aucun particulier n’utilise Outlook pour gérer ses emails (il utilise Hotmail, Yahoo! Mail, Gmail et compagnie). L’implication est que les particuliers n’ont plus besoin de Windows pour leurs emails.

Que se passe-t-il lorsqu’un de ces facteurs se produit? Si l’un des éléments de la chaîne de valeur ajoutée perd de son importance, la décision d’achat se déplace le long de cette chaîne – le consommateur n’a plus besoin de considérer un élément pour son achat, il peut donc en choisir un autre.

La spécialisation des processeurs graphique a par exemple eu une grosse incidence sur le marché des cartes graphiques pour PC. Plus personne ne s’intéresse à la carte graphique – les vendeurs d’ordinateurs mettent désormais en avant le processeur graphique utilisé. Des marques de cartes graphiques naguère prestigieuses sont tombées dans l’oubli. Orchid et Hercules se sont fait racheter, Diamond a fusionné avec le fabricant de processeur graphique S3, et Matrox (qui a toujours conçu ses propres processeurs graphiques) se cantonne désormais à un marché de niche.

Un autre exemple est l’iPhone. Avant l’arrivée du smartphone d’Apple, les opérateurs mobiles dictaient leurs lois aux constructeurs de téléphones portables. Mais la firme de Steve Jobs a sorti un smartphone qui a généré tant d’enthousiasme qu’Apple a pu imposer ses conditions. Non seulement le logo de l’opérateur n’est quasiment pas visible sur un iPhone, mais Cupertino touche une partie des revenus des abonnements 3G. Du jamais vu! Mais d’après une étude récente, les 2/3 des nouveaux abonnés 3G d’AT&T aux Etats-Unis sont des possesseurs d’iPhone. Autant dire qu’AT&T a nettement plus besoin d’Apple que l’inverse.

Les besoins du consommateur

Pour savoir où se déplace la décision d’achat, il faut garder à l’esprit que le consommateur cherche la solution la plus à même de servir ses besoins. Un utilisateur de PC n’a techniquement pas besoin d’un ordinateur. Il a besoin de se connecter à Internet, d’éditer un document, de jouer, etc.

La pyramide de Maslow donne une hiérarchie des besoins humains. Il existe une telle hiérarchie technologique pour les utilisateurs:

  • Le premier besoin est celui des fonctionnalités. Les premiers traitements de texte et tableurs étaient rudimentaires, mais ils ont fait un tabac car ils offraient des possibilités jusque-là inédite. De même, l’arrivée du PC a brisé la valeur ajoutée des fabricants d’ordinateurs, poussant une partie de la décision d’achat en aval vers le système d’exploitation, plus proche des besoins réels des utilisateurs.
  • Vient ensuite un besoin de performances. Si un élément-clé de la chaîne perd de son importance, le besoin de performance pousse la décision d’achat en amont vers les sous-composants qui influencent le plus les performances. C’est ainsi que le PC a poussé une partie de la décision en aval vers les micro-processeurs (à une époque où ils influaient beaucoup sur les performances). De Même, la marque de la carte graphique n’importe plus beaucoup – c’est le processeur graphique qui compte.
  • Le troisième besoin est le besoin de facilité. Technophiles mis à parts, le consommateur cherche à se simplifier la vie. Une solution plus simple d’utilisation est attrayante. Ce besoin peut influencer l’aspect différentiateur (Apple pousse sur l’aspect « sans problème » du Mac), mais aussi pousser la décision en aval, auquel cas le consommateur se focalise sur l’aspect service. Depuis longtemps les entreprises choisissent leur fournisseur de PC en fonction du service fourni.
  • Le dernier facteur est le prix. Lorsqu’il ne reste plus d’autres manières de comparer, le prix est différentiateur. C’est là où en sont les fabricants de disque dur.

(mais il ne faut pas croire non plus que cette hiérarchie est 100% stricte. Elle peut en effet varier d’un consommateur à l’autre. Certains consommateurs sont ainsi très sensibles aux prix. Au contraires, d’autres auront un grand besoin de performance et seront près à mettre le prix qu’il faut)

C’est ainsi que Microsoft a su garder la décision d’achat au niveau des fonctionnalités (à savoir la logithèque). Il existe des systèmes d’exploitations plus performants, plus faciles d’accès et/ou moins cher que Windows, mais rien n’y a fait: les gens sont attachés à leurs logiciels sous Windows. La seule faille dans l’armure est Internet qui fournit certaines applications qui fonctionnent quel que soit le système d’exploitation.

L’iPhone a fait couler tant d’encre car il a offert un aspect fonctionnalité inédit. Aux Etats-Unis, les possesseurs d’iPhone acceptent de passer par AT&T (qui est l’opérateur mobile exclusif) malgré des prix élevés et un réseau 3G n’ayant pas bonne réputation. Le risque vient par contre des concurrents de l’iPhone qui commencent à devenir suffisamment bon pour éclipser la mystique de ce dernier – et parfois en proposant d’autres avantages comme un clavier physique. Si demain tous les smartphones ont les mêmes possibilités, les consommateurs se tourneront peut-être plus vers l’opérateur mobile qui a le meilleur réseau (et si tous ont les mêmes performances, le meilleur prix). Le joker d’Apple est cependant non pas les fonctionnalités de l’iPhone mais la logithèque et les périphériques de ce dernier.

Pour les jeux vidéos, le besoin en performances a souvent été important – du moment que le besoin en fonctionnalités est satisfait. Lorsque toutes les consoles ont les mêmes jeux – ou s’ils se ressemblent suffisamment – le consommateur va s’orienter vers la console qui fournit le plus de punch possible. Mais l’aspect fonctionnalité pointe le bout de son nez de temps en temps. Une grande partie du succès de la Xbox a en effet été due à son jeu-phare exclusif Halo. De même, Nintendo a coupé l’herbe sous le pied de Sony et Microsoft avec sa Wii. Alors que ses deux concurrents se battaient uniquement sur le terrain des performances, Nintendo a changé la donne en introduisant des nouveaux contrôleurs à mouvement. Les ventes de Wii ont écrasé les ventes de Xbox 360 et Playstation 3 malgré des performances inférieures.

Il existe également d’autres facteurs qui peuvent influencer le consommateur. Le facteur psychologique par exemple. Apple doit une partie de son succès au fait d’avoir une image de produits « cools ». Un autre facteur est la force de l’habitude. Extrêmement peu de particuliers n’utilisent ne serait-ce que le 10e des fonctionnalités de MS-Office ou MS-Works, mais la très grande majorité veut une suite bureautique Microsoft sur son PC – et est prête à payer pour ça. Il existe des alternatives gratuites tout aussi bonnes, mais l’inertie est importante.

Prédictions?

Si l’on peut relativement facilement identifier les raisons qui poussent à un changement sur la chaîne de valeur ajouté, cela ne veut pas dire pour autant qu’il est facile de prédire les futurs changements.

Il est parfois possible de prédire le type de changement – parfois. Prédire sa date est par contre quasiment impossible.

Lorsque la bataille entre le Blu-Ray et le HD-DVD a commencé, tout le monde savait qu’il ne resterait au bout du compte qu’un standard – le même scénario s’était déjà produit entre VHS et Betamax. Mais personne n’aurait pu prédire la date où un standard unique se dégagerait.

Certes, la loi de Moore permet de prédire les capacités et puissance de futurs processeurs, disques durs, etc. Cette loi, tout empirique qu’elle soit, peut donc être utilisée pour prédire le moment où l’offre dépassera la demande… mais c’est sans compter les changements radicaux de besoins.

L’avènement des jeux en 3-D est un exemple de changement radical de besoins. Mais les jeux en 3-D existent depuis très longtemps: Maze War (1974), BattleZone (1980), etc. Il a fallu des jeux comme Doom (1993) ou Toshinden (1994) pour populariser les jeux 3-D modernes. Mais ces jeux ont pris tout le monde par surprise car ils repoussaient les limites de ce qu’on pensait possible. Leur arrivée était grandement imprévisible.

Parfois même il arrive qu’un changement radical capote. C’est le cas de la réalité virtuelle. Très prometteuse pendant les années 90 – et qui aurait augmenté le besoin de puissance de calcul, cette technologie a cependant fait un flop et a complètement disparu.

Dans un autre domaine, les particuliers ne se soucient quasiment plus de la capacité de leur disque dur. Le seul changement possible est par la vidéo – ce n’est que s’ils commencent à stocker des films entiers sur leurs disques durs que les particuliers se retrouveront en demande de capacité. Mais cela se produira-t-il? Pour cela il faudra une solution simple (la vidéo à la demande en reste encore à ses balbutiements), ainsi que changer les habitudes – le consommateur aime avoir un support physique pour ses films. Cela peut arriver en un an comme dans des années si on assiste à une guerre des standards. Malheureusement pour les fabricants de disque dur, cela ne résoudra pas leur absence de différentiation.

Pourquoi le Mac résiste toujours

29 mai 2009

Selon l’opinion communément admise, le Macintosh d’Apple devrait couler, tué par le modèle d’intégration horizontal. Le PC aurait du lui faire mordre la poussière comme il l’a fait pour Commodore, Atari, Sinclair et tant d’autres.

Pourquoi donc? Parce qu’une fois qu’un marché change d’un modèle d’intégration vertical à un modèle horizontal, il est très difficile – voire impossible – de revenir en arrière. Il est en effet très difficile de lutter contre les économies d’échelles des vendeurs spécialisés.  Dans les années 80 et 90, Compaq a par exemple dépensé des millions en recherche & développement pour concevoir ses propres cartes-mères et avoir ainsi un avantage concurrentiel. Tout ça pour voir la dite concurrence acheter à très bon prix des cartes-mères Intel de fort bonne facture, et sans dépenser un sou en R&D.

Mais contre toute attente, non seulement Steve Jobs a enrayé la chute du Mac, mais il a réussi à lui faire remonter la pente. Le Mac a à l’heure actuelle près de 10% de parts de marché (c’est redescendu en 2009 avec la crise). S’il est loin de renverser Windows, Apple se rapproche des gros constructeurs de PC comme Dell. Qui plus est, la firme à la pomme jouit de marges pensées impossibles dans le monde des constructeurs d’ordinateurs de bureau.

Pour comprendre ce phénomène contre-intuitif, commençons par nous poser la question: pourquoi les gens choisissent-ils un Mac? Parce que ce sont des machines sexy, réputées faciles d’utilisation et stables (« ça marche »), et réputées plus fiables que le PC (moins de virus). Ce dernier avantage doit cependant beaucoup au fait que le Mac est un petit marché. Les hackers se concentrent en effet sur les produits les plus utilisés. Si demain le Mac devient aussi populaire que Windows, il est à parier que l’on verra beaucoup de virus proliférer.

Maintenant, analysons les raisons sous-jacentes du succès du Mac.

La chance, où comment le Web a changé le marché

Si le Web n’a pas remplacé Windows, il a sérieusement diminué son importance – du moins auprès des particuliers. La plupart des les applications que les utilisateurs veulent à tout prix avoir sont en effet sur le Web: Facebook, Hotmail, Google Maps, etc. Pour le reste, le Mac a des applications équivalentes. Picasa (un programme de gestion de photos) a peut-être mis du temps à être disponible sur le Mac, mais ce dernier est livré depuis longtemps avec iLife qui gère (entre autres) les photos.

Dans ces conditions, pour peu que l’on n’ait pas des besoins trop spécifiques, avoir un Mac est une possibilité. C’est pour cette raison que les entreprises ont été beaucoup plus réfractaires au Mac: elles utilisent beaucoup plus de logiciels spécialisés que les particuliers.

Si le Web n’avait pas été inventé, est-ce que le Mac serait aussi populaire? Si les sites Web populaires comme FaceBook, Google Maps ou Wikipedia devaient être portés sur le Mac pour fonctionner sur ce dernier, pensez-vous que les gens soient si excités par Mac OS X? Probablement pas.

L’industrie du PC a involontairement aidé Apple en améliorant le PC

L’avantage d’un modèle horizontal tel que le suit l’industrie du PC est que cela favorise la création de nombreuses compagnies spécialisées.

Mais un modèle horizontal ne peut fonctionner que si les standards entre les différents composants sont clairement définis. Ca aurait été le cas il y a bien longtemps si le PC n’avait pas évolué. De nouveaux standards sont apparus au cours des années (USB remplacé par USB 2.0, PCI remplacé par AGP remplacé par PCI Express, etc.) ainsi que de nombreux périphériques. D’autant plus de risques de briser la compatibilité entre composants.

Microsoft a par exemple mis à mal la compatibilité des PC avec Windows Vista, ce dernier ne supportant pas nombres d’applications et périphériques. Autre exemple, l’essor d’Internet a généré la création de la Webcam. Il y aura peut-être un jour où les pilotes de Webcam seront standardisés (un peu comme le standard TWAIN pour les scanners), mais ce n’est pas le cas aujourd’hui. Résultat de quoi, les Webcams ne marchent pas forcément 100% correctement sur PC.

Apple contrôlant complètement le matériel du Mac (à l’exception des périphériques), cela limite le nombre de combinaisons avec qui Mac OS X doit faire affaire. Par exemple, le fait d’intégrer une Webcam sur quasiment tous les Macs permet au système d’exploitation de savoir exactement la liste des Webcams qu’il peut rencontrer.

Le Mac s’est rapproché du modèle horizontal

Si Steve Jobs est très fier de son modèle d’intégration vertical et proclame à qui veut entendre qu’Apple est la seule compagnie qui est spécialisée dans le matériel ET le logiciel, Apple ne s’en n’est pas moins rapproché du modèle horizontal sur de nombreux aspects.

Fini le temps où les Macs ne fonctionnaient qu’avec une imprimante Apple. De nos jours, ils acceptent n’importe quelle imprimante. De même, les Macs utilisent les mêmes processeurs graphiques que l’on trouve dans les PC. Apple s’est également converti au standard USB pour connecter les périphériques, sacrifiant l’interface Firewire qu’il a pourtant aidé à développer. Malgré tout son dédain du PC, Apple a su tirer partie des avantages de ce dernier.

L’un des arguments d’Apple pour passer au Mac est que vous pouvez émuler Windows si besoin est en utilisant VMware ou Virtual Desktop. Mais cette facilité n’est possible que parce que le Mac a finalement rejoint le rang et adopté des processeurs Intel – un séisme psychologique sans précédant au sein de la firme à la pomme qui a dénigré les processeurs Intel pendant des années.

En d’autres termes, Apple garde un modèle d’intégration verticale, mais uniquement lorsque cela apporte une valeur ajoutée.

Il conçoit toute l’électronique (processeurs exceptés) car cela lui permet d’être beaucoup plus exigeant sur le design de ses machines. Il conçoit parfois ses propres batteries pour les mêmes raisons: avoir des batteries carrées pour moins perdre d’espace dans ses portables. Il a développé sa propre chaîne de magasins car cela lui permet de mieux promouvoir ses produits et d’offrir un meilleur service à ses clients. Mais garder son propre standard de connexion de périphérique n’a que peu d’avantages et limite les périphériques que le Mac accepte.

Des produits sexy

Il faut donner à Steve ce qui est à Steve: il a toujours réussi à produire des machines sexy. Non seulement il a eu de nombreuses fois une vision (qu’il l’ait volée ailleurs ou non), mais il a réussi à diriger une équipe pour transformer cette vision. Depuis que Jobs est revenu chez Apple, ses produits génèrent beaucoup de buzz.

L’obsession de Steve pour le design couplée à l’intégration verticale ont permit à Apple de sortir exactement les machines dont Steve rêvait. Apple peut en effet faire que ce soit le boîtier du Mac qui dicte ses lois à l’électronique interne et non l’inverse.

Les fabricants de PC pourraient aussi concevoir des produits sexy, mais ils le font rarement. Ils copient trop souvent l’existant. Si vous voulez générer du buzz, il faut être le premier à sortir une innovation. HP ou Dell peuvent demain sortir des ordinateurs portables extra-fins, mais à moins qu’ils ne soient encore plus fins que le MacBook Air cela provoquera l’indifférence générale.

Cela ne veut pas dire que les fabricants de PC ne savent pas innover. Certains ont par exemple développé leurs ordinateurs de bureau tout-en-un. Mais ce n’est pas un processus aussi naturel que chez Apple.

Quand la concurrence imite Apple

L’imitation est la forme la plus sincère de flatterie dit-on. Si c’est le cas, l’industrie approuve les méthodes d’Apple:

  • Après avoir tenté en vain de s’attaquer au marché du baladeur MP3 en signant des partenariats avec des constructeurs, Microsoft est passé à un modèle d’intégration vertical avec le Zune.
  • Microsoft a annoncé créer sa propre chaîne de magasins pour promouvoir ses produits, à l’instar des Apple Stores.
  • Dell a annoncé des ordinateurs portables « de luxe » avec la gamme Adamo. Ecran en verre, boîtier en aluminium, design mis en avant (tiens, tiens, ça me rappelle quelque chose)… et même un prix plus élevé qu’un MacBook à configuration équivalente!

Conclusion

Si une compagnie habituée à l’intégration verticale ne peut pas ignorer le modèle horizontal, elle peut cependant y résister. Apple l’a fait grâce à un subtil mélange entre modèle horizontal et intégration verticale. La firme à la pomme a certes eu de la chance avec l’avènement du Web, mais doit une part de son succès en sortant des produits qui sortent de l’ordinaire.

Il est cependant à noter que c’est un combat difficile, et le Mac, même s’il a regagné en popularité, reste un marché de niche. En attendant, c’est un marché fort lucratif pour Apple.

Microsoft contre Apple, deuxième round

15 mai 2009

Apple et Microsoft se sont affrontés dans les années 80 pour le contrôle du marché des micro-ordinateurs (PC, Mac et autres machines depuis tombées dans l’oubli). C’est bien sûr Microsoft qui a gagné, conséquence de quoi la firme de Bill Gates règne en maître sur nos ordinateurs de bureau et ordinateurs portables.

Redmond pensait être définitivement débarrassé de Cupertino. Mais voila que 20 ans plus tard les deux géants en décousent à nouveau, cette fois sur le marché des smartphones et plus généralement des ordinateurs de poche (baladeurs MP3 / assistants numériques / smartphones)

On pourrait penser que l’histoire risque de se répéter et que Microsoft va une fois de plus remporter la mise en utilisant ses méthodes habituelles. Apple a certes créé la sensation avec son iPhone, mais il faut se rappeler qu’il avait également fait sensation en 1984 en lançant le Macintosh.

Mais il existe plusieurs différences entre les micro-ordinateurs et les ordinateurs de poche. Différences qui donnent cette fois un avantage à Apple et un handicap à Microsoft.

IBM n’est plus là pour aider Microsoft

Microsoft a gagné en surfant sur la vague du PC. Mais ce type de micro-ordinateur n’aurait jamais été nulle part s’il n’avait pas été lancé par IBM.

Lorsqu’il a lancé son PC, IBM, pressé par le temps, a décidé d’assembler de toutes pièces son ordinateur en utilisant des composants du marché. Ce modèle, dit d’intégration horizontale, a été très favorable à Microsoft (qui ne concevait que le système d’exploitation) et a handicapé Apple. Ce dernier, habitué à concevoir quasiment tous les composants de ses ordinateurs, a eu du mal à résister aux économies d’échelles du PC (pourquoi le Mac existe toujours est le sujet d’un prochain article). En d’autres termes, c’est le PC plus que Microsoft qui a vaincu le Mac.

Mais ce modèle d’intégration horizontale n’a fonctionné que parce que IBM était derrière le PC. Un tel modèle apporte une grande flexibilité mais se fait au détriment des performances. L’intégration horizontale a été lancée beaucoup trop tôt pour les micro-ordinateurs. Le PC a en effet mis entre 10 et 15 ans pour combler ses lacunes face à la concurrence (Mac, Atari ST, Amiga). Mais IBM était à l’époque le géant incontesté de l’informatique, ce qui lui a permit d’imposer le PC dans le monde de l’entreprise malgré ses défauts.

Sur le marché des smartphones, Apple a démontré avec l’iPod puis l’iPhone l’avantage d’un modèle d’intégration vertical lorsqu’on veut sortir des produits vraiment novateurs et plus compacts que la concurrence. Il lui aurait en effet été très difficile de développer un iPhone avec un système d’exploitation du marché.

Il existe cependant des systèmes d’exploitation qui suivent une approche horizontale. C’est le cas de Symbian ou Google Android. Mais ces systèmes d’exploitation ne réclament pas de royalties et, dans le cas d’Android, est personnalisable.

Microsoft peut donc suivre un modèle horizontal mais possède un handicap, ou il peut également utiliser un modèle vertical et développer son propre smartphone, comme le veut une rumeur.

Le marché est dirigé par les particuliers, pas l’entreprise

Si la micro-informatique a initialement commencé comme un marché de particuliers dans les années 70, elle s’est étendue au marché des entreprises avec le PC d’IBM. Puis, petit à petit, le PC a envahi le marché des particuliers. En d’autres termes, c’est la micro-informatique d’entreprise qui a défini le marché. Tant pis pour Apple qui a toujours été plus à l’aise sur ce marché des particuliers.

Pour les téléphones portables (et par extension les smartphones) nous observons l’inverse. Initialement conçus pour le monde de l’entreprise, ils se sont étendus vers le marché des particuliers qui est devenu le marché leader. Et pour cause: si nous sommes loin d’avoir tous besoin d’un téléphone portable sur le lieu de travail, nous avons quasiment tous un portable à la maison. C’est ainsi que l’iPhone a d’abord séduit le grand public et s’est ensuite attaqué au monde de l’entreprise en mettant en avant sa connectivité avec Microsoft Exchange.

Si le marché des smartphones était mené par le marché d’entreprise, Microsoft aurait pu avoir une chance de contrôle en misant sur l’intégration avec l’existant (l’intégration avec Office est l’une des premières fonctionnalités que Redmond a ajoutées à ses ordinateurs de poche). Mais les particuliers se fichent de l’intégration avec les produits Microsoft.

Le produit compte pour faire alliance avec les opérateurs télécom

Microsoft peut essayer de faire comme sur le marché des PC: imposer son produit en signant le plus de partenariats possibles, même si ledit produit ne vaut pas celui d’Apple. Par exemple, les ventes U.S. du Blackberry Curve – distribué par les 4 plus gros opérateurs mobiles – ont dépassé celles de l’iPhone

Mais, si comme le veut la rumeur, Redmond développerait son smartphone avec Verizon, un des gros opérateurs mobiles aux Etats-Unis. Cela l’empêcherait donc de signer avec d’autres opérateurs – tout comme Apple a un partenariat exclusif avec AT&T aux USA.

Mais quoi qu’il en soit, l’attrait du smartphone a beaucoup d’importance. Historiquement les opérateurs mobiles dictaient leurs conditions. Mais avec l’iPhone Apple a changé la donne. La firme à la pomme est en effet le premier constructeur à dicter ses conditions aux opérateurs: c’est ainsi qu’il touche une partie de l’abonnement mobile et a limité le logo de l’opérateur sur l’iPhone – du jamais vu dans cette industrie.

Mais étant donné que l’iPhone a rapporté à AT&T quelques 7 millions d’abonnés, Apple est en bonne position face aux opérateurs. A tel point que Verizon – initialement peu intéressé par les conditions posées par Steve Jobs – serait en négociations avec Apple pour commercialiser deux nouveaux produits: un iPhone allégé et une tablette Internet. Pour Apple cela permettrait d’atteindre un plus grand public.

Il est donc important pour Apple que son smartphone reste à la pointe – c’est sa meilleure arme de négociation. Si Microsoft a moins de problème pour forger des alliances, son smartphone doit cependant être suffisamment bon pour se faire entendre au milieu de toute la concurrence.

Microsoft peut-il créer un iPhone killer?

Redmond va-t-il arriver à sortir un « iPhone killer » comme le voudrait Steve Balmer? Le challenge n’est pas mince. Car pour voler la vedette à Apple il ne suffit pas de sortir un iPhone à la sauce Microsoft mais bel et bien de concevoir un smartphone qui ébahisse les foules.

L’iPhone ne s’est pas rendu célèbre en étant juste un autre smartphone estampillé Apple. Son successeur devra faire de même. Pour voler la vedette à l’iPhone un smartphone doit avoir deux atouts: être novateur et avoir un bon design.

Le design, même s’il est superficiel, est extrêmement important mais n’est pas le point fort de Microsoft. Pas que ce dernier soit incapable de se préoccuper de cet aspect, mais parce que comme beaucoup de compagnies à forte culture d’ingénieur le design n’est pas un réflexe. On s’en préoccupe uniquement si l’on sent que c’est important.

L’autre aspect d’un iPhone killer est l’aspect novateur. Je ne parle pas de petites innovations (fonctionnalités mineures) mais d’innovations majeures – le type qui va faire que les gens ont l’impression d’avoir affaire à un produit à part. Et sur ce point Redmond a encore une fois un handicap.

Comme le design, l’innovation n’est pas centrale chez Microsoft comme elle l’est chez Apple. Redmond ne se préoccupe d’être innovant uniquement lorsque c’est considéré nécessaire. Même avec la majorité du marché des baladeurs MP3 Apple continue sans cesse d’innover sa gamme d’iPod. Internet Explorer, par contre, n’a que très peu évolué une fois le marché du navigateur Web conquis.

L’autre problème est que beaucoup des innovations de Microsoft sont peu visibles. Le Zune a beaucoup de belles fonctionnalités, mais personne n’en parle car elles sont difficiles à expliquer. L’iPhone a fait sensation car ses innovations étaient visibles et sexy. Augmenter la taille de l’écran en utiliser un écran tactile pour simuler un clavier a certes des défauts, mais la méthode est élégante et immédiatement séduisante. Pareil pour les senseurs qui détectent si l’iPhone est à l’horizontale ou à la verticale.

La compatibilité est désormais en faveur d’Apple

Une des raisons pour laquelle Windows a gagné face au Macintosh est la compatibilité. Compatibilité avec n’importe quel ordinateur PC pour commencer, mais également et surtout compatibilité logicielle. Avec Windows on pouvait continuer de faire tourner les applications MS-DOS.

Sur le marché des smartphones, Apple a une bonne longueur d’avance pour ce qui est de la compatibilité logicielle. La firme à la pomme a en effet fêté il y a quelques semaines la milliardième application iPhone/iPod Touch téléchargée de son App Store qui compte désormais quelques 35.000 applications. Le tout en un peu plus de neuf mois.

Qui plus est, selon une étude de la société Compete, les utilisateurs d’iPhone téléchargent beaucoup plus d’applications que les utilisateurs d’autres smartphones. Seuls 3% des utilisateurs d’iPhone eux n’ont jamais téléchargé aucune application – 82% en ont téléchargé plus de 5. Par comparaison, seul un quart des utilisateurs d’autres smartphones ont téléchargé plus de 5 applications, et d’un quart à un tiers n’a jamais rien téléchargé. La simplicité d’installer une application iPhone semble avoir fait des merveilles.

Il reste cependant à savoir si la logithèque grandissante de l’iPhone est suffisante pour verrouiller les utilisateurs. Dans le domaine des consoles de jeux par exemple ce phénomène n’existe pas – le consommateur s’intéresse à la dernière console et se fiche des anciens jeux.

Finalement, l’iPhone jouit d’une certaine compatibilité matérielle: celle des accessoires et périphériques. Avec l’iPod on est certain que tous les périphériques pour baladeur MP3 sont compatibles. La même chose est en train de se produire pour l’iPhone. Si un constructeur automobile travaille à l’heure actuelle sur une intégration entre ses voitures et un smartphone, sur quel smartphone croyez-vous qu’il va travailler en premier?

L’éternel problème du prix

Le perfectionnisme de Steve Jobs fait qu’il a toujours voulu vendre des produits haut de gamme avec des marges confortables. Lorsque l’iPhone a été annoncé, Steve Balmer s’est immédiatement moqué de ce produit, argumentant qu’un smartphone à $400 ne se vendrait pas. Sauf qu’Apple a très rapidement divisé les prix par deux. Si l’iPhone n’est pas gratuit il reste du même ordre de prix que la concurrence.

Un bémol cependant: même si les achats en volume d’Apple lui permettent de négocier des rabais auprès de ses fournisseurs (Steve est un excellent négociateur), le prix restera toujours un handicap pour Apple. Microsoft, lui, est prêt à vendre ses smartphones à perte – comme il a fait pour sa Xbox – pour avoir des parts de marché.

Conclusion

Lorsqu’Apple a lancé le Macintosh en 1984, faisant découvrir au monde l’interface graphique, Microsoft avait déjà 3 ans d’avance. Pas une avance technologique mais une avance stratégique: depuis 1981 la firme de Bill Gates occupait déjà un marché-clé grâce au PC: le marché d’entreprise. C’est ce marché qui lui a permit de conquérir la micro-informatique.

Apple a cette fois non seulement le buzz mais est en avance sur Microsoft: il occupe une très bonne position sur le marché-clé des smartphones: le marché des particuliers.

Mais cela ne veut pas dire que tout est joué. Apple va devoir constamment innover s’il veut éviter que la concurrence le rattrape. Et sur ce point, Microsoft n’est pas forcément son ennemi le plus redoutable. Symbian, le Blackberry et surtout Linux représentent un danger tout aussi grand.