Archive pour novembre 2009

Microsoft et la « Malédiction MS-Office »

27 novembre 2009

Dans plusieurs précédents articles j’ai écrit que si Microsoft s’était spécialisé dans la conquête de marchés déjà occupés, la firme de Bill Gates n’avait jusqu’alors jamais perdu un marché conquéri.

Il en existe peut-être un qui fait exception à la règle: le marché du PDA (Personal Digital Assistant ou assistant numérique personnel). Peut-être car il est difficile d’estimer si Microsoft a conquit se marché dans la mesure où ce dernier a grandement convergé avec celui des smartphones. Quoi qu’il en soit, Windows CE et Windows Mobile – les deux systèmes d’exploitations de Microsoft pour respectivement les PDA et les smartphones – ont tous deux subi une forte baisse de leurs parts de marché. C’est d’autant plus étonnant que Redmond a été présent très tôt sur ce secteur.

Dans les années 90, Palm a fait sensation avec son Palm Pilot. Là où Apple avait lamentablement échoué avec son Newton (l’Apple de John Sculley, pas celui de Steve Jobs), Palm a réussi à lancer le marché du PDA en offrant un produit simple et efficace. Microsoft, étant paranoïaque, a voulu très vite conquérir cette technologie disruptive en sortant Windows CE, système d’exploitation destiné aux PDA. Palm n’a pas longtemps résisté au rouleau-compresseur Microsoft. A son habitude, Redmond a signé des accords avec de nombreux constructeurs (Compaq, HP, etc.). Dans les années 2000 l’avenir de Palm s’est grandement compromis…

Et puis Windows CE et Windows Mobile ont commencé à perdre du terrain, incapables de résister à la concurrence. A l’heure actuelle, Microsoft doit renverser la tendance s’il ne veut pas être définitivement écarté du marché des ordinateurs portables. Même Steve Balmer a concédé être déçu par la dernière mouture de Windows Mobile.

La « malédiction MS-Office »

Pour maîtriser une technologie disruptive il ne suffit pas d’être présent très tôt sur le marché. La difficulté est de s’affranchir de sa propre culture d’entreprise et de voir le marché avec des yeux neufs. Redmond a été victime de ce que j’appelle la malédiction MS-Office: vouloir intégrer coûte que coûte ses nouveaux produits à ses produits existants. Il y a beaucoup de cas pour lesquels cette stratégie c’est révélée payante (MS-Word, Excel, Internet Explorer pour ne citer qu’eux). Mais dans ce cas précis, cela s’est révélé contre-productif.

Lorsqu’il s’est attaqué au marché du PDA, la stratégie de Redmond a en effet été de s’appuyer le plus possible sur ses produits-phare: Windows et MS-Office. Une mini-version de MS-Office (avec synchronisation vers MS-Office installé sur un PC) a été présente dés la toute première version de Windows CE. En d’autres termes, Microsoft n’a pu s’empêcher de voir les ordinateurs de poche comme des PC miniatures. Des outils utilisés sur le lieu de travail. Après tout, cela avait bien marché avec le PC.

Seulement voilà: personne n’est intéressé de travailler sur un document Word ou une feuille Excel avec un écran de quelques centimètres. La principale utilisation professionnelle a été l’email.

Pendant que Microsoft s’évertuait donc à apporter des fonctionnalités dont peu de monde ne voulait, BlackBerry a su faire un excellent travail en se focalisant quasiment exclusivement sur l’email. Le BlackBerry n’a peut-être pas de synchronisation avec Windows, mais sa facilité pour lire et envoyer des emails a séduit de nombreux professionnels.

Par la suite, Redmond s’est fait attaquer à l’autre bout du marché par Apple dont l’iPhone a séduit le grand public. Car même lorsqu’il est payé par l’entreprise, un smartphone est bien souvent utilisé pour d’autres besoins, qu’ils soient personnels (jeux) ou utilitaires (trouver un restaurant dans les environs). En proposant des fonctionnalités axées grand public, l’iPhone a su combler les utilisateurs de smartphones.

Au début des années 80, Bill Gates faisait partie de ceux qui ne voyaient pas l’intérêt à ce que le PC puisse afficher beaucoup de couleurs – tant qu’on avait une poignée de couleurs pour afficher les graphiques d’un tableur, le reste était superflu. 20 ans plus tard, Microsoft a commis la même erreur: se focaliser sur l’utilisation professionnelle. Cela n’a pas été un problème avec le PC, mais cela l’a été avec les ordinateurs de poche.

En d’autres termes, Microsoft s’est focalisé sur les mauvaises fonctionnalités. Il a apporté des fonctionnalités professionnelles qui n’apportaient que peu d’intérêt au détriment de la simplicité d’utilisation (au profit de BlackBerry), mais a complètement ignoré des fonctionnalités grand public (au profit de l’iPhone).

Les domaines où la malédiction MS-Office n’a pas pu s’exercer

Depuis les années 2000, les domaines où Microsoft s’en est le mieux tiré ont été les consoles de jeu vidéo (avec la Xbox 360) et le moteur de recherche en ligne (avec Bing). Certes, Redmond a essuyé plusieurs échecs pour voir un succès relatif – la Nintendo Wii et Google restent les numéros 1 de leur marché respectif. Mais Redmond a toujours mis plusieurs versions avant de réussir – Windows lui-même a mis 3 moutures pour commencer à décoller.

Dans ces deux cas, la « malédiction MS-Office » n’a pas pu s’appliquer car Microsoft n’a tout simplement pas pu proposer une intégration avec MS-Office – cela n’aurait eu aucun sens. Redmond a été forcé de voir ces marchés comme des marchés grand publics, et donc de laisser aux vestiaires sa vision d’entreprise. C’est ainsi qu’avec Bing, Microsoft a plus mis l’accent sur l’aspect visuel que la concurrence – quelque chose qu’il n’est traditionnellement pas habitué à faire.

Certes, Le Zune (le lecteur MP3 de Microsoft) n’a pas l’intégration avec MS-Office non plus et ne semble pas près d’avoir du succès. Mais ne pas souffrir de la malédiction MS-Office n’est en aucun cas une garantie de succès. Dans ce cas-là, Apple semble avoir verrouillé le marché.

Conclusion

De par sa « déformation professionnelle », dés qu’un nouveau produit ressemble de près ou de loin à un ordinateur, Microsoft le considérera toujours comme un ordinateur à part entière. Et donc une plate-forme où MS-Office se doit d’exister.

Le marché des bornes Internet – s’il vient à exister un jour – est un exemple. Ou si, comme la rumeur le prétend, Apple compte sortir une tablette Internet début 2010. Si tel est le cas, il est à parier que Redmond voudra lancer un produit concurrent qui se comportera comme un ordinateur.

Et pourquoi ne le ferait-il pas? Les tablettes actuelles sont à base de Windows Vista, et Microsoft a développé une version spéciale de Windows 7 – nommée Starter Edition – dédiée aux Netbooks. Cette version limite le nombre d’applications que l’on peut lancer en même temps mais permet – dieu merci – de lancer MS-Office. Dans les deux cas, le public à affaire à des ordinateurs – avec un temps de lancement tout sauf immédiat et une certaine maintenance – défragmentation régulière du disque, anti-virus, etc. Je vois bien Microsoft lancer Windows 7 Starter Edition face au futur produit Apple.

Cette attitude est à contraster avec celle d’Apple qui a vu l’iPhone non pas comme un ordinateur mais comme une boite noire – un appareil où l’on n’a qu’à appuyer sur un bouton pour que ça marche. Cupertino a pour cela réécrit complètement le système d’exploitation, n’hésitant pas à sacrifier au passage des fonctionnalités jugées indispensables pour un ordinateur – comme le multi-tâches ou laisser à l’utilisateur le contrôle complet des applications qu’il peut installer. Si Apple sort une tablette Internet, il est à parier qu’ils suivront le même modèle que l’iPhone.

Redmond, de son côté, a beaucoup de difficultés à comprendre qu’on ne puisse parfois pas vouloir, même dans certains cas, de MS-Office ou d’une version complète de Windows.

iPhone et ses concurrents

13 novembre 2009

Aux Etats-Unis, Verizon (premier opérateur télécom cellulaire du pays) vient de sortir son dernier smartphone, le Motorola DROID – un smartphone à base d’Android 2.0, le système d’exploitation mobile de Google.

Signe des temps, la presse a depuis plusieurs semaines spéculée sur la capacité de DROID à être un iPhone killer. Comme le Palm Pre avant lui.

Si le DROID est de bonne facture, il y a peu de chance qu’il fasse beaucoup d’ombre au smartphone d’Apple. Il s’est vendu 100000 DROID le premier week-end. Cela reste peu par rapport à l’iPhone qui dépasse la barrière du million dans un temps comparable pour chaque nouvelle version, mais reste honorable.

Passons en revue les avantages et inconvénients de l’iPhone.

Les points sur lesquels la concurrence peuvent gagner

Il existe certains points sur lesquels la concurrence peut espérer marquer des points face à l’iPhone:

  • Un clavier réel: si utiliser un écran tactile à la fois comme écran et comme clavier (suivant les usages) était une très bonne idée, cela reste difficile de taper avec précision sur un iPhone.
  • Le réseau (suivant les pays): aux Etats-Unis, l’iPhone a un partenariat exclusif avec AT&T. Le problème est que le réseau 3G de ce dernier n’a pas bonne réputation et son abonnement est relativement cher.
  • Le multi-tâches: l’iPhone ne permet pas de garder plusieurs applications en mémoire en même temps et de passer de l’un à l’autre. Un système concurrent multi-tâches serait certes une bonne chose mais certainement pas un avantage suffisant pour faire basculer la balance.

Mais si avoir au moins l’un des trois facteurs risque d’être nécessaire pour être une concurrence sérieuse face à l’iPhone, ces trois plus ne sont en aucun cas suffisants. Le DROID comme le Palm Pre ont à la fois un vrai clavier (tout en restant minces), ne sont pas liés au réseau AT&T et possèdent un système d’exploitation multi-tâches. Et ni l’un ni l’autre n’ont réellement déchaîné les passions.

L’iPhone et sa compatibilité

L’avantage de l’iPhone est bien entendu sa logithèque et liste de matériel.

Mais la compatibilité logicielle n’est pas forcément l’atout indestructible d’Apple. Tout d’abord, la plupart des 100000 applications disponibles pour l’iPhone ne sont que très rarement téléchargées – voire pas du tout. Fidèle à la règle des 80/20, seule une minorité d’applications est populaire. La concurrence n’a donc pas à trouver un équivalent pour toutes les applications disponibles sur l’iPhone. Ensuite, il n’existe encore pas de killer app pour smartphone – un programme tellement extraordinaire qu’il justifie à lui seul l’achat du matériel (comme le tableur en son temps ou le jeu Halo pour Xbox). Cela veut dire que la plupart des applications utilisées ne justifient pas à elles seules de rester sur l’iPhone. En attendant, l’iPhone garde l’avantage, car les utilisateurs savent que n’importe quelle application développée par leur compagnie / magazine / site Web favoris sera disponible pour iPhone.

La compatibilité matérielle risque, elle, de donner plus de fil à retordre pour rattraper Cupertino. Non seulement l’iPhone bénéficie du matériel construit pour l’iPod, mais  si une voiture possède une intégration avec un seul smartphone, lequel pensez-vous sera supporté?

La seule chose qui pourrait jouer en défaveur de l’iPhone est si Cupertino rejette une killer app. On se souvient par exemple de Google Voice qu’Apple a rejeté (les disciples de Steve Jobs ont a depuis affirmé qu’elle n’a pas été rejetée mais est toujours en cours d’évaluation). Si demain une killer app apparaît mais que cette application donne trop de pouvoir aux utilisateurs de smartphone, il est possible qu’Apple passe à côté de l’opportunité et la rejette – lâcher trop de contrôle est quelque chose que Steve Jobs déteste.

Android et la customisation

Le gros risque pour Motorola en utilisant Android reste le risque de diluer son avantage compétitif. D’un côté il bénéficie des investissements de Google – gratuitement, ce qui n’est pas rien. Mais d’un autre côté, n’importe quel autre constructeur peut faire de même. C’est tout le problème de l’intégration horizontale.

J’indiquais dans un précédent article qu’Apple a récemment racheté PlaceBase, un concurrent de Google Maps. Le but est sans doute de fournir aux services de cartographie de l’iPhone des fonctionnalités exclusives. La concurrence, elle, est dépendante de Google pour rester au top. C’est possible – Google peut se permettre d’engloutir des millions si besoin est – mais pas certain. Google comme Apple sont deux compagnies très créatives.

Est-ce qu’utiliser Android signifie saper son avantage compétitif? Pas forcément. La grande question restera de savoir si Android peut être suffisamment customisable.

Apple a pu produire l’iPhone car ils ont pu s’assurer que le système d’exploitation utilise toutes les possibilités du matériel comme un écran tactile / clavier. C’est un facteur critique dans un marché en évolution constante.

Android étant open source, il peut en théorie permettre de telles – en théorie.

Toute personne ayant travaillé sur la customisation de n’importe quel logiciel d’entreprise (CRM, ERP, etc.) vous le dira: il existe parfois un fossé entre la théorie et la pratique en matière de customisation. Est-ce que les customisations peuvent-elles être faciles et rapides à mettre en oeuvre sans briser la future compatibilité?

Imaginons que demain un constructeur de smartphone utilise en exclusivité un écran tactile « à feedback » où l’utilisateur « sente » sous ses doigts l’écran. Android pourra-t-il être customisé de manière facile et rapide pour tirer partie d’un tel écran? Qui plus est, cette customisation fonctionnera-t-elle avec la prochaine version d’Android ou devra-t-elle être réécrite complètement?

L’avenir nous le dira. A moins que la concurrence ne fasse que suivre Apple.

Conclusion

Etant donné les circonstances actuelles, difficile de voir un avenir sombre pour l’iPhone. Apple a le vent en poupe et personne ne semble pouvoir briser son élan.

Qui plus est, Cupertino peut éliminer certains des avantages dont la concurrence bénéficie. En Europe plusieurs pays ont interdit le couplage exclusif d’iPhone à un seul opérateur mobile. Aux Etats-Unis les rumeurs vont bon train sur un iPhone pour le réseau Verizon l’année prochaine.

Si demain Steve Jobs annonce un iPhone avec un vrai clavier, la concurrence est morte. Quand on sait que tous les smartphones sont en gros au même prix (inhabituel pour un produit Apple), quel avantage d’acheter un concurrent? A l’heure actuelle tous les smartphones sont plus ou moins des copies de l’iPhone. A moins qu’un concurrent arrive à créer la sensation avec de nouvelles fonctionnalités (comme Apple l’a fait en 2007 avec l’iPhone), il sera très dur de s’attaquer à la forteresse Apple.

A moins qu’une killer app pour smartphone fasse son apparition – le genre qui viole les règles imposées par Cupertino…

Le reigne du 64-bit

6 novembre 2009

Le passage au 64-bit s’est sérieusement accéléré depuis quelques années.

Les machines 64-bits ne sont pas nouvelles, mais elles ont historiquement été réservées aux serveurs haut de gamme. Le changement côté client s’est fait très discrètement. Depuis quelques années, Microsoft pousse la version 64-bit de son système d’exploitation. Sur les PCs de bureau et portables haut de gamme il est en effet impossible d’obtenir une version de Windows autre que 64-bit. Apple, de son côté, a il y a quelques mois sorti Mac OS X 10.6 « Snow Leopard » qui est la première version 64-bit.

D’où la question que l’on peut se poser: quand va-t-on voir des machines 128 bits?

Regard technique

(Cette section étant relativement technique, les technophobes pourront sauter directement à la conclusion)

On peut se poser la question sur la durée du 64-bit lorsqu’on regarde l’évolution des processeurs.

Très schématiquement, les ordinateurs 8-bit ont démarré dans les années 70 (Apple II, Commodore 64, Sinclair ZX-81). Les ordinateurs 16 bit ont décollé dans les années 80: l’IBM PC AT ainsi que le Macintosh sont sorti en 1984, l’Atari ST et l’Amiga en 1985. Les ordinateurs 32 bits ont décollé dans les années 90 avec les PC à base d’Intel 80386, i486 et Pentium. Les ordinateurs 64-bit, quant à eux, se sont démocratisés cette décennie. On pourrait donc penser que la prochaine décennie va voir le jour des ordinateurs 128-bit.

Pas si vite.

Il existe deux raisons de changer de type de processeur: la capacité de traitement et l’adressage. Un processeur 64-bit peut théoriquement traiter deux fois plus de nombres par cycle qu’un processeur 32-bit – j’insiste sur le « théoriquement » car c’est uniquement si les applications sont optimisées pour ça.

L’autre raison est l’adressage, c’est-à-dire le maximum de mémoire que le processeur / le système d’exploitation et/ou les programmes peuvent gérer. Un processeur 32-bit peut avoir un maximum de 4Go de RAM, ce qui peut devient de plus en plus petit. C’est la principale raison du passage au 64-bit.

Ouverture d’une parenthèse: certains processeurs ne peuvent pas supporter autant de mémoire que théoriquement prévu. Par exemple, l’Intel Core i5 ne supporte qu’un maximum de 16 Go de RAM (l’équivalent de 36-bit), mais est considéré comme un processeur 64-bit dans la mesure où ses registres mémoire sont 64-bit et il supporte les systèmes d’exploitations et applications écrites en 64-bit. Son bus mémoire externe est par contre plus limité. A l’inverse, certaines machines comme le Commodore 128 ou l’Amstrad CPC 6128 (1985) utilisaient un processeur à adressage 16-bit mais étaient livrés avec 128 Ko de mémoire (l’équivalent de 17-bit). Cela n’a cependant été possible que grâce à une bidouille – le processeur continuant à croire qu’il avait 64 Ko de RAM. Fin de la parenthèse.

Or, si l’on regarde bien, l’évolution de la consommation de la mémoire n’est pas si drastique que cela. Les processeurs dits 8-bit, s’ils ne pouvaient pas traiter des nombres plus grand que 255 (2 puissance 8 = 256), avaient en effet un adressage 16-bit leur permettant de gérer jusqu’à 64Ko de RAM (2 puissance 16). Les processeurs 16-bit comme le 80286 (PC AT)  avaient un adressage 24-bit leur permettant d’avoir jusqu’à 16 Mo de RAM (2 puissance 24). Le processeur 68000 (qui a équipé les premiers Macs, l’Atari ST et l’Amiga) était considéré comme un processeur 16/32, c’est-à-dire qu’il supportait des applications à adressage 32-bit.

Les processeurs 32-bit ont eux une capacité de traitement et d’adressage 32-bit et peuvent avoir jusqu’à 4Go de RAM. Les processeurs 64-bit ont un adressage 64-bit et peuvent avoir jusqu’à 16 milliards de Go de RAM (théorique – aucun processeur grand public actuel ne permet à ma connaissance de gérer autant de mémoire)

Lorsqu’on considère l’évolution sous cet angle, ont observe une envolée de l’adressage théorique par rapport aux besoins. Pendant longtemps on a rallongé l’adressage de 8 bits (de 16 à 24, puis de 24 à 32). Mais avec le 64-bit on rallonge l’adressage de pas moins de 32 bits!

En d’autres termes, dans les années 70 les besoins d’adressages étaient plus difficiles à satisfaire que les besoins de calcul. Les premiers programmeurs comme Steve Wozniak (concepteur de l’Apple I et II) ont pu s’accommoder de processeurs ne pouvant pas traiter des entiers plus grand que 255 (encore que, la programmation du 6502 m’a personnellement dégoûté de l’assembleur pendant 20 ans). Mais ils n’auraient pu construire des machines avec seulement 256 octets de mémoire (même le Sinclair ZX-81, considéré comme la 2 CV de son époque, était livré avec 1 Ko de mémoire, mise à jour de 16 Ko fortement recommandée). D’où le besoin d’un adressage 16-bit.

30 ans plus tard, les besoins en calcul sont devenus plus difficiles à satisfaire que les besoins en adressage. Si les processeurs des PC ont rarement un tel besoin de calcul, on utilise des processeurs 128-bit pour des processeurs graphiques ou supercalculateurs. Le processeur Emotion Engine qui équipe les PlayStation 2 et certaines PlayStation 3 possède des registres de calcul 128-bit mais garde un adressage 64-bit.

Risque-t-on d’avoir besoins de processeurs 128-bit dans nos PC pour des raisons de calcul? Peu de chance, dans la mesure où 1) le gros des calculs est fait par des processeurs spécialisés comme le processeur graphique et 2) les processeurs 64-bit continuent à augmenter en performances sans pour autant avoir besoin de passer au 128-bit.

Conclusion

Un Apple II (machine 8-bit, 1977) pouvait avoir un maximum de 64Ko de RAM. Un PC à base de 80286 (machine 16-bit, 1984) pouvait avoir un maximum de 16 Mo de mémoire, soit 256 fois plus. Un PC à base de 80386 / i486 ou Pentium (machine 32-bit) pouvait avoir un maximum de 4 Go de mémoire, soit encore 256 fois plus.

Mais un PC actuel ou les derniers iMac (64-bit) font tourner des systèmes d’exploitation qui peuvent supporter jusqu’à 16 milliards de Go – soit 4 milliards de fois plus qu’une machine 32-bit. Même si l’on parlait en terme de capacité de disque dur cela resterait énorme.

On ne peut jamais rien prédire avec certitude, mais à moins que les particuliers aient soudain besoin d’une application qui fait exploser le besoin en mémoire, le passage au 128-bit n’est pas pour demain – ni même pour la prochaine décennie.

En quoi est-ce que cela nous concerne? Outre le fait que chaque passage à une nouvelle génération de système d’exploitation consomme plus de ressources (un don du ciel pour les fabricants de PC), c’est un autre signe que l’ordinateur de bureau commence petit à petit à offrir plus que ce que la demande a besoin.

Pendant longtemps les disques durs n’avaient jamais assez de place. On achetait des disques durs avec toujours plus de capacités mais on les remplissait tout aussi rapidement. De nos jours, seuls les gens qui stockent beaucoup de vidéos n’ont pas assez de place sur leur disque dur. La plupart d’entre nous n’a plus jamais à regarder combien il existe de place libre.

En d’autres termes, les capacités offertes par les disques durs ont commencé à dépasser les besoins de la demande. Le même phénomène vient d’arriver pour les capacités de mémoire théoriques – pas la quantité de mémoire que nos ordinateurs ont, mais la quantité que leur processeur et système d’exploitation peut gérer.

En 1981, Bill Gates avait affirmé que 640 Kb – la limite de ce que pouvait supporter MS-DOS – serait bien suffisant (les premiers PC étaient livrés avec 16 Ko ou 64 Ko de RAM suivant les modèles). On s’est rapidement aperçu que 640 Ko ne serait pas suffisant bien longtemps. 10 ans plus tard, un maximum de 4 Go semblait énorme (à l’époque, les PC haut de gamme avaient 8 Mo de RAM). Là encore, on a fini par atteindre ce seuil. Mais cette fois-ci, cela prendra un peu plus de temps pour dépasser les capacités du 64-bit.