Archive pour novembre 2010

L’importance de la chance

26 novembre 2010

A l’heure où j’écris ces lignes, tout le monde ici s’apprête à fêter Thanksgiving (j’habite à Boston, aux Etats-Unis). Outre le fait de commémorer une célébration de 1621, beaucoup en profitent pour se rappeler des choses pour lesquelles ils sont reconnaissants. Les fondateurs des géants de l’informatique actuels, tels que Google, Microsoft, Facebook ou autres peuvent être reconnaissant de leur succès. Mais ils devraient être également reconnaissants de la chance qu’ils ont eue.

Très nombreux sont les PDG qui attribuent les bons résultats de leur entreprise à leur seul talent (et réclament à être payés en conséquence), mais blâment des circonstances extérieures en temps de disette. Par exemple, après l’explosion de la bulle des dotcoms, un marché désormais déprimé de l’informatique a été l’explication de nombreux résultats trimestriels moroses dans secteur, et ce pour des entreprises autres que des dotcoms. Mais ces mêmes dirigeants qui ont pointé du doigt des dépenses informatique en berne se sont pourtant attribué le mérite pour les années de croissance avant l’explosion de la bulle.

La chance a plus d’impact qu’on veut le reconnaître. Des succès planétaires tels que Google, Microsoft ou Facebook suivent le principe d’Anna Karenine: ils ne s’expliquent que par une combinaison de plusieurs facteurs, l’un d’entre eux étant la chance.

L’importance de la localisation

Les fondateurs des géants actuels doivent beaucoup au lieu où ils ont grandi, et en particulier à leur université. Larry Page et Sergey Brin, les fondateurs de Google, se sont rencontrés sur le campus de Stanford. Même chose pour David Filo et Jerry Yang, les fondateurs de Yahoo. Le fait que Facebook ait été créé par un étudiant d’Harvard (Mark Zuckerberg) a aidé le site à gagner en popularité (pensez-vous, être en connexion avec des anciens d’Harvard). Bill Gates a rencontré Paul Allen à Lakeside School, une école privée de la région de Seattle. Le fait que cette école soit très huppée font qu’ils ont eu de la chance d’avoir accès à des ordinateurs (extrêmement rare dans les années 60), ce qui leur a permit d’apprendre la programmation. Bill a par la suite rencontré Steve Ballmer à Harvard. Steve Jobs, quant à lui, a rencontré Steve Wozniak au lycée, avec qui il a plus tard fondé Apple. De même, il a grandi dans ce qui est devenu la Silicon Valley. Pas le pire endroit pour créer une startup informatique.

De la même manière, des universités comme Stanford ont aidé des compagnies telles que Sun, Yahoo, Google et bien d’autres à se développer en mettant en contact les étudiants ayant des idées avec des capital risqueurs.

L’importance du timing des technologies

Le timing a également une importance cruciale. Si les fondateurs des géants actuels étaient nés quelques années plus tôt ou plus tard, ils auraient sans doute loupé le marché qui leur a apporté le succès. Page, Brin ou Zuckererg doivent leur succès grâce à une seule invention qui a été introduite au bon moment. S’ils étaient nés 10 ans plus tôt, il seraient arrivés avant le Web, soit trop tôt pour que leur invention ne puisse voir le jour. S’ils étaient nés 10 ans plus tard, quelqu’un d’autre aurait certainement trouvé une idée similaire.

Les cas de Bill Gates et de Steve Jobs sont plus difficiles à juger, car ils ne doivent pas leur succès grâce à leurs compétences techniques. S’ils étaient nés 10 ans plus tôt ils auraient loupé les débuts de la micro-informatique, et auraient sans doute suivi un cursus plus conformiste. Mais s’ils étaient nés 10 ans plus tard, il est possible qu’ils aient tout de même réussi dans d’autres domaines de l’informatique (peut-être pas avec le même succès cependant)

L’importance des changements du marché

Parallèlement au timing des technologies, les changements du marché ont été critiques pour les géants actuels. Google est arrivé à une époque où personne ne s’intéressait plus aux moteurs de recherche, tout le monde étant focalisé sur le portail. Si ça n’avait pas été le cas, Page et Brin auraient vendu leur technologie pour le profit d’un Yahoo ou d’un Microsoft (ils ne voulaient pas créer leur compagnie). C’est parce qu’ils n’ont pas trouvé preneur qu’ils ont décidé de se lancer à créer leur propre entreprise. De même, ils ont bénéficié quelques années plus tard du modèle économique que Bill Gross, fondateur de GoTo.com, a trouvé: faire payer les liens vers des sites Web tiers.

Zuckerberg, de son côté, a bénéficié des erreurs de Friendster et de MySpace.

Microsoft, quant à lui, a bénéficié de la vague PC. Non seulement IBM leur a ouvert la porte sur un marché colossal, mais le PC a changé le mode de fonctionnement des constructeurs de micro-ordinateurs. Il est passé d’un modèle d’intégration horizontal -peu bénéficiaire à Microsoft- à un modèle vertical qui lui allait parfaitement. Et en dehors du PC, aucun des trois autres principaux types d’ordinateur 16-bit des années 80 / 90 n’utilisaient un système d’exploitation Microsoft (le Macintosh d’Apple, l’Atari ST et le Commodore Amiga). Le succès de MS-DOS puis de Windows est essentiellement d’avoir surfé sur la vague du PC. Ce n’est pas Windows qui a gagné contre le Mac, l’Atari ST ou l’Amiga mais bel et bien le PC.

Apple, finalement, a bénéficié du Web qui a permit à Steve Jobs de résurrecter la gamme Macintosh. Car le Web a apporté un très grand nombre « d’applications » au Mac, limitant l’importance de la compatibilité Windows pour les particuliers, le marché de prédilection d’Apple. Si tous les sites Web devaient être portés sur Macintosh comme les logiciels traditionnels, on peut douter que le Mac ait eu beaucoup de succès passé 1997. Et le renouveau du Mac a remplit les caisses d’Apple, lui permettant d’investir dans l’iPod.

Mais les compétences comptent quand même

On aurait cependant tort de croire que tous ces succès ne sont dus qu’à la chance. Comme précédemment indiqué, le succès des géants actuels ne peut s’expliquer que par plusieurs facteurs. Si un seul de ces facteurs avait été absent, ils ne seraient pas devenus les géants qu’ils sont. Tous ont donc une part non négligeable de mérite. Tous ont eu plusieurs concurrents qu’ils ont arrivé à supplanter.

Larry Page et Sergey Brin ont inventé un moteur de recherche qui dépassait tout ce qui existait à l’époque. Zuckerberg a trouvé la combinaison gagnante du réseau social. Et s’il a réussi à rester PDG de sa compagnie, c’est qu’il a su la diriger avec brio.

De la même manière, Bill Gates est un excellent businessman qui a su diriger sa compagnie vers une position fort enviable. Lui et Allen ont eu la vision de créer un langage de programmation BASIC pour les premiers ordinateurs personnels dés 1975. Cette position leur a apporté leur premier succès, mais surtout une opportunité qu’ils ont su saisir: lorsqu’IBM est venu frapper à leur porte pour son IBM PC. Par comparaison, Digital Research a également été contacté en 1980 par IBM –recommandé par Bill Gates lui-même- mais n’était pas intéressé pour faire affaire avec eux. Si Microsoft a souvent bénéficié d’erreurs qu’a commit la concurrence, une des raisons est que Bill Gates – et par extension Microsoft – est quelqu’un d’extrêmement tenace qui n’abandonne jamais. La compagnie a continué à attaquer ses concurrents jusqu’à ce que ces derniers commettent des erreurs: Lotus et Wordperfect qui ont eu du retard dans l’adoption de l’interface graphique, Novell qui est resté cantonné sur son marché, Netscape qui s’est fourvoyé avec un navigateur Java + Corba, etc. Et si Windows a été le pont d’or pour Microsoft, il faut se rappeler que la compagnie avait initialement misé sur le plus d’options possibles dans les années 80: elle continuait de supporter MS-DOS, elle développait OS/2 avec IBM, elle avait racheté les droits de Xenix (un Unix pour PC) et a même essayé de créer un partenariat avec Apple pour licencier MacOS (Steve Jobs a refusé). La compagnie a certes utilisé certaines tactiques douteuses, mais il n’est pas prouvé que ces tactiques aient été déterminantes dans le succès de la compagnie.

Quant à Steve Jobs, il a été le chef d’orchestre de la création de pas moins de quatre produits cultes: l’Apple II, le Macintosh, l’iPod et l’iPhone (il est trop tôt pour se prononcer pour l’iPad). Il a été derrière Pixar. Et il a redressé Apple de manière spectaculaire après son retour en 1997, créant l’un des plus grands comebacks de toute l’histoire de l’informatique. La chance seule n’explique pas une telle réussite.

En d’autres termes, aucun des fondateurs précédemment cités n’ont eu le succès facile, même si certains (comme Bill Gates) sont nés avec une cuillère d’argent dans la bouche (la famille Gates fait partie de « l’aristocratie » de Seattle, d’où Lakeside School). Tous ont mérité leur succès car ils ont travaillé dur et ont réussi à vaincre la concurrence. Mais tous doivent une grosse part de leur succès à la chance.

Ce qui veut dire qu’il existe énormément d’autres personnes dans le monde aussi talentueuses qu’un Bill Gates ou un Steve Jobs, qui ont eu les mêmes idées que Sergey Brin, Larry Page ou Mark Zuckerberg, mais qui n’ont débouché nulle part parce qu’ils sont nés au mauvais endroit ou au mauvais moment. Comme le dit St Exupéry, « C’est un peu, dans chacun de ces hommes, Steve Jobs assassiné. »

Publicités

Plus on a d’information, plus on en veut!

19 novembre 2010

L’argent, la célébrité, le pouvoir sont parmi les trois vices que l’on cite souvent. Plus on en a, plus on en veut.

Sur Internet j’en ajouterais un autre : l’information. Plus une compagnie a d’information sur les internautes, plus elle en veut. Les deux exemples les plus criants sont Facebook et Google, car tous deux ont défrayé la chronique avec leur pratiques parfois douteuses ou les déclarations pour le moins bizarres de leur PDG.

Facebook a dés le début été peu scrupuleux sur l’aspect privé de l’information. Avec par exemple son programme Beacon, lancé en 2007 et abandonné en 2009. L’idée était de transmettre des informations de sites partenaires à Facebook – sans l’accord explicite des utilisateurs. C’est ainsi qu’aux Etats-Unis, certains internautes louant une vidéo sur le site de Blockbuster (une compagnie de location vidéo) ont vu un ajout sur leur mur Facebook indiquant à leur contacts la vidéo qu’ils avaient loué (espérons qu’ils n’avaient pas loué de vidéo X ou de Oui-Oui chez les Schtroumpfs). Malgré la controverse quasi-immédiate, Facebook a mis deux ans pour mettre fin au programme. De la même manière, Facebook sauvegarde tous les commentaires que vous entrez sur le site toutes les 15 minutes – même si vous les effacez par la suite.

Il faut dire qu’avoir un fondateur et PDG qui pense que l’ère de l’intimité est terminée n’aide pas. Zuckerberg a même été jusqu’à dire que maintenir des identités séparées (une pour le travail, une pour ses amis) revenait à mentir.

Google, quant à lui, n’est pas en reste. Les Google Cars qui sillonnent les rues du monde entier pour alimenter les images de Google Street View n’ont pas toujours été du goût de tout le monde. Et le géant de la recherche en ligne a été mis dans l’embarras lorsqu’il s’est avéré que ces mêmes voitures prenaient note de tous les réseaux Wi-Fi ouverts qu’ils voyaient (pas de bol, les voitures étaient « accidentellement » équipées de programmes qui détectaient les réseaux Wi-Fi). Son PDG, Eric Schmidt, n’a pas aidé. Il semble avoir pris la grosse tête avec quelques petites phrases malheureuses :  « We know where you are. We know where you’ve been. We can more or less know what you’re thinking about. » ou “We can suggest what you should do next, what you care about. Imagine: We know where you are, we know what you like.” L’affirmation est non seulement fausse (non, Google ne sait pas à quoi l’on pense et tout ce que l’on aime) mais fait penser à du harcèlement.

Schmidt comme Zuckerberg ne sont sans doute pas les monstres qu’ils paraissent. Ils pensent sans doute que leurs actions sont louables. L’idée de Beacon était de faciliter le partage d’informations avec ses connexions sur un produit que l’on vient d’acheter -quelque chose que l’on fait tous naturellement. De même, Schmidt a sans doute les meilleures intentions du monde en pensant aider les utilisateurs d’Android. Mais l’enfer est pavé de bonnes intentions, et les deux hommes oublient de demander l’autorisation à leurs utilisateurs avant de mettre en place leurs grandes idées.

Les deux PDG ont de même une certaine part d’hypocrisie. Eric Schmidt a par exemple mis un reporter sur la liste noire de Google parce qu’il avait publié des informations personnelles sur Schmidt… trouvées sur Google. Zuckerberg, quant à lui, pense peut-être que l’intimité sur Internet est terminée, il n’empêche que son profil Facebook n’est pas ouvert à tout le monde. Et je doute qu’il aimerait que sa présence entière sur Internet (site Web visités, conversations électroniques) soit publique.

Collecter l’information et collecter l’information

Il existe plusieurs niveaux de collecte d’information. Certaines sont acceptables, d’autres pas. La limite est cependant parfois floue.

Par exemple, une des spécialités de Google est d’analyser des grandes quantités de données pour en tirer des informations. C’est par exemple en analysant les données en provenance du GPS des smartphones Android que Google arrive à déterminer le trafic routier. Jusque là, rien d’anormal. C’est le même principe qu’un hélicoptère qui observe du ciel le trafic pour trouver les bouchons.

Le problème est si l’hélicoptère commence à nous suivre, prend note des mouvements de notre voiture et nous suggère des parcours alternatifs. Nous serions sans doute plus compréhensifs si c’était notre GPS qui faisait le même travail et proposait le même parcours alternatif. La différence ? Il s’agit de notre GPS, présent dans notre voiture. Lorsqu’une entité extérieure nous révèle en connaître beaucoup sur nous, un sentiment de gêne s’installe. Surtout si elle en sait bien plus que l’on ne pensait. Pour prendre une analogie, il n’y a rien de mal à ce qu’un passager (humain) nous suggère un parcours alternatif en fonction du trajet déjà effectué. Le passager était dans la voiture dés le début du trajet et il est normal qu’il sache où l’on aille. Par contre, si un automobiliste inconnu nous suggère à un feu rouge le même trajet, il y a de quoi se poser des questions. De quoi se mêle-t-il ? Comment sait-il où on a été et où l’on va ?

Les sentiments de contrôle et de transparence sont donc importants. Ca et l’absence de surprise. En d’autres termes, ne pas être surpris qu’un service en sache autant sur nous.

Par exemple, Amazon.com propose des articles basés sur nos achats précédents. Rien de bien méchant car on s’attend à ce que la compagnie sache ce que l’on a acheté chez elle (absence de surprise). Qui plus est, le site nous permet facilement de savoir sur quels critères il se base (transparence) et de modifier les critères (contrôle).

Lorsque Google a lancé AdWords, affichant des publicités à côté des résultats de notre recherche, peu de personnes ont été gênées. Le processus est transparent (on voit tout de suite que les annonces sont liées aux mot-clés entrés). La recherche Web étant relativement nouvelle, les utilisateurs n’ont pas été choqués que le service utilise un tel principe.

Par contre, lorsque Google a utilisé exactement le même principe avec Gmail, beaucoup se sont demandé si la compagnie n’allait pas trop loin. La grosse différence est que l’on est habitué à ce que les conversations soient privées. Toute intrusion, même par un robot qui ne regarde que les mots-clés, peut créer une (mauvaise) surprise.

Mais lorsque Facebook a lancé le programme Beacon, la limite a été très clairement franchie. Beacon a été activé par défaut, sans que Facebook ne demande l’accord de ses utilisateurs, les consulte ni même ne prenne le soin de les avertir ! Aucune transparence, grosse surprise (comment savent-ils quelle vidéo j’ai loué !!!!) et peu de contrôle (la manière de désactiver Beacon a été très obscure)

Conclusion

Vouloir aider les possesseurs d’Android n’est pas forcément une mauvaise idée. Encore faut-il s’assurer que les utilisateurs ont un sentiment de transparence, de contrôle et SURTOUT qu’ils n’aient pas de mauvaise surprise.

Mais je ne suis pas convaincu que ni Facebook ni Google ne comprennent. Les deux compagnies doivent certainement se demander pourquoi on leur tombe « injustement » dessus. Après tout, elles essaient d’améliorer la vie des gens.

Il faut comprendre que les deux géants ont la collecte d’informations comme raison d’être. Google a réellement décollé financièrement en liant des publicités avec nos recherches sur son site. Facebook a été créé pour collecter le plus d’informations possible sur ses utilisateurs (pensée du moment, photos, etc.). Le fait que les deux compagnies cherchent à collecter plus d’information sur nous et cherchent à automatiser le processus (jusqu’alors, ce sont les utilisateurs qui entrent les informations) n’est qu’une étape logique à leurs yeux. Plus on a d’information, plus on en veut, et plus on oublie que la manière de collecter de l’information compte.

Quand on a un marteau en main, tout ressemble à un clou.

Le principe d’Anna Karenine

12 novembre 2010

Le principe d’Anna Karenine est tiré de cette fameuse phrase du roman de Tolstoï : « Toutes les familles heureuses se ressemblent. Les familles malheureuses sont malheureuses chacune à leur manière. » En d’autres termes, le succès demande que plusieurs conditions soient réunies. Une seule condition manquée est suffisante pour conduire à l’échec.

Et on peut appliquer ce principe à de nombreux systèmes, y compris en informatique.

Des systèmes de type « Karenine » ne fonctionnent que si TOUS les éléments marchent comme prévu. Si un seul élément manque, le système va échouer.

Mais tous les systèmes ne suivent pas ce principe, en particulier ceux centrés sur les êtres humains. Prenons l’exemple suivant : quelqu’un veut noter quelque chose sur un bout de papier. Pour qu’il y arrive, il faut que TOUTES les méthodes essayées échouent : pas de stylo, ni immédiatement disponible, ni chez le voisin. L’être humain va même tenter beaucoup de choses « non scriptées », comme demander à un inconnu dans la rue (même s’il n’a jamais fait une telle chose) ou s’appeler avec son portable pour laisser la note sur sa propre messagerie vocale.

Les systèmes informatiques, par contre, sont dans leur très grande majorité de type « Karenine ». Un programme fonctionnant comme un script, il faut que TOUS les éléments du script fonctionnent sans accroc. Si un seul pépin survient, le programme échoue. Dans le meilleur des cas il affiche une erreur, dans le pire des cas il plante. On pourrait rétorquer qu’un script peut prendre en compte plusieurs scénarios, mais coder les diverses possibilités en dur ne gère pas l’imprévu.

En fait, n’importe quel système est un peu « Karenine » et un peu « non-Karenine » et est une conjonction de « et » et de « ou ». Par exemple :

Pour pourvoir écrire une note il faut qu’on ait :
(un stylo OU un crayon OU que le voisin ait un stylo) ET
(que l’on ait du papier OU que le voisin ait du papier)

Un système est donc plus ou moins de type « Karenine ». Mais cela dépend également du point de vue où l’on se place. Un virus en attachement d’un email qui tente de se propager sur une machine ne réussira que si plusieurs conditions sont remplies (système « Karenine ») : que le serveur d’email ne le détecte pas, que l’utilisateur exécute l’attachement, que la plate-forme soit compatible avec le virus, que l’anti-virus local ne le détecte pas, etc. Si l’on se place du point de vue de l’utilisateur par contre, sa machine n’est corrompue que si toutes les conditions précédemment citées sont réunies (non-Karenine). Mais si l’on se place du point de vue de l’utilisateur sur le long terme, on retombe sur un système « Karenine » : pour que la machine ne soit pas corrompue il faut que TOUTES les attaques soient déjouées.

L’informatique a cependant quelques cas de systèmes « non-Karenine ». Les systèmes haute disponibilité sont un exemple. Les disques durs de type RAID 5, par exemple, stockent les données sur une séries de disques, mais ont un disque dur supplémentaire utilisé comme disque redondant. Si n’importe quel des disques tombe en panne, le RAID peut recréer les données du disque perdu avec les disques restants. L’idée étant que les probabilités que deux disques lâchent en même temps sont quasi-nulles.

Autre exemple : Internet. TCP et IP, deux des principaux protocoles utilisés par Internet, gèrent les pannes. IP gère le routage des paquets sur le réseau. Si une node du réseau est hors service (même pendant une communication), le paquet est rerouté et prend un chemin différent. De la même manière, TCP s’assure que tous les paquets d’un même message sont bien arrivés, les remet dans l’ordre si besoin est, et redemande à l’expériteur de renvoyer un paquet s’il est perdu.

Quel type de système est le plus stable ?

Un système « non-Karenine » est en théorie bien plus stable qu’un système « Karenine ». En pratique cependant, il est difficile de trancher.

La raison est dûe à la nature humaine : un système « non-Karenine » donne en effet un faux semblant de sécurité. Prenons l’exemple de l’accident de la centrale nucléaire de Three-Mile Island de 1979 (dans l’Est des Etats-Unis). L’accident a été causé parce qu’une série de pannes se sont superposées. Un des réacteurs tournait à pleine capacité car l’autre réacteur était éteint pour refaire le plein ; Un défaut mécanique a fait qu’une des pompes n’a pas fonctionné ; Il y avait d’autres pompes, mais parce que les valves ont été fermées pour maintenance elles n’ont pas pu fonctionner, et ainsi de suite.

Quelles sont les chances pour que cela arrive ? Sur le papier, très peu. Mais étant donné que l’on avait affaire à un système de type « non-Karenine » avec plusieurs systèmes de secours, le personnel n’a pas hésité à effectuer en même temps la maintenance de deux des éléments critiques (un des réacteurs et les valves)

Même cas pour un disque RAID 5. Les probabilités pour que deux disques lâchent en même temps sont infimes, non ? Infimes mais pas pas nulles. Quand on prend le nombre de disques RAID 5 déployés dans le monde, il y a statistiquement bien plus de chances qu’une unité RAID quelque part perde deux disques à peu d’intervalle (auquel cas toutes les données du RAID sont perdues). Et si l’administrateur prend son temps pour remplacer le disque défectueux (pourquoi se presser, ce n’est pas tous les jours qu’un disque tombe en panne) le risque augmente sensiblement. Le risque total n’est pas énorme, mais l’utilisateur qui perd ses données ne sera pas réconforté pour autant – d’autant plus que le RAID 5 était sensé éviter ce genre d’erreur ! Une sauvegarde ? Pourquoi une sauvegarde ? Les données sur le RAID étaient sensées être sécurisées.

C’est la raison pour laquelle les gens perdent tant de données chaque année. Tant que ça fonctionne on ne se soucie pas de faire une sauvegarde.

Pour prendre un exemple personnel, je ne me suis décidé à être sérieux avec la sauvegarde de mes données le jour où j’ai acheté un ordinateur équipé de deux disques en RAID 0. Si cette configuration est très rapide, si l’un seul des deux disques lâche je perds toutes mes données, doublant le risque de panne (système « Karenine »). C’est ce risque supplémentaire qui m’a fait me remuer pour mettre en place un système de sauvegarde. Pendant des années, si mon disque avait lâché j’aurais perdu des données relativement critiques.

Les systèmes Karenine sont beaucoup moins stables, mais de ce fait nous mettent la pression pour prendre les risques plus au sérieux. Les systèmes informatiques qui doivent avoir un temps d’arrêt minime sont efficaces uniquement car/quand les équipes d’administration sont paranoïaques. Pour une haute disponibilité de haut niveau, il faut non seulement plusieurs systèmes redondants mais également des procédures strictes. Au delà d’un certain temps minimum d’arrêt par an, il faut prendre en compte les catastrophes naturelles, les cas de malveillance (piratage, ex-employé revanchard), les erreurs humaines, etc. Certains poussent le vice jusqu’à utiliser différentes versions du système d’exploitation et leur application sur les différentes machines de secours (au cas où il s’agisse d’un bug au niveau du système d’exploitation, une machine de secours avec le même OS risque de reproduire les mêmes résultats).

Mais on n’applique que rarement de telles procédures, car elles sont souvent trop contraignantes face au risque qui semble lointain… Dans les années 80, un satellite soviétique avait eu pour ordre d’effectuer une rotation. Cette rotation avait mis à l’ombre ses panneaux solaires, privant le satellite de toute source de courant et le condamnant pour toujours. L’ordre avait pourtant été signé par une douzaine de « responsable », chacun faisant confiance aux autres responsables.

Des théories expliquent que l’on ne peut pas arriver à un risque zéro, car dés que les risques diminuent, la nature humaine contrebalance en prenant plus de risques. Inventez une voiture qui évite certains accidents, et les gens seront moins prudents sur les routes…

Microsoft et l’innovation

5 novembre 2010

Un thème de plus en plus récurrent dans la presse est de critiquer Microsoft et particulièrement Steve Ballmer. Microsoft a l’air d’une compagnie en phase terminale dit Information Week, Microsoft est une marque consommateur qui meurt clame CNN Money, etc.

Paradoxalement, le problème n’est pas l’avenir financier de Redmond. Les prévisions semblent excellentes pour les années à venir. Tous les gens qui ont évité de passer à Vista vont être forcés tôt ou tard à migrer sous Windows 7. Des centaines de millions d’ordinateur sous Windows XP arrivent en effet en fin de vie. De confortables revenus en perspective pour Redmond.

Le problème est un problème de perception et surtout d’influence sur le marché de l’informatique. Microsoft n’a pas eu de succès majeur avec des nouveaux produits depuis plus de 10 ans – depuis qu’il a enterré Netscape. Internet Explorer ne lui a rapporté aucuns revenus supplémentaires et vient d’ailleurs de repasser sous la barre des 50% de parts de marché. Apple vient de dépasser Microsoft en termes de revenus : $65 milliards pour l’année fiscale 2010 contre $62 milliards. Pire, la firme à la pomme se rapproche en termes de profits ($14 milliards contre $18,7 milliards). Un comble quand on sait qu’Apple vend du matériel alors que Microsoft vend principalement du logiciel et que ses deux produits phare – Windows et MS Office – ont des marges de l’ordre de 80%.

Comment cultiver une image d’innovateur

L’un des reproches que l’on fait à Redmond est de rester sur son monde du PC et de ne pas savoir innover.

Redmond sait pourtant être novateur quand il veut, mais d’une manière pas des plus visibles. Des compagnies telles qu’Apple ou Google ont su sortir des produits ou services que l’on peut qualifier d’innovants : l’iPhone, Google Maps, Gmail, l’iPad, etc. Microsoft a tendance à sortir des fonctionnalités novatrices.

Or pour être considéré comme novateur, il faut sortir un produit qui déclasse tout ce qui existait jusqu’alors. Etre le premier sur un concept ne suffit pas. Microsoft a tenté d’occuper le marché des tablettes depuis 9 ans, sans succès. Apple a par contre trouvé la formule gagnante du premier coup, ravissant du coup le titre d’innovateur à Redmond. Pareil pour Nintendo et sa console de jeux Wii.

Le Zune comme Bing ont tout deux apporté leur lot d’innovations. Mais pas suffisamment pour qu’ils soient considérés être des produits novateurs en tant que tel. Lorsque l’iPhone est sorti, il a créé la sensation car il apportait plusieurs fonctionnalités : utiliser l’écran comme clavier virtuel, utiliser des accéléromètres, etc. Mais la somme de toutes ses innovations ont formé un tout qui ont rendu l’iPhone un produit à part. Le Zune a certes des fonctionnalités que l’iPod n’a pas, mais rien qui ne place le Zune au-delà de la concurrence. Pareil pour Windows Phone 7 ou Bing. Ce dernier a fourni certaines fonctionnalités que Google n’offrait pas – Google a par exemple copié l’interface pour la recherche d’images. Mais la recherche d’image n’est qu’un élément d’un moteur de recherche et n’est pas suffisant pour ébahir les foules.

Autre petit détail qui a son importance, le design. L’iPod dit « classique » a un look presque mythique qui a été repris par tout le monde pour symboliser un lecteur MP3 : des coins arrondis, un écran et un cercle pour représenter la roulette. Google s’est démarqué de la concurrence avec un look simple et épuré. Et si Google Maps a enterré la concurrence en proposant un service au-delà de ce que MapQuest ou Yahoo Maps proposaient, le service a fourni une carte de fort belle facture. Les routes clairement détaillées, pas d’effet de pixellisation, etc. Le Zune n’a par exemple jamais eu de look novateur – ni les smartphones à base de Windows Phone 7.

Autre exemple, celui de la saisie. Apple a introduit des innovations comme le Magic Trackpad. Microsoft, lui, a le Ergonomic Keyboard qui permet d’éviter de se ruiner les poignets en tapant au clavier. Les deux innovations sont toutes les deux intéressantes. Mais quelle est celle qui va le plus contribuer à une image d’innovateur ? Certainement pas le clavier de Microsoft – qui n’a d’ailleurs jamais eu un succès. Pas que l’Ergonomic Keyboard soit peu utile – je n’utilise que cela pour ménager mes poignets – mais ce n’est pas une innovation sexy.

L’avenir dira si la Xbox Kinect, qui vient tout juste de sortir, fera partie des produits innovants ou pas. Cet accessoire pour la Xbox va plus loin que la Wii et détecte les mouvements sans nécessiter de contrôleur. D’un côté, c’est Nintendo qui a réellement lancé la vague de la détection de mouvement. Mais tout dépend de l’expérience de jeu que fourni Kinect. A-t-on l’impression d’un changement radical comme avec la Wii, ou de quelque chose du même ordre que la Wii ? Affaire à suivre…

Motivation d’innover

Une des raisons des problèmes de Microsoft à innover est que, trop souvent, ils s’attaquent à un marché parce qu’ils le considèrent stratégique et non pas parce qu’ils veulent améliorer ce qui existe déjà.

Lorsque Google s’est lancé sur le marché du moteur de recherche, c’était parce que ses fondateurs avaient découvert un algorithme qui surclassait les moteurs de l’époque. Lorsqu’Apple s’est lancé sur le marché du smartphone, c’est parce que Steve Jobs trouvait qu’aucun smartphone n’était satisfaisant.

Mais lorsque Microsoft s’est lancé sur le marché du navigateur Web ou du moteur de recherche, c’était respectivement parce que Bill Gates craignait que le navigateur soit une menace pour Windows, et parce que Steve Ballmer a salivé devant les profits de Google. PAS parce qu’ils voulaient améliorer l’offre existante. Microsoft a d’abord ciblé le marché et ensuite s’est demandé quelles fonctionnalités à trouver. Ces deux produits n’ont jamais été particulièrement novateurs. Internet Explorer s’est imposé plus grâce aux pratiques douteuses de Microsoft et parce que Netscape s’est fourvoyé dans la mauvaise direction avec Navigator 4. IE a d’ailleurs grandement cessé toute innovation après avoir enterré Netscape. Ce n’est que lorsque Firefox a commencé à grignoter des parts de marché qu’IE a concéder à fournir les mêmes fonctionnalités que la concurrence.

Pour être tout à fait honnête cependant, Google n’a pas grandement amélioré son moteur de recherche depuis sa sortie. Mais au moins le service initial a apporté une innovation majeure.

Victime de son succès

Mais on aurait tort de dire que Microsoft est dirigé par des incompétents. Bill Gates comme Steve Ballmer ont mené la compagnie vers le succès. Que c’est-il donc passé ?

Revenons sur l’histoire de Microsoft. Son premier succès a été MS-BASIC, un langage de programmation dans les années 70. Mais le produit qui a véritablement fait décoller la firme de Bill Gates a été MS-DOS (1981) qui a surfé sur la vague PC. Par la suite, quasiment tous les autres succès de Microsoft se sont appuyés sur les produits précédents. Windows s’est par exemple appuyé sur MS-DOS au lieu de vouloir devenir un système d’exploitation à part entière comme OS/2. MS-Office s’est appuyé sur Windows pour devenir la suite bureautique dominante. Windows a surfé sur la vague PC pour s’attaquer au marché du serveur sous la forme de Windows NT, damant le pion à Novell. Et Microsoft s’est encore une fois appuyé sur Windows pour imposer Internet Explorer face à Netscape Navigator.

Et pendant longtemps, toutes les tentatives pour lancer un nouveau produit sans s’appuyer sur ses bases existantes ont été des échecs. Microsoft était impliqué dans le développement d’OS/2 et avait racheté Xenix, un Unix sur PC, mais ces deux systèmes d’exploitation n’ont été nulle part. Sous MS-DOS, le traitement de texte et le tableur de Microsoft n’ont jamais réussi à ravir la vedette à WordPerfect et Lotus 1-2-3. Ce n’est que lorsque ces derniers ont loupé le tournant Windows que Microsoft a réussi à s’accaparer le marché des suites bureautiques. De la même manière, Microsoft LAN Manager n’a jamais réussi à ébranler l’hégémonie Novell Netware. Ce n’est qu’avec Windows NT que Redmond a réussi à enterrer Netware (une exception notable est la Xbox. Mais sur ce terrain, Microsoft a été obligé de ne pas tout lier à Windows, ce dernier n’était vraiment pas adapté pour s’attaquer à la PlayStation)

Dans ces conditions, pourquoi changer une méthode qui gagne ?

Microsoft s’est donc appuyé sur Windows pour s’attaquer au marché de l’informatique mobile. Windows CE et Windows Mobile ont joué la carte de l’intégration avec Office et Exchange, même si cette stratégie s’est révélée contre-productive. Les tablettes PC, quant à elles, ont utilisé tout bonnement une version de Windows. Et pendant de nombreuses années cette stratégie a relativement bien marché. Redmond a réussi à enterrer Palm et eu un succès relatif avec Windows Mobile, même s’il n’a pas enrayé l’ascension du BlackBerry. Les tablettes PC ont fait un bide mais n’ont pas vu apparaitre de concurrent sérieux, ce que recherchait avant tout Microsoft.

En d’autres termes, le marché de l’informatique mobile semblait sous contrôle jusqu’à ce qu’Apple dévoile l’iPhone il y de ça seulement 3 ans et l’iPad cette année. Or 3 ans est une période relativement courte pour mettre à la corbeille une stratégie qui a porté ses fruits pendant plus de 25 ans.

Que peut faire Microsoft ?

Comme je l’ai déjà écrit, Microsoft ne peut plus utiliser les méthodes du passé avec le même succès, et n’a pas la culture idéale pour le marché grand public.

Microsoft a besoin d’une vision pour ses produits grand public. Or si Steve Ballmer est un génie des nombres, mais n’est pas quelqu’un qui peut « sentir » le marché grand public – Bill Gates n’est guère mieux sur ce côté. Comme l’a dit Steve Jobs, « Microsoft n’a aucun goût »

Mais remplacer Ballmer n’est pas la meilleure solution non plus. Son successeur n’aurait en effet pas la légitimité de Ballmer ou Gates pour diriger la compagnie et changer sa culture.

L’idéal serait que Ballmer se trouve un conseiller qui devienne ses yeux sur le marché du grand public. Quelqu’un en qui il ait suffisamment confiance pour suivre presque aveuglément ses conseils. Et quelqu’un qui ait une personnalité suffisamment forte pour tenir tête à Steve (pas une mince affaire). Ce conseiller trouve comment améliorer les produits Microsoft et qu’ils soient véritablement novateurs, et Ballmer s’occupe de les appliquer, car lui seul a la légitimité et la force de caractère pour imposer un changement au sein de Microsoft.

Où trouver une telle personne ? Sans doute pas à l’intérieur de Microsoft. Certes, Redmond a connu un succès relatif avec la Xbox 360, mais ce succès n’est pas dû grâce à l’innovation, mais grandement parce que Microsoft a eu la bonne idée de racheter l’éditeur de Halo, la killer app de la console.

L’une des personnes les plus proches de Steve Jobs au sein d’Apple est Jonathan Ive, un designer britannique. Pour Bill Gates cela a été Nathan Myhrvold. Steve Ballmer à besoin de son propre conseiller, cette fois orienté grand public.