Archive pour décembre 2010

Le cycle simplicité / complexité

31 décembre 2010

Considérons les prédictions passées suivantes :

  • Lorsque l’interface graphique s’est démocratisée dans les années 80, on pensait que l’on aurait moins à former les gens à l’informatique. Avec l’interface graphique, l’utilisation des applications serait désormais intuitive. On n’aurait plus qu’à apprendre comment fonctionne l’interface graphique et non plus une application en particulier.
  • Les premières versions de Windows NT n’étaient pas livrées avec un défragmenteur de disque dur. La raison est que son nouveau système de fichiers, NTFS, est bien plus résistant à la fragmentation de fichiers que celui de MS-DOS.
  • Windows NT a également introduit un système de registre permettant une meilleure gestion des données systèmes, que l’on pensait être le remplacement idéal des fichiers WIN.ini et SYSTEM.ini de Windows 3.1.
  • La programmation orientée objet était sensée simplifier la programmation.

Qu’ont toutes ces prédictions en commun ? Elles se sont avérées fausses du fait de notre tendance à complexifier les choses à outrances.

Dans un précédent article, j’expliquais pourquoi on ne peut pas avoir de risque zéro, car dés que l’on diminue le risque, la nature humaine va prendre plus de risques jusqu’à atteindre un risque maximum jugé acceptable. Le même principe s’applique à la complexité. Dés que l’on simplifie les choses d’un côté, la nature humaine va vouloir les complexifier d’un autre jusqu’à ce que l’on atteigne un seuil de frustration. Sur un ordinateur, une fonctionnalité est généralement accessible en un nombre limité d’actions (click de souris, raccourci clavier, etc.). Si quelqu’un trouve un moyen de réduire le nombre d’actions, d’autres trouveront le moyen de « réutiliser » les actions économisées pour ajouter plus de fonctionnalités.

Exemple de l’interface graphique

Les prédictions sur l’aspect « intuitif » de l’interface graphique sont apparues à une époque où les programmes avaient peu de fonctionnalités, mais des fonctionnalités peu pratiques à utiliser. Les premières applications bureautique pour PC utilisaient tellement les touches de fonction qu’elles étaient livrées avec un pense-bête en carton que l’on posait sur le clavier pour se rappeler toutes les combinaisons (Control + F11 pour telle fonction, Shift + F3 pour une autre, etc.) Ne serait-ce que naviguer au sein des menus n’était pas toujours des plus intuitifs.

L’interface graphique a simplifié tout cela, mais du même coup a ouvert la porte à plus de complexité. La dernière version de MS-Office n’est pas forcément des plus faciles à utiliser car il est facile de se perdre dans le grand nombre de fonctionnalités. Enfin, l’interface graphique a permit la création de programmes tels que Photoshop ou GIMP, des programmes de manipulation d’images fort puissants mais tout sauf intuitifs…

Avec l’iPad, Steve Jobs a décidé d’apporter un degré de simplicité à l’informatique. Mais il ne faut pas se leurrer, chaque génération d’application iPad va tenter de faire plus que la précédente. La complexité sera différente. Il ne s’agira plus de savoir comment configurer le système ou d’installer tel ou tel pilote, mais par exemple d’avoir -littéralement- le bon doigté pour utiliser les applications.

Exemple de Windows

De la même manière, si NTFS a diminué la fragmentation des fichiers sur le disque dur, c’était compter sans l’explosion du nombre de fichiers sur notre ordinateur. Si bien que Microsoft a réintroduit le défragmenteur de disque quelques années plus tard.

Même problème pour le système de registre. Le but était d’éviter le système antique des fichiers de configuration WIN.ini et SYSTEM.ini de Windows 3.1, deux fichiers au format texte que tous les programmes modifiaient à volonté. Mais en offrant une meilleure gestion des informations systèmes, le système de registre a provoqué une explosion d’abus – et les programmes Microsoft sont les premiers fautifs. A tel point que le système de registre est à l’heure actuelle le talon d’Achille de Windows. Les programmes peuvent toujours y mettre la pagaille. Il est par contre devenu tellement complexe qu’il est très difficile de le vérifier manuellement, comme c’était possible du temps de Windows 3.1. Qui plus est, sa fragmentation au fil du temps fait que Windows est de plus en plus lent au fur et à mesure – et Microsoft n’a toujours pas livré un outil de défragmenter les registres Windows.

L’exemple de la programmation

La programmation a été également sujette à ce phénomène, et a très souvent requis le maximum des capacités intellectuelles des développeurs – quel que soit le langage de programmation.

Les premiers programmes étaient écrits sur des cartes perforées sous forme binaire, ce qui limitait le type de programme qu’un développeur pouvait écrire. Avec le temps, des langages plus faciles à utiliser sont apparus (Cobol, C, Pascal, etc.). Mais leur plus grande facilité a permit l’écriture de programmes de plus en plus gros. La complexité s’est déplacée, la difficulté n’étant plus d’écrire en binaire du code de taille modeste sur une carte perforée, mais de se souvenir de ce que font toutes les parties d’un gros programme, même s’il est écrit en un langage plus lisible.

C’est pour faire face à la taille grandissante des programmes que la programmation orientée objet est apparue, avec pour but d’organiser le code et de le réutiliser autant que possible. Là encore, une meilleure organisation a permit l’écriture de programmes plus importants, sans pour autant diminuer la complexité globale. Certaines fonctionnalités de certains langages objet ont été tellement abusées qu’elles ont contribué à écrire du code difficilement maintenable. C’est le cas du C++, dont l’héritage multiple et la surcharge d’opérateurs ont rendu le langage complexe à maîtriser car il parfois difficile de prévoir les effets qui vont se produire. Qui plus est, l’abus de classes en tout genre (en particulier avec l’héritage multiple) peut éparpiller le code sur beaucoup trop de fichiers.

C’est pour remédier à ce problème qu’un développeur de Sun Microsystems, James Golsing, a développé Java dans les années 90. Java a repris la syntaxe du C++ en éliminant ses fonctionnalités les plus compliquées. Mais une fois de plus, la complexité n’a pas disparu mais s’est déplacée. Car Java s’est enrichi de nombreuses autres fonctionnalités de plus haut niveau. Si le langage de base de Java est plus simple que le C++, Java a tout un tas de fonctionnalités de plus haut niveau, comme utiliser des protocoles de communication (TCP/IP, JSON, etc.), manipuler une interface graphique, etc. Ces fonctionnalités sont certes les bienvenues mais sont parfois un peu trop complexes (comme les Enterprise Java Beans) ou demandant d’apprendre le fonctionnement de beaucoup de classes (comme pour le développement graphique). Au final, si maîtriser le langage Java de base est relativement facile, connaître les spécifications complètes de Java est une autre histoire.

Evolution de la complexité

On observe le même phénomène avec les performances et capacités des produits, mais jusqu’à une certaine limite. Pendant des années nous avons trouvé des usages aux capacités / performances sans cesse grandissantes des ordinateurs. Mais elles augmentent souvent plus rapidement que nos besoins, ce qui fait qu’il existe un seuil au-delà duquel nous n’avons plus besoin d’autant de performances.

La complexité est par contre liée aux nouvelles fonctionnalités. Certes, nos besoins en fonctionnalités peuvent évoluer plus lentement que ce qu’offrent les logiciels (comme c’est le cas du traitement de texte). Mais des nouvelles fonctionnalités augmentent la complexité d’un logiciel ne serait-ce qu’en encombrant le menu de l’application, et ce même si elle n’est jamais utilisée. Au bout du compte, les moyens que l’on trouve pour simplifier l’informatique n’apparaissent pas à un rythme suffisamment soutenu pour contrer le nombre croissant de fonctionnalités.

Jeux vidéo: changement de leadership à l’horizon?

24 décembre 2010

Chaque période de Noël est la saison la plus importante pour les consoles de jeu vidéo. A ce sujet, les compagnies japonaises ont ravi le leadership du jeu vidéo à leurs homologues américains dans les années 80. Mais un retour de balancier pourrait bien être en train de s’effectuer.

Le déclin des compagnies américaines au profit des japonaises

Le jeu vidéo est d’origine américaine, que ce soit Space War (le tout premier jeu, développé au MIT sur un PDP-1) ou le pionnier Atari et son célèbre Pong. Atari a vite été rejoint pas d’autres compagnies : Mattel, Coleco, et bien d’autres.

Mais le crack du jeu vidéo de 1983, créé entre autres par une explosion de l’offre pour une demande trop petite, a fait succomber les leaders américains. Atari s’est focalisé sur les ordinateurs, délaissant les jeux vidéo. Coleco a fermé boutique. Mattel a abandonné le marché, etc.

Au même moment, le japonais Nintendo a commencé à décoller, soutenu par un marché local extrêmement dynamique. Nintendo sortira sa première console, la NES, en 1985. Il a été suivi par son compatriote Sega, et bien plus tard par Sony (Sega s’est retiré de la course en 2001).

 

Parenthèse : Joystick PC contre joypad console

Les PC utilisent des joysticks, alors que les consoles utilisent des joypads. La raison de deux philosophies différentes vient de cette crise du jeu vidéo.

Les premiers jeux vidéo grand public ont été disponibles sous forme de jeux d’arcade. Toutes les compagnies de l’époque (Atari, Nintendo, Namco, etc.) équipaient leurs jeux d’arcade de joystick. La manière dont ils ont adapté le manche à balais pour leur console de jeu a par contre varié.

Le leader des consoles de jeu avant la crise du logiciel était Atari. Pour sa console Atari 2600 (1977) il a tout naturellement repris le concept d’un joystick à un bouton. Nintendo, de son côté, a commencé par commercialiser des jeux vidéos de poche en parallèle des jeux d’arcade. Le joystick n’étant pas adapté à ce genre d’appareil, Nintendo a opté pour un contrôleur « en croix » utilisable avec le pouce uniquement.

La crise du jeu vidéo a créé un schisme. Les constructeurs d’ordinateurs américains ont utilisé le port joystick d’Atari, continuant la philosophie du manche à balais tenu par une main entière. Nintendo a par contre réutilisé son contrôleur « en croix » pour sa NES. Le joypad actuel est une évolution de ce concept, où le contrôle des directions est effectué par le pouce et non la main entière.

(fin de la parenthèse)

 

Les compagnies américaines se rebiffent

Les compagnies japonaises ont trôné en maîtres sur le monde du jeu vidéo pendant plus de deux décennies, jusqu’à ce que quelques géants américains que personne n’avait prévu décident d’entrer dans la danse.

Microsoft, tout d’abord a commencé avec la Xbox en 2001. Après des débuts difficiles (comme c’est souvent le cas pour Microsoft), Redmond a réussi à prendre de court Sony et a lancé la Xbox 360, la PlayStation 3 ayant eu subi un retard dans son lancement. Microsoft a cependant été pris de revers par Nintendo qui a repris le leadership grâce à sa Wii qui apportait une innovation majeure : l’utilisation de contrôleurs de mouvement au lieu du joypad traditionnel. Non seulement la Wii a surclassé ses deux concurrents (il s’en est presque autant vendu que de Xbox 360 et de PS3 combinées), mais elle a réussi à atteindre un public de non-joueurs.

Mais les géants japonais semblent d’être reposés sur leurs lauriers, car ils ont sorti peu de nouveaux produits ces dernières années. La PS3 et la Wii ont été introduites Noël 2006, la PlayStation Portable et la Nintendo DS Noël 2004. Les seules introductions récentes sont la PSP Go (Noël dernier) qui ne s’est pas beaucoup vendue et le contrôleur PlayStation Move en novembre dernier qui est juste une imitation de la Wii.

Microsoft a par contre sorti Kinect, un détecteur de mouvement pour booster les ventes de sa Xbox 360 vieillissante (elle date de Noël 2005). Si c’est Nintendo qui a pensé avant tout le monde à utiliser des contrôleurs de mouvements pour les jeux vidéo et que Microsoft ne fait qu’améliorer le concept, Kinect n’en reste pas moins l’innovation la plus importante depuis des années sur le marché. Le fait que Kinect puisse être hacké et qu’il semble avoir beaucoup d’autres utilisations que les jeux vidéo ne peut que jouer en la faveur de la Xbox (à moins qu’un petit malin n’arrive à utiliser Kinect sans une Xbox). Il est encore trop tôt pour savoir l’impact définitif de Kinect sur les ventes de la Xbox, mais en novembre dernier, la Xbox 360 a été en tête des ventes du marché américain avec 1,374 millions de consoles vendues contre 1,27 millions de Wii. Pour la première fois, la Xbox arrive à dépasser la Wii. La PlayStation 3, quant à elle, est loin derrière avec seulement 530,000 unités.

Sur le marché des consoles portables, Sony et Nintendo ont été confrontés à des adversaires inattendus : les smartphones ainsi que l’iPod Touch. Selon un rapport d’Interpret, La Sony PSP et la Nintendo DS ont du souci à se faire, et même leur successeurs (PSP 2 et Nintendo 3DS, tous deux prévus pour Noël 2011) pourraient avoir des problèmes. Apple et son iOS (disponible sur iPhone, iPod Touch et iPad) semble être en très bonne position pour contrôler ce marché. L’iPad peut également jouer les trouble-fêtes et vise également un marché de non-joueurs. Un marché potentiel important pour l’iPad est par exemple celui des enfants en bas âge, pour lesquels une console traditionnelle est trop compliquée, mais qui adorent l’écran tactile.

Finalement, un autre marché du jeu vidéo qui est en forte croissance est celui des jeux sur le Web, avec en particulier les jeux sur Facebook (un sujet que j’ai déjà couvert). Tous les géants du jeu vidéo (constructeurs de consoles ou éditeurs de jeux) y sont quasiment absent dans la mesure où il s’agit d’une innovation disruptive, laissant la place à des compagnies comme Zynga. Il est cependant possible que Zynga handicape le développement sur cette plateforme. Car la compagnie ne fait que copier des jeux existants, se faisant connaître grâce à un marketing plus musclé. Mafia Wars et Farmville ne sont que des copies conformes de Mafia Mobs et Farm Town respectivement. Dans ces conditions, il est possible que beaucoup de petits éditeurs veuillent éviter la plateforme des réseaux sociaux s’ils craignent de se faire voler leurs idées par Zynga.

Raisons du changement

Il n’est pas étonnant que Sony et Nintendo ne soient que peu intéressés par les jeux sur Facebook, étant donné qu’ils ne nécessitent pas de consoles. Mais comment se fait-il qu’ils soient en difficulté sur le marché des consoles de jeu (de salon comme portables), un marché qu’ils occupent depuis des années ?

Les consoles de jeu portables ont été victimes d’une concentration des appareils de poche, un marché où les produits multifonctions ont l’avantage. La tendance est en effet aux appareils de poche qui font office d’ordinateur de poche, de baladeur MP3, d’appareil photo, de GPS, de montre, parfois de téléphone… et de console de jeu portable. De la même manière que Microsoft a été pris de court par l’iPod qui a muté en iPhone pour le concurrencer sur le marché des smartphones, Sony et Nintendo ont été pris de court par le même produit qui a également muté pour devenir l’iPod Touch. Les consoles portables peuvent essayer de résister en évoluant vers un produit multifonctions (Sony compterait annoncer la PlayStation Phone l’année prochaine). Elle peuvent également fournir des fonctionnalités que l’iPhone ne peut ou ne veut pas avoir. La Nintendo 3DS aura des effets 3D. Mais l’exercice reste cependant difficile, car si une fonctionnalité apporte quelque chose, il est à parier que Steve Jobs voudra l’inclure à l’iPhone et l’iPod Touch. Qui plus est, Apple jouit du même type d’économies d’échelles que les deux géants japonais. La firme à la pomme a en effet vendu quelque chose comme 68 millions d’iPhones et 45 millions d’iPod Touch (tous deux introduits en 2007), à comparer avec 136 millions de Nintendo DS, tous modèles confondus (introduite en 2004) et 62 millions de PSP, introduite en 2004 (tous les chiffres datent de septembre 2010). Sony et Nintendo auraient besoin d’un « killer game » pour leur console (comme Halo pour la Xbox), mais si c’était une chose facile à faire, tout le monde le ferait…

Pour ce qui est des consoles de jeu de salon, ce marché a toujours été très difficile, car un constructeur n’est aussi bon que sa dernière console. Il n’y a pas d’effet d’inertie et d’importance de la compatibilité comme sur le PC. C’est ainsi que Nintendo a perdu son leadership quasiment du jour au lendemain lorsque Sony a introduit la PlayStation en 1994 – et l’a regagné tout aussi rapidement grâce à la Wii. Il est extrêmement difficile de rester leader pendant longtemps sur ce marché techniquement hyper compétitif. Mais le marché évolue, et les performances pures comptent de moins en moins, comme en témoigne le succès de la Wii, pourtant nettement moins puissante que la PS3 ou la Xbox 360. C’est là où Sony a un handicap, car la compagnie a cessé d’innover depuis très longtemps – en fait, depuis que son co-fondateur, Akio Morita, a cessé de s’occuper des produits de la marque au début des années 80. La première PlayStation était techniquement bien plus puissante que la concurrence, mais n’avait pas de concept innovant comme la Wii. Pour ce qui est de Nintendo, il est toujours tentant de se reposer lorsque l’on domine le marché. Un phénomène que connait Google, Microsoft… et Nintendo. La Nintendo 64 a en effet fait un bide face à la PlayStation. Et la Wii est apparue plus de 10 ans après que Nintendo ait perdu son leadership face à Sony – et le concept de base est une adaptation du Power Glove que Nintendo a lancé en 1989. Microsoft, par contre, a toujours été le plus novateur lorsqu’il est le challenger et non le leader.

Cela dit, joyeux Noël !

Ce qui freine le tandem Wintel

18 décembre 2010

(Mon livre, Cow-boys contre Chemin de fer ou que savez-vous de l’histoire de l’informatique, est désormais disponible en version papier. Yay!)

Au risque de me répéter, je pense que le marché du grand public n’est pas le domaine où Microsoft est le plus confortable. Redmond sait vendre au grand public (Windows 95 comme la Xbox 360 sont là pour en témoigner), mais n’est pas aussi réactif que sur le marché professionnel. La Xbox 360 a certes eu du succès, mais est restée pendant des années derrière la Nintendo Wii. Et sur le marché du mobile, Redmond a perdu beaucoup de parts de marché pour avoir commis une seule erreur : louper le tournant grand public, laissant le champ libre à Apple. Même Google a dépassé Microsoft sur ce marché avec Android, malgré être très récemment arrivé.

De la même manière, Intel a le plus grand mal à s’imposer sur le marché de l’informatique mobile. Le constructeur a certes créé la famille de processeurs à basse consommation Atom qui est un franc succès, mais elle n’est présente que dans des netbooks et quelques rares tablettes (telles que la HP Slate). Tous les smartphones par contre (et la plupart des tablettes) se basent sur un processeur ARM.

Microsoft comme Intel sont pourtant gérées par tout sauf des incompétents. Comment se fait-il donc que les deux géants ont tant de mal sur le marché du mobile ?

On remarque que les deux compagnies sont retenues par un attachement à l’existant : Windows et l’architecture x86 respectivement. En d’autres termes, les marchés qui les ont rendu riches. On pourrait donc argumenter que les marges de ces nouveaux marchés ont fait reculer les deux géants (le très célèbre dilemme de l’innovateur). Mais l’argument ne tient pas car les deux compagnies ont consciemment accepté de s’attaquer à un marché plus petit avec des marges moindres, que ca soit avec Windows CE, Windows Mobile ou l’Intel Atom.

Une autre hypothèse est la pression des partenaires. En d’autres termes, que l’écosystème qui s’est développé autour d’eux où ne soit pas intéressés par ce marché. Mais là encore, l’argument est faible. Certains de ces partenaires sont présents sur ce marché. Dell, pourtant un gros client du tandem Wintel, a utilisé Android couplé avec un processeur ARM pour sa Dell Streak. Et Microsoft fait affaire depuis longtemps avec de nombreux constructeurs de smartphones et autres PDAs. Redmond a même pendant des années connu un relatif succès avant de perdre du terrain.

Intel et la compatibilité x86

Lorsqu’Intel a démarré le projet Atom en 2004, le constructeur développait en parallèle des processeurs ARM.  Ces derniers ont cependant été relégués au second plan, en particulier lorsqu’Intel a vendu la division à Marvell en 2006.

L’Atom, de son côté, a eu beaucoup de succès. Le processeur est utilisé dans de nombreux domaines tels que les distributeurs automatiques. Il est également présent dans tous les netbooks qui ont fait fureur depuis quelques années. Intel a beaucoup de mérite d’avoir lancé avec succès ce processeur. Car l’Atom est un produit disruptif par excellence : il fournit moins de performances que les Pentium et autres processeurs multicoeur, et offre des marges plus faibles.

Mais on peut se demander si Intel n’a pas mal calculé et n’a pas créé une innovation suffisamment disruptive. Car dans le domaine de l’informatique mobile, force est de constater que l’Atom a beaucoup de mal face à l’ARM.

Le problème pour Intel est de vouloir construire des processeurs compatible x86, car cela impose un handicap. Tout d’abord, les processeurs x86 n’ont jamais été conçus pour être basse consommation. Qui plus est, supporter la compatibilité ascendante a un coût, d’autant plus que tout appareil à base d’Atom sera tenté d’utiliser Windows (c’est ce qui est arrivé avec les netbooks), là encore un système peu économe en ressources système. Intel pourrait concevoir un tout nouveau processeur qui brise la compatibilité avec le x86, afin de redémarrer sur des bases neuves. Mais, pour l’instant, rien n’a été fait dans ce sens.

Je ne connais pas les raisons pour lesquelles Intel a décidé de privilégier la piste de l’Atom, mais on peut faire quelques conjectures.

Certes, un processeur Atom rapporte plus qu’un processeur ARM. Non seulement le prix de ce dernier est plus bas (même si Intel a cassé les prix avec l’Atom), mais il demande en plus de reverser des royalties à ARM Holdings qui conçoit les processeurs et licencie le design à des compagnies tierces. Mais si Intel s’occupait des marges seules, l’Atom n’aurait jamais vu le jour, et le constructeur se serait concentré exclusivement sur les processeurs haut de gamme.

Il est possible qu’Intel, adepte de l’intégration verticale, n’aime pas l’idée de reverser des royalties à ARM Holdings. La compagnie a cependant les moyens de concevoir ses propres processeurs dédiés uniquement pour le mobile et qui ne s’embarrassent pas avec la compatibilité x86.

Il est donc possible qu’Intel soit très attaché à la compatibilité x86, qu’il voit comme un atout commercial. Il faut se rappeler que le constructeur a tenté de briser la compatibilité x86 lorsqu’il a développé son premier processeur 64-bit, l’Itanium. Intel a été doublé par AMD qui a le premier développé un processeur 64-bit gardant la compatibilité ascendante avec les processeurs x86. L’Atom, de son côté, à été conçu avec la constructeur de PC Asus. Ce dernier a en effet utilisé l’Atom pour ouvrir la voie des netbooks avec son Eee PC.

Pour Intel comme pour Asus, offrir la compatibilité x86 est un plus. Pour un constructeur de smartphone, beaucoup moins.

Microsoft et le grand public

Pour ce qui est de Microsoft, j’ai l’impression qu’il s’agit de quelque chose au-delà de la force de l’habitude, mais bel et bien de « compétences transversales » (soft skills en anglais – un exemple pour de telle compétence pour les individus serait d’être plus extroverti)

Microsoft a su acquérir les compétences techniques dont il a eu besoin, que ce soit en rachetant des compagnies ou en débauchant des talents tels que Dave Cutler, l’architecte de VMS, pour concevoir Windows NT. Acquérir des compétences transversales est cependant beaucoup plus dur car les bons vieux reflexes peuvent à tout moment rapidement reprendre le dessus. Sur ce point, Bill Gates comme Steve Ballmer n’ont jamais « senti » le marché du grand public comme Steve Jobs sait le sentir. Microsoft est par contre beaucoup plus à l’aise pour savoir vendre sur le marché d’entreprise. C’est le genre de choses qui s’imprègne partout dans la société. Steve Jobs a une fois dit que « Microsoft n’a aucun goût » (ce que la comparaison de Windows Phone 7 à iOS laisse à penser). Redmond a sans doute une armée de designers, encore faut-il qu’ils aient voix au chapitre dans les décisions-clé.

Passons en revue les trois marchés grand public que Microsoft considère comme stratégiques : les moteurs de recherche (Redmond salive certainement devant les profits juteux de Google), les consoles de jeu vidéo (pour contrôler l’électronique de salon) et l’informatique mobile (car à terme dangereuse pour le PC).

Le marché des consoles de jeux vidéo est le domaine où Redmond s’en sort le mieux. La Xbox 360 s’est très bien vendu. Si Microsoft n’a pas révolutionné le marché comme l’a fait Nintendo avec sa Wii (perdant du coup 3 ans de retard), Kinect a cependant le mérite de sortir des sentiers battus, contrairement à Sony qui a imité Nintendo avec sa PlayStation Move (même si ce dernier se vend au moins aussi bien que Kinect). On remarque cependant que la division jeux vidéos de la compagnie est une division à part. Car s’il existe bien un domaine où Microsoft pouvait difficilement lier à Windows et/ou voir une application professionnelle, c’est bien les consoles de jeu vidéo. Microsoft n’a pas pu adapter les méthodes habituelles. Si Steve Ballmer a pris en main personnellement les divisions moteur de recherche et informatique mobile, on l’imagine mal faire de même avec la Xbox. La compétence de Ballmer dans le domaine est d’avoir su acheter les bonnes compagnies telles que Bungie (l’éditeur de Halo) et d’attirer les bonnes personnes (elles-mêmes souvent issues du monde du jeu vidéo)

Sur le marché du moteur de recherche, Microsoft a commis la première erreur d’ignorer le marché. Pendant des années il ne s’est pas donné les moyens de sérieusement concurrencer Google, et ni Bill Gates ni Steve Ballmer n’ont daigné se rendre aux salons dédiés à cette technologie ou accorder des interviews aux experts du domaine. Ce n’est qu’avec Bing que le géant de Redmond a commencé à avoir un début de succès. On note que Microsoft a enfin compris que la marque Windows n’aidait pas (« Windows Live Search » est l’ancien nom de Bing). Mais s’il apporte quelques fonctionnalités nouvelles, Bing n’a pas de vision si ce n’est copier Google et essayer de passer le plus de partenariats possibles.

Pour ce qui est du domaine de l’informatique mobile, par contre, Microsoft a pu garder ses anciens réflexes – et ne s’en n’est pas privé. Ce qui lui a fait perdre la place qu’il avait sur ce marché. Ici, la vision de Gates comme de Ballmer (un marché orienté entreprise) a mené la compagnie dans une impasse. Avec Windows Phone 7, Microsoft a enfin essayé d’orienter son système d’exploitation pour smartphone vers le grand public. Sauf que sur toutes les copies d’écran de WP7 que l’on voit, deux des icônes sont un icône Exchange et un calendrier. Chasse ton naturel, il reviendra au galop…

L’offensive Google Chrome OS

10 décembre 2010

Google vient d’annoncer Chrome OS (un système d’exploitation réduit à un navigateur Web), des ordinateurs portables à base de Chrome OS et Google WebStore (un magasin d’applications Web écrites en HTML 5). Ces initiatives poussent l’utilisation du Web avec les standards du Web, face à Apple qui préfère l’utilisation d’applications natives.

Google Chrome OS remplit quelque chose que j’attends depuis des années : un système d’exploitation réduit au minimum pour surfer sur le Web. Un appareil qui démarre quasiment instantanément, et qui ne demande pas de maintenance. Cerise sur le gâteau, les portables Chrome OS seraient équipés d’un accès 3G « sans abonnement » avec des prix « à partir de $10 par mois ».

Google a développé son propre ordinateur portable à usage interne (nom de code : Cr-48), mais Acer et Samsung ont annoncé des portables Chrome OS pour la mi-2011.

Portable Chrome OS contre iPad

Le produit semble très prometteur, mais on peut se demander s’il n’arrive pas un an trop tard d’un point de vue médiatique. Car Apple a depuis volé la vedette avec l’iPad.

Les deux produits poursuivent le même but : fournir un appareil portable qui fonctionne plus simplement qu’un PC ou un Mac, avec une connexion 3G sans pour autant payer des prix aussi astronomiques que les smartphones. Les deux systèmes d’exploitations impliqués, Chrome OS et iOS, représentent tous deux une technologie disruptive face au PC dans la mesure où, si on les considère comme un système tel que Windows, ils font moins que ce dernier. Pas de compatibilité Windows, pas d’applications puissances comme Photoshop, et pas forcément idéals pour la bureautique : le clavier virtuel de l’iPad ne possède pas de raccourcis tels que Ctrl-I pour mettre un texte en italique, et les outils bureautiques Web auxquelles Chrome OS a accès n’ont pas toute la puissance d’Office. Leur force vient d’autre chose que la compatibilité Windows.

Chrome OS et iOS utilisent cependant deux approches très différentes. Une innovation disruptive peut soit attaquer un marché d’entrée de gamme (comme l’imprimante à jet d’encre a fait par rapport aux imprimantes laser), soit s’attaquer à un marché qui n’existe pas encore, visant de nouvelles utilisations (comme l’imprimante/scanner/photocopieuse qui vise les particuliers)

Google OS vise le marché du PC d’entrée de gamme, à savoir les utilisateurs qui n’ont pas besoin de toute la puissance que les PC modernes peuvent offrir. C’est pour cette raison que le géant de Mountain View a repris l’architecture d’un portable PC. Chrome OS offre une plus grande simplicité et (on l’espère) un prix moins cher. Au niveau logiciel, Google OS se base quasiment exclusivement sur les standards du Web tels que HTML 5. Pas étonnant pour une compagnie qui fait fortune uniquement grâce à la publicité en ligne.

Apple, au contraire, a décidé de s’attaquer à un nouveau type de marché, cherchant à créer de nouveaux types d’utilisations. D’où un redesign complet de l’architecture matérielle, l’abandon du clavier au profit d’un écran tactile, etc. Au niveau logiciel, le géant de Cupertino a refusé tout compromis technologique et s’est affairé à fournir les meilleurs performances possibles avec entre autre l’utilisation d’applications natives utilisant une API propriétaire. Par étonnant de la part d’un constructeur de matériel dont le PDG est de notoriété publique perfectionniste et qui a grandit avant l’ère du Web, à l’époque où tous les logiciels utilisaient une API native.

L’iPad a un gros avantage pour les jeux du fait de son écran tactile, de ses accéléromètres et de l’utilisation d’applications natives. De même, il a l’avantage pour beaucoup de nouveaux usages (certains restant encore à définir). Par exemple, il est extrêmement prisé par les enfants en bas âge et pourrait avoir des applications dans les écoles.

Le portable Chrome OS a l’avantage pour ceux qui ont besoin d’un vrai clavier, ainsi que sur le marché d’entreprise – que Google prend bien plus au sérieux qu’Apple. L’un des invités de la présentation de Chrome OS a été Citrix, qui a montré comment accéder depuis Chrome OS à des applications Windows hébergées sur un serveur. Qui plus est, Google est en partenariat avec plusieurs grosses compagnies (telles qu’American Airlines ou le Department of Defense) pour que ces dernières expérimentent des portables Chrome OS en interne.

Portable Chrome contre portable Windows

Lorsqu’Oracle a supporté Linux en 1998, nombreux sont ceux qui ont espéré voir le système d’exploitation libre concurrencer Windows. Si ça a été le cas côté serveur, Linux côté client a été un bide retentissant. Quelques villes ont annoncé basculer entièrement sur Linux, puis plus rien… Même le fiasco Vista n’a pas profité à Linux. Ce n’est pourtant pas faute d’avoir essayé : Ubuntu est une distribution de fort bonne facture, et certains grands constructeurs ont parfois même préinstallé Linux sur leurs PC – en particulier aux débuts des netbooks. Mais les distributions Linux ont trop tenté d’être des copies conformes de Windows, si bien que les utilisateurs ont préféré garder la compatibilité Windows.

Chrome OS est le dernier système d’exploitation basé sur un noyau Linux qui s’attaque à Windows – et représente l’attaque la plus avancée qui soit. Chrome OS est véritablement une innovation disruptive car il offre moins qu’un système d’exploitation traditionnel, mais de ce fait devrait (du moins en théorie) consommer moins de ressources.

Si Microsoft était une compagnie comme les autres, elle ignorerait Chrome OS. Sur le marché grand public, Chrome OS concurrence Windows 7 Starter Edition, la version bridée de Windows 7 disponibles sur les netbooks, et dont chaque copie ne rapporte que peu à Redmond. Quant au marché d’entreprise, un portable Chrome OS utilisant Excel sous Citrix a tout de même besoin de licences Windows et MS-Office.

Mais Microsoft n’est pas une compagnie comme les autres, et a su voir le danger des technologies disruptives. Le géant de Redmond a par exemple répondu à Google Docs avec Microsoft Office Live et bientôt Microsoft Office 365.

Une inconnue reste l’offre même des portables Chrome OS. Ils sont sensés arriver mi-2011, mais on ne sait pas encore à quel prix. Car les portables Chrome OS n’offrent pas de fonctionnalités qui ébahissent les foules, comme l’iPad. Un argument de vente majeur sera donc le prix. L’idée d’un portable qui ne demande pas de maintenance et qui démarre très rapidement est séduisante, mais n’a de chances de réussite que s’il est moins cher qu’un portable Windows à configuration égale. Dans le cas contraire, les utilisateurs ont toutes les chances de se rabattre sur Windows, comme ils l’ont fait avec les netbooks. L’absence de maintenance (pas d’antivirus, défragmentation de disque, etc.) résous un problème important, mais auxquels les particuliers ne sont confrontés qu’épisodiquement.

Chrome OS a cependant une chance face à l’offre actuelle des PC Windows. Les netbooks Windows sont en effet très limités en termes de performances et taille d’écran. Microsoft limite les capacités des portables pour lesquels il accepte de vendre Windows 7 Starter Edition : écran de 10,2″ maximum, processeur simple coeur à 2 GHz maximum, 1 Go de mémoire max, etc. Par comparaison, le portable que Google a développé en interne a un écran de 12,1″. Un portable Chrome OS à $300 qui offre une expérience Web similaire (voire meilleure) qu’un portable Windows deux fois plus cher peut séduire de nombreuses personnes. Microsoft peut cependant contre-attaquer. Il peut relaxer les limitations de Windows 7 Starter Edition, et surtout travailler avec les constructeurs pour améliorer le temps de démarrage. Avec un disque à mémoire Flash et un BIOS optimisé, le dernier MacBook Air démarre en 15 secondes, contre 10 seconds pour le Google Cr-48 (son mode veille est apparemment instantané). Un netbook optimisé peut donc faire aussi bien.

De son côté, le marché de l’entreprise peut également être séduit – Google affirme que plusieurs compagnies l’ont spontanément approché pour essayer son portable Chrome OS. Sur ce marché, la facilité de maintenance a toutes les chances de l’emporter, car tout département informatique passe énormément de temps à maintenir son parc de PC. La recrudescence d’outils accessibles depuis un navigateur Web d’une part, et l’utilisation croissante de la virtualisation d’autre part sont d’autant plus d’arguments pour un portable Chrome OS. La plus grosse faiblesse est peut-être le support d’Outlook et de MS-Exchange. Ces deux produits de Microsoft sont en effet rois dans l’entreprise – Google Apps n’est pas près de s’imposer. On peut certes accéder à ces applications via Citrix, mais il est possible que les utilisateurs manquent les messages d’alertes d’Outlook qui s’affichent même si ce dernier est en arrière-plan (meeting dans 5 minutes, nouveau message, etc.). Quoi qu’il en soit, les entreprises ne vont pas se débarrasser de leurs PCs du jour au lendemain. Mais il est possible qu’ils commencent par leurs utilisateurs les moins demandeurs. Là encore, Microsoft a toutes les chances de contre-attaquer, que ce soit en proposant des rabais aux entreprises qui songent à basculer (comme il l’a fait pour contrer Linux) ou en tentant de lier Outlook / Exchange / SharePoint le plus possible à Windows.

Conclusion

Les portables Chrome OS s’ajoutent à l’iPad sur la liste des menaces potentielles et à terme pour les PC (notez le « potentiel » et « à terme »). Chrome OS ne va pas faire couler autant d’encre que l’iPad (son annonce n’a pas fait la une des journaux comme l’annonce de ce dernier) mais peut soit avoir un impact discret en remplaçant les PC bas de gamme, soit forcer Microsoft à réagir. Dans un cas comme dans l’autre, les utilisateurs seront gagnants.

Le tout est de voir ce que les portables Chrome OS donneront…

Vie et mort des services sur Internet

3 décembre 2010

(1er décembre 2010: Je commence par une parenthèse sur Windows Phone 7. Microsoft a gelé le paiement des ventes des applications sur ce système d’exploitation jusqu’à février 2011. Les développeurs sur cette plateforme n’ont d’ailleurs aucun moyen de savoir combien d’applications ils ont vendu. Cette politique est extrêmement surprenante de la part de Microsoft qui a l’habitude de se mettre en bons termes avec les développeurs -elle ne risque pas d’encourager les développeurs à investir sur cette plateforme. La seule explication que je vois est que Redmond joue la carte de l’opacité afin d’essayer de cacher des ventes abyssales d’applications comme de téléphones WP7. La firme de Steve Ballmer se refuse déjà à donner les chiffres de ventes des téléphones à base de Windows Phone 7, alors qu’elle martèle les ventes de la Kinect. Autant la Kinect a toutes les chances de faire un carton, autant Windows Phone 7 semble mal parti… Fin de la parenthèse)

Comme je l’ai précédemment écrit, je ne pense pas que le Web disparaisse comme on veut le faire croire, mais cela ne veut pas dire que le type de service que l’on utiliser sur Internet ne va pas changer. Plusieurs facteurs peuvent influencer l’essor ou le déclin d’un service.

Dans le reste de cet article, le mot « service » peut correspondre à plusieurs choses. Il existe des services Internet tels que le Web, l’email ou les messageries instantanées, qui utilisent des protocoles spécifiques. Il existe également des services Web tels que Google, Facebook ou Hotmail qui fournissent une valeur ajoutée aux internautes en se basant sur des services Internet (comme Hotmail) et/ou des protocoles propriétaires (comme Facebook)

La facilité d’accès

La facilité d’accès est l’un des facteurs clé pour un service. Le grand public s’est ouvert à Internet grâce au Web car ce dernier a rendu facile l’utilisation du Réseau des réseaux. Un nouveau type de service peut concurrencer des services existants s’il est plus facile d’accès. Au contraire, si un service voit sa facilité d’accès se dégrader, il risque de perdre ses utilisateurs en masse. Mais la facilité d’accès ne se résume pas à la convivialité, elle inclue d’autres aspects tels que les capacités de recherches (c’est grand, Internet, il est donc utile de pouvoir trouver ce que l’on cherche efficacement)

Google a fondé un empire en nous aidant à mieux trouver les sites Web qui nous intéressent. A contrario, Usenet, le service historique de forums d’Internet, a vu sa facilité d’accès s’effriter avec son succès. En effet, les clients Usenet n’ont historiquement pas été conçus pour supporter une explosion du nombre de forums, et affichaient tous les forums disponibles. Lorsqu’Internet s’est ouvert au grand public dans les années 90, le nombre de nouveaux forums augmentait tous les jours. Imaginez un peu que les navigateurs Web aient voulu afficher tous les sites Web disponibles au lieu de nous laisser entrer l’adresse…

Il a manqué aux clients Usenet un système de recherche efficace au lieu d’essayer de garder une copie la plus complète possible. Et ce choix a submergé les utilisateurs. Lorsque des clients Usenet sont apparus sur le Web avec un système de recherche, il était déjà trop tard. Au final, Usenet a été remplacé par une multitude de sites Web, qu’ils soient des forums spécialisés ou des blogs. Ces sites sont trouvable par le biais de recherches Web. RSS permet de suivre plusieurs forums ou blogs en provenance de plusieurs sites, et certains lecteurs RSS tels que Google Reader donnent même des recommandations de flux RSS susceptibles d’intéresser l’utilisateur.

De son côté, Facebook a commencé à montrer des avantages sur l’email. De plus en plus d’internautes contactent leurs connaissances en utilisant Facebook plutôt que d’utiliser l’email, car la tâche est souvent moins facile avec ce dernier. Le site de Mark Zuckerberg bénéficie en effet des groupes que l’on s’est créés. Nos contacts ont souvent une photo et utilisent leur vrai nom. A contrario, retrouver l’adresse email d’une connaissance n’est pas toujours facile, surtout si la dite connaissance utilise une adresse cryptique ou utilise plusieurs adresses. L’email reste cependant le médium de choix lorsque l’on doit contacter une personne en-dehors de son réseau de connaissances.

Mais il n’est pas dit que Facebook ne soit pas un jour victime de son succès et que sa facilité d’accès décline. Car les utilisateurs sont bombardés d’information sur ce site – la plupart sans intérêt aucun. On peut certes demander de ne plus voir les dernières péripéties de nos connexions sur Farmville, mais il existe toujours des nouvelles applications que l’on doit demander de cacher. On est intéressé par suivre sa famille sur Facebook, mais peut-être pas forcément par toutes les tribulations de notre frangin/cousin/neveu bavard. Plus Facebook a de succès, plus le challenge va être de séparer le grain de l’ivraie. Mais cela ne semble pas être la priorité de Mark Zuckerberg.

Et tout service qui a du succès est tôt ou tard confronté à un problème de recherche et de tri. Comment trouver les sites Web, les applications iPhone, les groupes Facebook, les articles de presse ou les blogs susceptibles de m’intéresser?

Malveillance

Les problèmes de malveillance peuvent également couler un service. La CB a fait fureur dans les années 70 mais a décliné car trop d’automobilistes ont abusé du peu de canaux hertziens disponibles, certains achetant des amplificateurs pour « spammer » tout le monde.

Le spam a été un autre facteur du déclin de Usenet, et continue à empester l’email. Dans ce dernier cas le spam est relativement contenu (les filtres anti-spam ont fait beaucoup de progrès), mais reste tout de même un problème.

La malveillance affecte également d’autres services, tels que les moteurs de recherche. Des l’apparition des moteurs de recherche automatisés, des petit malins ont tenté de trouver les failles pour être en tête des résultats retournés. La première génération de moteurs de recherche tels qu’AltaVista a été affectée par les sites dont les pages Web contenaient beaucoup de mot-clés à répétition (souvent caché en blanc sur blanc en bas de la page). Si bien que beaucoup des recherches aboutissaient à des sites pour adultes.

Google a changé la donne en prenant en compte les liens en provenance de sites tiers plus que le contenu du site même. Mais si les anciennes techniques sont désormais obsolètes, cela ne veut pas dire que la malveillance est terminée pour autant. L’exemple le plus célèbre est le Google Bombing (recherchez « french victories » sur Google et regardez la première entrée), mais le plus pernicieux à ma connaissance a été rapporté il y a quelques jours par un article du New York Times. Un site Web newyorkais de vente de lunettes arnaque et harcèle volontairement certains de ses clients dans le but… d’augmenter son classement sur Google! Car sur le Web, toute publicité, même négative, est prise en compte par Google, ce qui fait augmenter le classement du site aux yeux du célèbre moteur de recherche.

Ce dernier vient tout juste de réagir, mais le constat reste: les spammeurs se sont adaptés à l’algorithme employé par Google. Ce dernier a donc de plus en plus la pression pour reprendre le devant.

La malveillance existe également sur les réseaux sociaux. De nombreux « utilisateurs » qui utilisent Facebook pour commenter des articles de presse postent des messages de publicité frauduleuse. Beaucoup des personnes qui me suivent sur Twitter sont des comptes liés au spam. L’un des secrets des applications sur Facebook est que la meilleure manière de se faire de l’argent est de soutirer des informations personnelles sur les utilisateurs et de les revendre (lire l’excellent article de TechCrunch à ce sujet)

Certaines compagnies de communication embauchent des gens pour promouvoir certains produits en se faisant passer pour des consommateurs normaux: rajouter des commentaires positifs sur Amazon.com ou Facebook, téléphoner à des magasins leur demandant pourquoi ils n’ont pas tel produit, etc.

Et il est certain que la malveillance ne s’arrêtera pas là, et que les mécanismes vont être de plus en plus sophistiqués. Si une application Facebook peut avoir accès à vos contacts, on peut imaginer un programme qui crée un faux compte Facebook avec votre nom et votre photo et qui demande à vos contacts de « se reconnecter » (qui vérifie autre chose que le nom et la photo?). Un tel programme pourrait suivre toutes les activités Facebook de vos contacts qui acceptent l’invitation.

Une évolution du marché

Finalement, les utilisateurs peuvent avoir des goûts qui changent. Les jeunes trouvent désormais que l’email est trop lent et lui préfèrent le SMS – là où leurs ainés comparaient avec le courrier papier. Les internautes ont découvert Friendster et se sont amusés un moment, jusqu’à ce qu’ils se rendent compte que le site n’apportait pas grand chose. Ils ont alors basculé sur MySpace et se sont amusés à personnaliser leur page perso. Ils ont enfin basculé sur Facebook qui apporte un intérêt plus tangible.

L’absence de standards ouverts

La chose qui me gène le plus n’est pas que l’email décline, mais que ses remplaçants n’utilisent pas des standards ouverts.

Prenons l’exemple de la messagerie instantanée. Pour communiquer sur AIM, Skype, Windows Live ou Gtalk, il faut que l’utilisateur comme le destinataire aient tous deux un compte sur respectivement AIM, Skype, Windows Live ou Gtalk. Imaginez que les abonnés de SFR ne puissent pas communiquer avec les abonnés d’Orange! L’énorme avantage de l’email est que n’importe qui peut communiquer avec n’importe qui, quelque soit le service utilisé. Cela a permit à des nouveaux venus comme Gmail de se tailler une part de marché respectable et de bouleverser le marché. La raison est que les serveurs SMTP de Hotmail, Gmail et autres Yahoo Mail communiquent entre eux. Une telle approche n’existe pas pour les messageries instantanées. Les serveurs Gtalk, Windows Live, Skype, … sont complètement incompatibles les uns avec les autres. Ce qui fait qu’il est beaucoup plus dur pour un nouveau venu de changer la donne comme l’a fait Gmail.

L’email a eu le privilège d’être conçu à une époque où personne ne se préoccupait des aspects commerciaux et où tout restait à construire. Dés que les entreprises commerciales se sont impliquées dans la partie, toutes ont voulu imposer leur standard propriétaire, et toutes ont refusé d’utiliser des standards développés par leurs concurrents. Une rare exception est RSS. Quelques tentatives telles qu’OpenID ont essayé d’imposer un standard d’identification ouvert, mais personne ne s’est imposé. A l’heure actuelle, Facebook encore une fois fait une percée pour commenter les articles de beaucoup de journaux. Mais on peut se demander si la tendance va continuer. Car il se peut que certaines personnes viennent à regretter l’utilisation de leur compte Facebook (avec leur nom en clair) pour exprimer certaines de leurs opinions sur des sites publics.

Apple a développé Facetime et affirme vouloir qu’il devienne un standard ouvert. Reste à savoir si les autres compagnies vont accepter de suivre.

Google a proposé Wave comme remplaçant de l’email et des messageries instantanées, en tant que format complètement propriétaire.

Et de son côté, Facebook verrouille son site le plus possible.

Cela ne veut pas dire que les standards ouverts sont terminés, mais certaines compagnies n’aident vraiment pas.