Archive pour janvier 2010

Les ordinateurs de poche, technologie disruptive

29 janvier 2010

Avec l’annonce de l’iPad – la tablette d’Apple – revenons sur le potentiel disruptif des ordinateurs de poche.

Une technologie disruptive est une technologie qui offre par définition moins de performance et moins fonctionnalités que ce qui existe déjà (du moins pas celles auxquelles on est habitué). C’est pour cette raison qu’une telle technologie est souvent ignorée des géants établis car elle ne satisfait pas les besoins de leurs clients. Pour grandir, cette technologie doit se trouver un marché où elle peut se développer à l’abri des produits établis.

Les ordinateurs de poche tombent dans cette catégorie: ils sont nettement moins performants qu’un PC et sont loin d’avoir toutes les applications disponibles sur ce dernier. Ils ont trouvé leur marché où grandir sous forme de PDA ou de smartphone.

Mais à terme les produits disruptifs peuvent menacer les produits établis. Prenons l’exemple du PC. S’il a commencé sur le poste client, il s’est petit à petit attaqué au marché des serveurs. Il n’avait certes pas les performances des serveurs Unix, mais son faible prix l’a permit de conquérir de plus en plus de parts de marché.

Des produits disruptifs arrivent à remplacer des produits établis lorsque 1) ils ont un avantage que les produits établis ne peuvent pas répliquer et 2) deviennent suffisamment bons pour remplacer ces derniers dans le cadre de certaines applications. Il est à noter que le produit disruptif doit souvent subir une transformation. Le PC a du en subir une pour passer côté serveur (matériel et OS plus robustes), même s’il a amené avec lui son architecture matérielle centrée autour des processeurs Intel, son système d’exploitation (Windows) ainsi qu’une certaine partie de sa logithèque (même si les logiciels pour serveurs sont souvent différents des logiciels sur le poste client)

Avantages sur les ordinateurs

Les ordinateurs de poches ont de nombreux avantages sur les ordinateurs traditionnels:

  • Ils sont conçus pour être portables: Intel a beau optimiser ses processeurs x86 tout ce qu’il peut, ces derniers n’ont pas été conçus à l’origine pour être embarqués et doivent traîner avec eux la compatibilité avec tous leurs prédécesseurs. Qui plus est, n’importe quel netbook ou portable PC ou Mac doit traîner l’existant d’un système d’exploitation complet. Les ordinateurs de poche n’ont pas ce problème, ayant fait table rase sur l’existant. Le système d’exploitation a souvent été complètement (ou grandement) réécrit, et ils utilisent la plupart de temps un processeur de la famille ARM, réputés pour consommer peu d’énergie. L’avantage est à la fois un gain en autonomie et en poids, la batterie étant le composant le plus lourd des portables.
  • Pas de maintenance: les ordinateurs de poche se comportant comme une boite noire plus qu’un ordinateur, ils sont beaucoup plus facile d’accès et ne demandent pas de maintenance. Démarrage quasi-immédiat, pas de disque dur à défragmenter, pas de dernière version d’anti-virus à installer (encore que cela peut venir), etc.
  • Une synchronisation facile: sous Windows, MacOS X, Linux et autres systèmes d’exploitation traditionnels, les programmes ont une très grande liberté quant au stockage des données. Conséquence de quoi, les utilisateurs comme les programmes peuvent sauvegarder des données à peu près n’importe où sur le disque (ainsi que dans les registres sous Windows). Cela pose un problème en termes de sauvegarde, lorsqu’on doit réinstaller le système d’exploitation ou migrer ses données vers une nouvelle machine. Il faut réinstaller toutes ses applications et s’assurer que toutes les données sont sauvegardées / copiées / migrées. Les PDA ayant dés le début été conçus pour tout synchroniser avec un PC, ils ont tout de suite restreint les endroits où les programmes peuvent s’installer et sauvegarder des données. J’ai installé une mise à jour de PalmOS il y a de ça des années, et l’opération s’est déroulée comme un charme: le programme de mise à jour a d’abord tout sauvegardé sur mon PC, complètement reformaté le Palm, installé la nouvelle version de PalmOS, et a réinstallé toutes mes applications, documents et préférences. On est loin d’une telle facilité sur PC ou même sur Mac.

Le besoin d’une transformation

Dans certains cas, les possesseurs de smartphones utilisent ces derniers alors qu’ils auraient jadis utilisé (de plus en plus, lire ses email et surfer le Web). On peut donc se demander si, à terme, ils n’ont pas la possibilité de concurrencer les ordinateurs portables (ils ne sont pas à même de remplacer les ordinateurs de bureau). Ils ont pour cela besoin d’une transformation qui commence par la possibilité d’avoir un clavier et d’un écran plus grands.

Dés 2000 les PDAs comme le Palm avaient comme périphérique optionnel un clavier pliant de la même qualité que celui d’un ordinateur portable. On pouvait donc imaginer qu’un jour, la loi de Moore aidant, le Palm aurait suffisant de puissance pour supporter un écran de même taille que celui d’un portable PC. Depuis des années j’avais imaginé une station d’accueil portable munie d’un vrai clavier et d’un écran de taille. L’utilisateur aurait toujours sur lui son PDA ou smartphone favori, et lorsqu’il le désire pourrait encastrer ce dernier dans sa station d’accueil pour avoir un ordinateur portable avec tous les avantages cités précédemment.

Mais Microsoft est passé par-là et Palm n’a pas réussi à dépasser le stade du PDA de base. Résultat de quoi, le marché s’est assis dans une complaisance, Microsoft n’ayant aucun intérêt à ce que les ordinateurs de poche concurrencent le PC.

Mais Apple a depuis repris le flambeau avec l’iPhone, l’iPod Touch, et désormais l’iPad. Et c’est ce dernier qui représente la transformation nécessaire pour concurrencer à terme le PC grâce à un écran de près de 10″. La vision d’Apple n’est donc pas une station d’accueil pour iPhone mais bel et bien un outil séparé. Certes, l’iPad n’est plus exactement ce qu’on peut appeler un ordinateur de poche. Mais de la même manière que le PC côté serveur n’a plus grand chose de personnel (PC voulant dire « Personal Computer » ou ordinateur individuel), l’iPad amène avec lui l’architecture matérielle de l’iPhone centrée autour des processeurs ARM, ainsi que son système d’exploitation et sa logithèque.

Techniquement, l’iPad n’apporte pas grand chose de plus que ce que les rumeurs spéculaient. Pas d’utilisation novatrice de l’écran tactile. Toujours pas de multitâche. A tel point que de nombreuses personnes ont été déçues. Mais l’erreur qu’on commit beaucoup de gens en critiquant l’iPad (principalement des techies) est de comparer ce dernier à l’iPhone et à un ordinateur portable. Lorsqu’ils jugent une technologie disruptive, les gens ont tendance à 1) la surestimer à court terme en la comparer avec l’existant et 2) la sous-estimer son pouvoir disruptif au long terme.

Or Apple vise ici un marché entre le smartphone et l’ordinateur. Si le consommateur ne va pas garder son iPad toujours sur lui comme il le fait avec son smartphone, l’iPad peut être très utile lorsqu’on est en déplacement (surfer sur le Web depuis sa chambre d’hôtel par exemple). Et si les portables PC et Mac ont des avantages indéniables, l’iPad garde tous les avantages des ordinateurs mobiles cités précédemment et fournit un « minimum vital » tout en étant moins encombrant qu’un portable.

Car Apple a concentré en une tablette les quelques d’applications qui représentent 95% de nos besoins: un navigateur Web bien sûr, mais également un client email, un logiciel de gestion de photos, musique, vidéo – et bien sûr l’App Store de l’iPhone et toutes les applications qui vont avec. Steve Jobs essaie également de positionner l’iPad comme un appareil pour consommer (entendez: acheter) tout type de médias: musique, livres, presse écrite, films, émissions de TV. Je parlerais plus en détail de ça dans une prochaine chronique.

Mais le fait le plus surprenant avec l’annonce de l’iPad est ironiquement le prix relativement bas pour Apple qui se soucie rarement de ce genre de détails. De $500 à $830 suivant les options (mémoire et accès 3G). La tarification de l’accès 3G est impressionnante car il change de l’iPhone où les clients n’ont que trop l’impression d’être pris en otage par l’opérateur mobile. Non seulement l’iPad est débridé et accepte les cartes GSM micro-SIM mais il permettra d’avoir un accès 3G par le biais d’AT&T (le fournisseur actuel exclusif de l’iPhone) pour seulement $15/mois (250 Mo de données) ou $30/mois (forfait illimité) – le tout sans contrat. L’utilisateur pourra en effet acheter / annuler son accès 3G depuis l’iPad même. Certes, il ne s’agit « que » d’un abonnement donnée (l’iPad n’est pas un téléphone), mais le prix reste fort raisonnable par rapport aux prix que coûtent les abonnements 3G pour smartphones.

Et ce produit a toutes les chances d’entraîner un « effet Gmail ». En proposant 1Go d’espace disque, Gmail a élevé les standards, a forcé la concurrence à s’aligner, ce qui a bénéficié à tout le monde – y compris ceux qui ne sont pas abonnés à Gmail. De la même manière, Apple va forcer la concurrence à s’aligner, en particulier sur les prix. Les premiers qui devront s’adapter sont les livres électroniques. Le Kindle DX, l’eReader grand format d’Amazon.com (qui possède un écran de la même taille que l’iPad) est proposé à $490, soit seulement $10 de moins que l’iPad d’entrée de gamme. Certes, le Kindle est fourni avec un accès 3G gratuit, mais l’iPad a plus de mémoire (16 Go contre 4 Go), un écran couleur, et peut faire nettement plus.

Etre suffisamment bon

Mais même en ayant subi une transformation, les ordinateurs de poche doivent être suffisamment bons pour vraiment concurrencer les ordinateurs portables. Sur ce point, l’analyse de l’évolution des Netbook offre de précieux renseignements. Initialement disponible principalement avec une version de Linux allégée, les ventes se sont rapidement orientées vers les Netbooks équipés de Windows XP. Ventes qui se sont tassées lorsque les portables PC ont baissé leurs prix.

Les leçons à retenir sont que 1) le public attache toujours une grande importance à la compatibilité Windows et que 2) les ordinateurs de poche ont peu de chance de concurrencer les PC par le prix – surtout lorsque le constructeur de l’ordinateur de poche s’appelle Apple! Mais comme le fait remarquer Steve Jobs, les Netbooks ne se sont différentiés que par le prix. Ils font tout moins bien que les portables PC. Le but de l’iPad est d’être la meilleure machine pour certaines applications. Par exemple, on peut surfer sur le Web en mode portrait ou paysage – quelque chose qu’un portable est incapable de faire.

Mais si l’iPad peut peut-être un jour de concurrencer le PC, cela se fera lentement. Les consommateurs commenceront par acheter un iPad en parallèle de leur PC ou de leur Mac. Certains pourront être séduits par un produit qui semble beaucoup plus pratique qu’un portable PC pour surfer sur le Web / lire / regarder une vidéo. D’autres aimeront le fait qu’une tablette à base d’ARM fournit plus de punch qu’un portable Windows à prix équivalent (la compatibilité a un coût en ressources). Et si un jour ils se rendent comptent qu’ils utilisent plus souvent leur tablette Internet que leur PC, on risque d’assister à un basculement de la demande. Au mieux les consommateurs remplaceront plus souvent leur tablette que leur PC. Au pire ils mettront ce dernier au rancart, tout comme beaucoup de gens ont totalement remplacé leur téléphone fixe par leur portable.

Dans le monde de l’entreprise par contre, un iPad aura beaucoup plus de mal à s’implanter. Ce qui n’empêche pas Apple de tâter ce marché. La firme a la pomme a en effet porté sa suite bureautique du Mac, iWork, sur l’iPad avec une politique de prix très agressive ($10 pour chacun des 3 modules: traitement de texte, tableur et présentation). Et un des points soulevés lors de l’annonce de l’iPad était « Easily connect to projectors » (« connectez facilement à un rétroprojecteur »). Le but est ici de viser les professionnels qui ont des besoins limités (accès Web, email et PowerPoint ou équivalent), sont tout le temps sur la route et apprécient un outil léger, peu encombrant et plus simple qu’un ordinateur. Mais en attendant, le portable PC reste roi en entreprise.

Compatibilité iPhone vs. compatibilité Windows

Arrivera-t-il un jour où le consommateur sera plus intéressé par la compatibilité iPhone que la compatibilité Windows?

La compatibilité iPhone perd une partie de son utilité lorsqu’on passe à un iPad. Nombreuses applications iPhone sont conçues dans une optique où le consommateur porte l’appareil en permanence sur lui. D’autres se basent fortement sur le contrôleur de mouvement de l’iPhone (moins pratique de secouer son iPad comme un cocotier). D’autres par contre prennent partie d’un écran plus grand. L’iPad peut être un excellent outil pour gérer les photos prises avec son iPhone. Mais je ne pense pas que cela suffise pour éclipser le besoin d’avoir certaines applications PC comme BitTorrent ou certaines utilitaires obscures.

Sur ce point, les ordinateurs de poche n’ont toujours pas trouvé leur killer app – une application qui justifie à elle seule leur achat. S’ils s’en trouvent une (que les PCs ne peuvent répliquer), cela pourrait faire pencher la balance du côté de l’iPad. Encore faut-ils que les ordinateurs de poche trouvent cette fameuse killer app.

Conclusion

Si beaucoup sont déçus par l’iPad, pas moi. Enfin un ordinateur qui ne se comporte pas comme un ordinateur! Plusieurs autres tablettes Internet ont été annoncées au dernier CES de Las Vegas, et certaines combleront peut-être les lacunes de l’iPad. Après tout, le Palm Pre est déjà multitâche, le Kindle DX possède déjà un clavier physique et les smartphones sous Android sont déjà ouverts. Et je ne serais pas surpris qu’à terme on assiste à une nouvelle classe d’ordinateur qui remplace de plus en plus les ordinateurs portables.

Maintenant, si les technologies disruptives sont souvent ignorées par les géants établis, comment se fait-il qu’Apple lance un produit qui risque de cannibaliser ses propres portables Mac? Parce que Steve Jobs a reconnu depuis des années que Windows avait gagné le poste client, et s’est donc focalisé sur le « next big thing » (la nostalgie n’est pas son truc). Il n’a pas le plus à perdre si le PC devient de moins en moins important.

Et les chiffres semblent lui donner raison. Microsoft a en effet terminé l’année fiscale 2009 avec $58 milliards de chiffre d’affaire, en déclin de 3% par rapport à 2008 (très rare pour Microsoft). Apple, quant à lui a terminé l’année avec près de $43 milliards de CA, en hausse de 26% par rapport à 2008. Autrement dit, Cupertino rattrape Redmond. En 2009, la partie « PC de bureau » de Microsoft (c’est-à-dire Windows XP / Vista / 7 + MS-Office) lui a rapporté $33 milliards. Par comparaison, la partie « informatique mobile » d’Apple (iPod / iPhone / iTunes / App Store, celle-là même qui peut un jour menacer le PC) lui a rapporté $29 milliards. La division Macintosh, quant à elle, reste stable à $13 milliards. Microsoft se fait certes beaucoup plus de bénéfices qu’Apple (la partie « PC de bureau » rapporte à elle seule $23 milliards de bénéfices, même s’ils sont en grande partie mangés par le reste de la compagnie). Il n’en reste que la plate-forme mobile d’Apple joue désormais dans la même cour que le tandem Windows / MS-Office.

Qui plus est, Apple a réussi un exploit qui doit faire baver d’envie Bill Gates et Steve Balmer réunis: établir un magasin en ligne où il récupère 30% de tout ce qui y est vendu: musique, livres… et même applications pour l’iPhone / iPod. Microsoft n’aurait sans doute jamais imaginé, même dans ses rêves les plus fous, pouvoir toucher 30% des recettes de toutes les applications vendues sur Windows.

Et le pire pour Microsoft est qu’il se fait petit à petit éjecter de cette plate-forme mobile et qu’il n’a jusqu’alors trouvé aucun moyen de renverser la tendance.

Publicités

Informatique mobile 2010

15 janvier 2010

Beaucoup d’agitation autour de l’informatique mobile en ce début d’année 2010, surtout au Consumer Electronics Show (CES) de Las Vegas qui s’est déroulé du 7 au 10 janvier. Mais beaucoup de ces annonces risquent de tourner en pétards mouillés.

Google Nexus One

Après beaucoup de spéculation fin 2009, Google a finalement lancé son propre smartphone: le Google Nexus One. Et j’avoue que je ne suis pas convaincu des choix stratégiques du géant de la recherche en ligne.

Mountain View a l’habitude de créer ses remplacements quand il pense mieux faire que ce qui existe déjà – quitte à froisser ses partenaires. Jusque là, rien de nouveau. Dans le cas du Nexus One, Google n’a pas créé son smartphone tout seul mais en collaboration avec le constructeur HTC – l’un de ses plus gros partenaires Android. On peut penser que Mountain View a voulu influencer le développement d’un smartphone plutôt qu’en créer un de toute pièce, ce qui aurait pris beaucoup de temps.

Une huile de chez Google a affirmé que le géant de la recherche en ligne « a travaillé en étroite collaboration avec HTC pour pousser l’enveloppe de ce qui était possible. » Vraiment? Le Nexus One n’apporte pourtant pas grand chose de nouveau par rapport à ce qui existe déjà. Techniquement, quelques améliorations de ci de là, mais rien qui ne rende le Nexus One un iPhone killer. On se demande également pourquoi Google n’a pas décidé de travailler « en étroite collaboration » avec tous ses partenaires Android (du moins les plus importants comme Motorola et Samsung) et non uniquement HTC. De même, il n’était pas forcé de vendre le produit sous son propre nom. En voulant attirer trop l’attention sur lui et en concurrençant ses propres partenaires, Mountain View court le risque d’aliéner ces derniers.

Le prix du Nexus One, quant à lui (téléphone comme abonnement) est du même ordre que le prix de la concurrence. La version débloquée, elle fait presque rire: $530 – alors que le Nexus One ne contient que $174 de matériel.

La dépêche officielle de Google annonce « une nouvelle manière pour les consommateurs d’acheter un téléphone portable par le biais d’un magasin en ligne hébergé par Google. » L’idée étant de fournir « une méthode efficace de connecter les utilisateurs en ligne de Google à des appareils Android. » Sauf qu’Apple fournit déjà un tel service. Il est en effet possible sur son site d’acheter son iPhone en ligne et de choisir son opérateur mobile. Mais la firme à la pomme complémente son site Web par une armée de magasins (du moins aux Etats-Unis) où le consommateur peut tester l’iPhone avant d’acheter et où il peut se rendre pour le SAV. Certes, le Kindle d’Amazon.com a connu du succès alors qu’il n’est disponible qu’en ligne. Mais le Kindle comme l’iPhone ont créé la sensation dés leur annonce car c’étaient des produits sexys. Dés l’annonce de l’iPhone le site d’Apple était surchargé – tout le monde voulait en savoir plus sur ce smartphone. Le Nexus One, par contre, est loin d’être suffisamment sexy pour obtenir un tel effet.

Et non seulement le consommateur ne peut pas essayer le Nexus One en magasin, mais seulement une semaine après son lancement il semble que ce dernier souffre d’un service client fort médiocre. Google n’est en effet pas connu pour être très réactif aux requêtes clients, et sa culture (service client sous forme de self-service, éventuellement par email) n’est pas compatible avec les attentes des possesseurs de smartphone.

Il semble que le but principal du Nexus One soit purement marketing: faire que le consommateur reconnaisse Google comme une marque valide de smartphone. Tout comme l’internaute pense Google pour ses recherches en ligne, que le consommateur pense Google (même pas Android) lorsqu’il désire acheter un smartphone, et qu’il aille sur le site du géant de la recherche en ligne au lieu de se rendre dans un magasin d’un opérateur mobile.

Seulement voilà: le moteur de recherche du Google a eu le succès que l’on connait car il dépassait tout ce qui existait. Google a eu du succès lorsqu’il a mis le consommateur en premier. En voulant mettre coûte que coûte son nom sur un smartphone et en sortant un produit tout sauf exceptionnel, le géant de la recherche en ligne risque de ternir son image de marque – à la fois auprès de ses partenaires et du grand public.

Foisonnement de livres électroniques

De nombreux livres électroniques (eReader) ont été annoncés au CES cette année. Si les eReaders ne sont pas nouveaux, Amazon.com a réussi à créer une percée avec son Kindle (un peu comme Palm avec le PDA), redonnant le moral au secteur. Si bien que de nombreux concurrents espèrent damer le pion au Kindle: le Plastic Logic Que, le Skiff Reader, l’enTourage eDGe, etc.

Mais si tous ont rapidement annoncé leurs caractéristiques techniques, les détails sur le format des livres numériques supportés manquent cruellement? Si le Kindle d’Amazon.com semble bien s’être vendu (encore qu’Amazon refuse de donner des chiffres), cela ne veut pas pour autant dire qu’il suffit de sortir une bonne machine pour qu’elle se vende. L’industrie du eReader se heurte encore à deux problèmes.

Le premier est l’absence d’un standard de format de livre numérique. Même si très peu de livres achetés sont lus une seconde fois, le consommateur n’aime pas l’idée que ses achats soient liés à un eReader donné. Cette guerre des standards sera sans doute résolue un jour, mais entre temps elle ralenti l’adoption des livres électroniques, tout comme la guerre entre Blu-Ray et HD-DVD a ralenti l’adoption des DVD haute définition.

Une autre raison est que si beaucoup de lecteurs voient l’intérêt d’un eReader, ils restent attachés à la version papier.

L’industrie du disque a été confrontée à un problème similaire: si beaucoup de consommateurs n’ont pas eu de problème à abandonner le CD pour un format entièrement numérique (il faut dire que le CD n’est pas l’attrait d’un livre) le consommateur reste habitué à posséder ses chansons et n’aime pas être lié à un service donné. C’est pour ça que Lala.com (depuis racheté par Apple) offre les deux modèles à la fois. Toute chanson achetée au format MP3 (de $0,89 à $1,29) peut en plus être écoutée sur le site Web. Le consommateur peut également acheter la version « Web » d’une chanson pour $0,10, auquel cas elle lui est accessible (à vie) uniquement sur le site de Lala.com. Mais il garde l’option d’acheter ultérieurement la version MP3 en payant la différence (c’est-à-dire avec une remise de $0,10).

On pourrait imaginer que l’achat d’un livre au format papier vous donne l’accès gratuit à son format numérique. Mais les éditeurs n’ont pas grand intérêt à un tel modèle. Dans le monde de la musique, le public a plébiscité le format MP3, forçant les maisons de disque à s’adapter. Mais dans le monde du livre ce sont des compagnies comme Amazon.com qui essaient de convaincre tout le monde – éditeurs comme lecteurs – de l’utilité du livre électronique. Donner une version numérique à la version papier n’augmentera pas les ventes – tout au plus elle encourage l’achat d’un livre électronique – et ne convaincra pas forcément le lecteur de passer à une solution entièrement numérique. Qui plus est, le grand public attend que le coût d’un livre au format numérique soit sensiblement moindre que son équivalent papier – or la publication et le stockage d’un livre ne coûtent « que » 30% du prix. L’industrie du livre ne peut pas casser les prix pour ceux qui achètent uniquement la version électronique comme Lala.com l’a fait avec $0.10 pour une chanson Web.

Tablettes Internet

Les tablettes électroniques ne sont pas nouvelles, mais jusqu’alors n’ont jamais vraiment marché. Et pour cause: jusqu’alors, la plupart des tablettes étaient des PC portables ayant troqué leur clavier par un écran tactile. En d’autres termes, elles ont les exactes mêmes fonctionnalités qu’un portable PC tout en étant plus cher.

Mais une nouvelle génération de tablettes Internet suit une approche différente, à commencer par le matériel. Elles utilisent en effet le tout nouveau processeur Nvidia Tegra 2 qui incorpore un système complet (processeur central, processeur graphique, bus et contrôleur mémoire), consommant très peu d’énergie. Une des conséquence de ce choix est l’absence de compatibilité Windows. C’est pour cette raison que plusieurs de ces tablettes utilisent comme système d’exploitation Android ou autres versions de Linux. Plusieurs tablettes basées sur le Nvidia Tegra 2 ont été annoncées, avec des écran allant de 7″ jusqu’à 15,6″ pour l’ICD Vega. Le prix reste cependant encore inconnu.

Le point faible de ces tablettes reste cependant l’écran. Car si le processeur est très économe en énergie, il n’en n’est pas de même pour le rétro-éclairage de l’écran LCD. C’est sans doute pour cette raison que l’ICD Vega a une durée de charge officielle de seulement 4h.

A sa grande habitude, Apple est resté muet quant à sa fameuse « iTablet » dont les rumeurs prétendent qu’elle sera annoncée le 27 janvier (Apple aurait réservé une conférence pour cette date). Le plus amusant est que nombreux sont ceux qui ont déjà fait leur prédictions sur un produit qui n’a même pas été annoncé! Certains prévoient par exemple que l’iTablet sera un bide sans connaitre les fonctionnalités complètes du produit!

Les rumeurs sur l’iTablet ainsi que les brevets récemment déposés par Apple donnent une bonne idée sur le matériel, mais ne donnent aucun détail sur la couche logicielle – et comme pour l’iPhone, cette dernière est un composant crucial. Rumeur intéressante: Steve Jobs aurait déjà tué de nombreux projets de tablette Internet par le passé, mais cette fois serait apparemment « très satisfait ». Steve s’est parfois complètement fourvoyé dans les produits qu’il a lancé (le Mac Cube, l’Apple TV) mais a plusieurs fois fait mouche (l’iPod, l’iPhone).

Et à l’instar des tablettes Internet, certains ordinateurs portables abandonnent l’idée qu’ils doivent se comporter comme un portable PC (enfin!) Après les netbooks voici les smartbooks, une nouvelle forme d’ordinateur portable qui se veut être une évolution du smartphone et non du portable PC – même s’il ressemble plus à ce dernier. C’est à dire même type de processeur qu’un smartphone et, espérons le, qui se comporte comme un smartphone et non comme un PC.

Fait surprenant, c’est Lenovo qui ouvre la danse avec son Skylight. J’avoue que je n’aurais pas cru qu’un constructeur de PC pense autrement qu’en terme Wintel. Equipé d’un Qualcom Snapdragon (utilisé par plusieurs smartphones), le Skylight a pour unique but d’accéder à Internet, d’écouter de la musique et de visionner des films (aucune mention d’un traitement de texte) et annonce une durée de charge de 10h. Les portables PC ayant prouvé qu’ils pouvaient être très compétitifs en terme de prix, le Skylight a intérêt à offrir plus de punch qu’un portable PC d’entrée de gamme sous Windows 7.

Qui peut le plus ne peut pas le moins

On ne peut s’empêcher de constater que les véritables grands absents de ce marché sont le tandem Wintel. Certes, c’est Steve Ballmer qui a prononcé le discours de lancement du CES. Mais le discours du président de Microsoft n’a enthousiasmé personne. Qui plus est, il a principalement mentionné Windows 7 et Bing plus que Windows Mobile. Apple a fait coulé plus d’encre sans avoir annoncé aucun produit!

« Qui peut le plus peut le moins » dit le proverbe. En informatique ce n’est pas toujours le cas. Car si les processeurs Intel peuvent le plus (en terme de puissance et de jeu d’instruction), ils peuvent difficilement le moins en terme de consommation d’énergie. Si bien que sur le marché de l’informatique mobile c’est ARM qui rafle la mise (les processeurs Freescale, Nvidia Tegra ou Snapdragon sont tous basés sur une architecture ARM)

Certains experts pensent que la donne pourrait être changée si Microsoft décidait de porter Windows 7 pour les processeurs ARM. Je ne suis pas du tout convaincu. L’intérêt majeur de Windows est sa compatibilité avec l’existant – existant qui est compilé pour processeurs Intel x86. Dans les années 90, les premières versions de Windows NT étaient disponibles pour trois familles de processeurs: Intel x86, MIPS et DEC Alpha. Ces deux dernières versions n’ont cependant jamais pris, et la tentative de Redmond de s’affranchir de la dépendance à Intel a échoué. Il n’y a aucune raison pour que le même scénario ne se reproduise pas. On remarque d’ailleurs que les constructeurs de smartbooks ou tablettes qui utilisent des ARM utilisent tous une forme ou autre de Linux (Android ou autre), et aucun n’utilise Windows Mobile ou Windows CE.

Que Microsoft le veuille ou non, Windows est totalement dépendant d’Intel.

Sur la parallélisation massive

8 janvier 2010

Deux expressions à la mode ces temps-ci sont « cloud computing » et « grid computing« , le concept qui consiste à distribuer la puissance de calcul ou de traitement sur un vaste réseau d’ordinateurs respectivement hébergés au sein d’un centre de données ou éparpillés sur Internet.

Un exemple le plus fréquemment utilisé est celui de Google (cloud computing). Aux débuts du Web, AltaVista était l’un des plus puissants moteurs de recherche, et utilisait une poignée de DEC Alpha – les machines haut de gamme 64-bit de Digital Equipment Research. Google a suivi une approche diamétralement opposée: au lieu d’utiliser quelques machines haut de gamme, utiliser un réseau de milliers de PC ordinaires. D’autres ont suivi, comme Amazon.com qui est désormais également connu pour ses services de cloud computing.

Côté cloud computing, le projet SETI@home (1999) demandait aux Internautes de par le monde de consacrer les capacités de calculs inutilisés de leurs ordinateurs pour trouver des signes d’intelligence en analysant tout bruit en provenance de l’espace. Sur le même modèle, la simulation moléculaire Folding@Home de l’université de Stanford se base en grande partie sur les volontaires qui donnent les capacités non utilisées de nombreuses machines, mais principalement de leur PlayStation 3.

La parallélisation massive est à la mode. Exit les Crays?

La parallélisation, étape incontournable pour des hautes performances

Mais si on y regarde d’un peu plus près, un supercalculateur tel qu’un Cray est basé sur une architecture massivement parallèle. Un Cray ne contient pas un CPU super-méga puissant, mais est composé de plusieurs cabinets, eux mêmes composés de plusieurs circuits qui contiennent plusieurs CPU tournant en parallèle. Les supercalculateurs modernes peuvent être composés de plusieurs milliers d’ordinateurs totalisant plus de 70.000 CPUs multi-cœurs. On ne lance pas une application sur un Cray en espérant qu’elle tourne magiquement super vite. L’application doit être vectorisée pour que plusieurs parties puissent tourner en parallèle.

La même logique de parallélisation est standard dans beaucoup d’autres industries, comme celle du disque dur. Le principe des disques RAID est en effet d’utiliser plusieurs disques en parallèle pour avoir un plus gros disque virtuel et/ou augmenter les performances (selon les configurations). Et même dans le monde du PC la parallélisation n’est pas un phénomène nouveau. Dans les années 90, la nouveauté du Pentium était de contenir deux cœurs i486. De nos jours on peut facilement acheter un PC à base de processeur à 2 ou 4 cœurs.

Où que l’on regarde, les solutions de haute performance incluent toutes un type de parallélisme car c’est la manière la plus facile d’augmenter les performances.

Quelle différence entre supercalculateur et cloud computing?

D’un point de vue technique, la grosse différence est la manière dont la parallélisation est effectuée.

Google ne cherche pas à utiliser des composants haut de gamme. La raison est ici historique: lorsque Google a démarré, la compagnie avait relativement peu d’argent. Brin et Page ont donc cherché les composants les moins chers du marché, et ont rajouté des serveurs de redondance pour pallier à d’éventuelles pannes. Montain View a depuis gardé le reflexe de ne pas forcément prendre les composants les plus haut de gamme – et pas forcément pour des questions d’argent. Pendant un temps Google utilisait des Pentium 3 au lieu de Pentium 4 car ces derniers dégageaient plus de chaleur à puissance de calcul égale (la chaleur dégagée est une gros problème, que ce soit pour les fermes d’ordinateurs ou les supercalculateurs). Et pour ce qui est de SETI@Home ou Folding@Home, ces derniers doivent se satisfaire des machines des gens qui ont bien voulu participer.

Les supercalculateurs, de leur côté, ont toujours eu comme client des organisations ayant les poches pleines et qui sont prêtes à payer le prix fort pour avoir les meilleures performances possibles. Pour des vendeurs tels que Cray, il a donc été logique de n’utiliser que les composants les plus performants qui soient.

Le choix des composants a une incidence sur le type de modèle suivi. Google ou SETI@Home suivent naturellement une logique d’intégration horizontale: ils utilisent des composants standard du marché, et connectent leurs machines par un réseau – ou Internet dans le cas de SETI. Les supercalculateurs, eux, cherchant les composants les plus performants du marché, ont bien souvent dû utiliser des composants spécialisés, d’où une logique d’intégration verticale. Les supercalculateurs ont en effet pendant longtemps utilisé des processeurs dits vectoriels (c’est-à-dire qu’ils peuvent utiliser plusieurs opérations en parallèle). Ces processeurs sont montés sur des carte-mères spéciales, et chaque machine est connectée par le biais d’un bus spécialisé haute performance. Si Google a également customisé une partie de l’électronique de ses serveurs, il est loin d’atteindre le niveau de Cray.

Jusqu’alors, ces deux différences jouent en faveur des supercalculateurs. Sauf pour deux facteurs:

  • Google comme Folding@Home ont du apprendre à contourner le problème de l’intégration, ce qui leur a donné à terme un avantage. Car leur infrastructure monte beaucoup plus facilement en charge qu’un supercalculateur. Ces deux architectures peuvent en effet facilement doubler le nombre de machines utilisées, et n’ont pas de problèmes pour utiliser du matériel hétérogène. Un supercalculateur, par contre, aura un nombre maximum de machines qu’il peut utiliser, et est optimisé pour un type de processeur donné. Il faut reconcevoir l’architecture si l’on veut augmenter le nombre limite de machines ou utiliser des processeurs plus récents.
  • Utiliser des composants standards tels que des PCs ou des PlayStation permet de bénéficier des énormes économies d’échelles dont ces derniers jouissent. Les processeurs communément utilisés par les PCs ne valent peut-être pas les processeurs vectoriels dernier cri, mais à coût égal ils fournissent bien plus de punch. De la même manière, les jeux vidéos 3D ont créé une forte demande de processeurs graphiques 3D (Graphical Processing Unit ou GPU). Parce que le marché du jeu vidéo est si important, les GPUs développés par ATI et autres Nvidia sont des bouffeurs de nombres très puissants pour un prix modeste. Leur seul inconvénient est qu’ils ne peuvent pas effectuer n’importe quel type d’opération, rendant leur utilisation limitée pour des besoin de gros calculs.

Comparaison puissance et prix

Il est très difficile de pouvoir comparer les prix dans la mesure où non seulement les prix des supercalculateurs sont rarement publics, mais les prix ne cessent du chuter et les performances d’augmenter.

Au jour du 1er janvier 2010, le supercalculateur le plus puissant est le Cray XT5, avec une puissance de 1,75 petaFLOPS (milliards de milliards d’opérations à virgule flottante par seconde), suivi de l’IBM RoadRunner (1,7 petaFLOPS). Le Cray XT6, successeur du XT5, a été annoncé fin 2009 mais n’est pas encore disponible. De son côté, Folding@Home a en avril 2009 fourni plus de 8.1 petaFLOPS en utilisant 350.000 machines.

Quid du coût au teraFLOPS? En décembre 2009, Folding@Home avait 55.291 PS3 qui fournissaient 1,559 teraFLOPS. A $300 la PS3, cela revient à $10.000 le teraFLOPS ou $10 million le petaFLOPS – mais je suppose que Sony ferait une bonne réduction si quelqu’un achetait 55.000 PlayStation 3 d’un coup.

Selon la brochure du Cray XT5, chaque cabinet de ce dernier délivre une puissance de 7 à 12 teraFLOPS. Sachant que le prix d’entrée de gamme d’un cabinet était en 2007 de $500.000, cela nous fait du $70.000 le teraFLOP. Les prix ont du chuter depuis, mais il n’est pas indiqué combien faut-il de cabinets pour atteindre le petaFLOPS (100 cabinets à 7 teraFLOPS ne dégagent pas forcément 700 teraFLOPS). On peut cependant penser que le prix au petaFLOP doit être désormais bien inférieur à $70 millions.

L’IBM RoadRunner, quant à lui, fournit 1.04 petaFLOPS pour la bagatelle de $125 millions (source: Wikipedia).

En d’autres termes, non seulement une solution de grid computing offre des performances comparables à celle d’un supercalculateur, mais avec un prix du matériel bien moindre: avec $16,5 millions de PS3 (prix grand public que Stanford n’a même pas eu à payer!) et quelques serveurs de Stanford, Folding@Home fournit des performances équivalentes à celles de l’IBM RoadRunner qui lui coûte $133 millions (Folding@Home utilise également Internet, mais je ne pense pas que le coût soit important).

Par contre, le grid computing a plusieurs inconvénients. L’université de Stanford ne se soucie peut-être pas de savoir qui possède les PS3 qu’elle utilise, mais des clients comme le Pentagone sont plus sensibles à de tels détails. Et héberger 55.000 PS3 demanderait beaucoup d’espace, de maintenance et d’électricité. Un supercalculateur reste donc beaucoup plus pratique.

Tendances

Depuis plusieurs années ont voit un rapprochement entre les solutions distribuées (cloud ou grid computing) et les supercalculateurs.

L’inconvénient majeur des solutions de cloud computing est la demande en espace. Mais la technologie de masse n’a cessé d’évoluer pour offrir une intégration de plus en plus poussée. Au début les PCs étaient une grosse boite sur le bureau puis dans la salle machine. Puis les serveurs PC sont devenus disponibles en racks, ce qui permet d’en stocker quelques dizaines dans un cabinet, gagnant du coup beaucoup d’espace. Google a personnalisé le matériel pour transformer une armée de cabinets en un cloud computer. Et il est à parier qu’ils ont continué à améliorer l’intégration entre les cabinet comme entre les racks à l’intérieur d’un cabinet. Parce qu’ils ont du déployer des centres de données (data centers) de par le monde, Google a dés 2005 travaillé sur des containers bourrés de serveurs (Google l’a reconnu en avril 2009). Ces containeurs sont prêts à être mis dans un bateau ou sur une remorque de camion, et à être déployés à peu près n’importe-où.

Les processeurs Intel et AMD, quant à eux, ont augmenté en puissance, certains ayant maintenant de 8 à 12 cœurs. Finalement, Nvidia (le plus gros constructeur de processeurs graphiques avec ATI) s’est attaqué au marché des « supercalculateurs personnels » depuis quelques années avec sa gamme Tesla. D’un côté il commercialise le Tesla C1060, une carte dédiée au calcul scientifique qui contient quelques 240 processeurs graphiques et coûte $1200 (de nombreux constructeurs tels que Dell, HP ou autres incorporent une C1060). Nvidia vend aussi son propre supercalculateur, le Tesla S1070, qui contient quatre C1060 (soit 960 processeurs graphiques) et qui pour $8000 fournit 345 gigaFLOPS (il peut fournir 4 petaFLOPS mais uniquement en simple précision).

En d’autres termes, l’intégration des composants grand public ne cesse de progresser. Aujourd’hui certains processeurs Intel ont 12 cœurs et un Tesla C1060 contient 240 processeurs graphiques. Demain le nombre de cœurs passera à 24 ou 32, et le prochain Tesla contiendra plus de GPU plus puissants. De même, il est possible que l’on voit apparaitre des cartes-mères avec de plus en plus de processeurs.

Il est cependant intéressant de noter que le cloud computing (où l’organisation possède et héberge les machines) est pour l’instant grandement utilisé pour de l’informatique de gestion (principalement des services Web). Le seul type d’informatique distribuée qui concurrence les supercalculateurs (informatique scientifique) est le grid computing (où l’organisation emprunte de la puissance de calcul à des ordinateurs volontaires disponibles sur Internet).

Mais le grid computing, de par sa nature, ne peut que rester un marché de niche. Cela dépend en effet entièrement de la bonne volonté des gens de prêter  la capacité de calcul de leur ordinateur ou console de jeu favoris. Folding@Home a peut-être réussi à enrôler un grand nombre de possesseurs de PlayStation 3, il risque à tout moment d’en perdre si un nouveau projet plus populaire apparait (comme un projet lié à la lutte contre le cancer par exemple)

Mais cela n’empêche pas les supercalculateurs d’évoluer également. A commencer par leur utilisation de composants du marchés. Depuis quelques années, les supercalculateurs ont délaissés les processeurs vectoriels pour acheter… des processeurs Intel et AMD. Même ce marché pourtant très fermé n’a pu résister aux économies d’échelles dont bénéficient Intel, AMD et autres Nvidia. Le Cray XT5 est en effet équipé d’AMD Opteron à 4 ou 6 cœurs (le XT6 sera équipé d’AMD Opteron 8 à 12 cœurs). L’IBM RoadRunner utiliser des Opterons aidés par des Cells (le processeur de le PS3). Et en 2008, Cray et Intel ont annoncé un partenariat pour développer des supercalculateurs. En Septembre 2008 Cray sortait son premier supercalculateur à base d’Intel Xeon quadruple cœurs:  le Cray CX1 (une version du XT1 utilise en plus un Tesla C1060). La station de travail Cray CX1-iWS, quant à elle, est en vente exclusivement chez… Dell!

Conclusion

Si le grid computing concurrence les supercalculateurs (Stanford a fait beaucoup d’économies grâce à Folding@Home) ce type d’informatique ne les remplacera pas pour les raisons citées plus tôt.

Le réel danger pour les supercalculateurs est qu’un jour le cloud computing s’attaque au domaine de l’informatique scientifique. Folding@Home a prouvé que l’informatique massivement distribuée peut fournir des performances supérieures aux meilleurs supercalculateurs. Or les clients de ces derniers désirent le plus de puissance possible. Sachant qu’il a fallu 55.000 PS3 à Folding@Home pour dépasser le petaFLOPS, qu’un container Google contient 1160 serveurs et que chaque serveur a la taille de plusieurs PSP 3, un constructeur pourrait arriver à créer un cloud computer sous forme de containers qui rivalise avec les Cray. L’installation ne serait pas plug ‘n play (le plus difficile est de gérer le refroidissement des machines), mais il n’est pas impossible qu’elle reste beaucoup plus facile que celle d’un supercalculateur qui doit être assemblé manuellement.

Le cloud computing va-t-il s’attaquer un jour au marché des supercalculateurs? Trop tôt pour le dire. Le grid computing, lui, n’est pas près de disparaitre. Après tout, qui n’aimerait pas bénéficier d’une puissance de calcul comparable aux meilleurs supercalculateurs pour trois fois rien?

Mais quoi qu’il arrive, les fabricants de processeurs grand public (Intel, AMD, N`vidia, etc.) ont déjà gagné car ils ont conquéri ces trois marchés. AMD a d’ailleurs racheté ATI, poussant beaucoup à spéculer qu’Intel se doit de racheter Nvidia afin d’avoir dans son offre des CPUs comme des GPUs.

La course aux performances

1 janvier 2010

Wired a récemment publié un article fort intéressant sur l’échec de Duke Nukem Forever, l’un des plus grands fiascos du monde du jeu vidéo. Cette bérézina apporte plusieurs leçons utiles, au-delà du jeu vidéo même.

Après le succès de Duke Nukem 3D en 1996, son éditeur, 3D Realms, a annoncé Duke Nukem Forever en 1997. 12 ans plus tard (oui, DOUZE ANS), le projet a été annulé. En mai 2009, 3D Realms a en effet arrêté définitivement tout développement de Duke Nukem Forever, sans pour autant avoir un jeu vidéo à montrer.

Que c’est-il passé? Comment peut-on passer 12 ans de développement et dépenser plus de $20 millions sans avoir un jeu vidéo au bout du compte? L’ article de Wired commente en détail comment 3D Realms a voulu produire un jeu qui dépassait ce qui existait… et a été piégé par un perfectionnisme qui ferait pâlir Steve Jobs lui-même.

Intégration horizontale vs. le top des performances

Afin de gagner du temps, 3D Realms a décidé d’acheter un moteur 3D d’une compagnie tierce et de bâtir le jeu autour de ce moteur. Cette démarche d’intégration horizontale aurait eu beaucoup de sens si la compagnie n’avait pas eu un but incompatible avec le premier choix: vouloir produire un jeu qui dépasse graphiquement tout ce qui existe. Ca avait été brièvement le cas pour Duke Nukem 3D, cela devrait être également le cas pour Duke Nukem Forever.

Or on a assisté dans les années 90 et 2000 à une explosion des possibilités des jeux en 3D. Des jeux vidéo qui étaient au top graphiquement semblaient dépassés 6 mois plus tard. Lorsqu’un marché est en une telle ébullition et change tellement vite, la seule manière d’être au top des performances est de suivre un modèle d’intégration verticale et de créer son propre moteur graphique. Ca avait été le cas pour Duke Nukem 3D.

Paradoxalement, dans un marché où la course à la performance est roi, vouloir acheter un moteur d’une compagnie tierce ne permet pas de gagner du temps mais en fait perdre!

3D Realms a acheté le moteur de Quake II, disponible fin 1997. Mais contrairement à l’équipe de Quake II, l’équipe de Duke Nukem Forever n’a pu commencer le jeu autour de ce moteur uniquement lorsque ce dernier a été terminé. Lorsque l’on désire produire un jeu vidéo au top du top à une époque où la technologie évolue tellement rapidement, le timing idéal veut que le développement du jeu vidéo même se termine en même temps que celui du moteur 3D. Si le moteur est au top du top à ce moment-là, le jeu vidéo peut créer la sensation pendant peut-être 6 mois. Cela implique que l’équipe qui développe le jeu vidéo doit travailler avec un moteur incomplet (voir inexistant au début).

Dans le cas de Duke Nukem Forever, 3D Realms n’a pu commencer le développement du jeu vidéo proprement dit qu’après que le moteur de Quake II ait été terminé. Or pendant la production de Duke Nukem Forever, d’autres moteurs sont apparus. L’équipe a donc décidé de changer de moteur pour Unreal, plus performant. Outre le coût (ils ont en gros acheté le moteur de Quake II pour rien), il a fallu recommencer le jeu quasiment à zéro.

Le développement de Duke Nukem a été maudit par une série de décisions du même genre: utiliser une nouvelle version d’Unreal, rajouter de nouveaux effets graphiques, etc. Dés que le chef de projet voyait la concurrence faire quelque chose de cool, il fallait que Duke Nukem Forever l’ait aussi. Chaque changement rallongeait le temps de développement, ce qui augmentait le risque que quelqu’un d’autre sorte d’autres effets graphiques.

Se focaliser sur les mauvaises fonctionnalités

Outre le fait que l’intégration horizontale n’était pas le bon modèle pour les buts qu’ils s’étaient fixés, 3D Realms s’est focalisé sur les mauvaises fonctionnalités à apporter, à savoir les performances.

Ils ont oublié que le facteur le plus important d’un jeu vidéo est la jouabilité (gameplay en anglais). Depuis Pong, nombreux sont les jeux vidéos qui étaient graphiquement superbe, avaient une bande sonore géniale, parfois une intro à tomber par terre… mais étaient au final décevant car la jouabilité était terrible. Jeu trop dur, difficile de contrôler le personnage, etc.

On remarque que les jeux vidéo mythiques (Pac Man, Tetris) avaient tout sauf des graphismes ou une bande sonore extraordinaires. Le gameplay rendait par contre ces jeux extrêmement prenants. L’une des raisons du succès de Nintendo est d’avoir beaucoup misé sur cet aspect plutôt que les performances – contrairement à Sega puis Sony et Microsoft. Ses jeux vidéos phares comme Super Mario Bros n’ont jamais été célèbres pour avoir un graphisme extraordinaire, mais cela ne les a pas empêché d’être des hits. Le dernier exemple est sa console de jeu Wii. Là où Sony et Microsoft se sont battus pour fournir la console qui délivre le plus de punch, Nintendo a raflé la mise en offrant une jouabilité inédite.

Conclusion

Fournir les meilleurs performances au monde est un travail extrêmement difficile – que ce soit dans le monde du jeu vidéo ou ailleurs. La moindre erreur, le moindre délai et tout est à recommencer.

Vouloir offrir DE LOIN les meilleures performances au monde est quasiment impossible. La meilleure manière d’y arriver est AVANT que la course aux performances commence. Doom a révolutionné le monde des jeux 3D pour plusieurs raisons. La première était que les PC à base d’Intel 80386 commençaient à se populariser. La deuxième était que ses développeurs ont osé avant tout le monde à repousser les limites de ce que l’on pensait être possible – avant eux, de nombreux développeurs ont sans doute cru impossible de développer un jeu tel que Doom sur PC. Finalement, Doom avait une fort bonne jouabilité.

Mais une fois que la course a commencé, c’est un travail extrêmement fastidieux d’être au top. Dans de nombreux cas, on dépense une grande quantité d’énergie pour avoir un résultat comparable avec la concurrence. L’aspect différentiateur n’est plus les performances mais d’autres facteurs. Dans le cas des jeux vidéo, le gameplay. C’est ce qui a rendu un autre jeu de combat 3D célèbre: Halo.