Archive pour janvier 2012

La mode des Ultrabooks

27 janvier 2012

Il y a quelques années, la mode était aux Netbooks, des PC portables d’entrée de gamme. La mode est désormais aux Ultrabooks, des PC portables très fins et très légers et aux performances acceptables, à l’instar du MacBook Air.

Que c’est-il passé ? Pourquoi ce changement de tendance ?

En 2007, Asus a sorti l’Eee PC, un portable PC aux capacités minimales, mais annoncé à moins de $200. En pleine crise financière, le public a été plus qu’intéressé par un PC portable à tout petit prix, lançant la tendance des Netbooks. Evolution naturelle, ils ont gagné en performance, en capacités… et en prix. D’un autre côté, les portables PC traditionnels ont cassé les prix pour parfois se retrouver pas beaucoup plus cher que les Netbooks. Etant donné que ces derniers se sont révélés un peu juste en puissance, le public les a délaissés pour des portables PC ou pour un iPad.

En d’autres termes, les Netbooks ont été avant tout plébiscités puis abandonnés par les consommateurs. Les Ultrabooks, au contraire, sont avant tout poussés par les constructeurs. Intel aurait réservé $300 millions pour une campagne publicitaire – le constructeur affirme d’ailleurs détenir les droits sur le terme « Ultrabook ». Je ne me rappelle pas qu’Intel ait déboursé autant pour les Netbooks.

La raison est une histoire de marges. Si les constructeurs de PC se sont attaqués au marché des Netbooks, c’est du fait de l’intérêt du public. En période de crise, on essaie de vendre ce qui se demande. Le problème est que les constructeurs de PC ont déjà des marges très faibles. Les marges sur un ordinateur à $200-$300 ne peuvent être que minime. C’est la raison pour laquelle l’Eee PC a augmenté de prix pour se vendre désormais entre $300 et $500. De son côté, Microsoft a limité la définition technique d’un Netbook afin d’éviter que ses ventes de Windows Starter Edition (uniquement vendues pour les Netbooks) ne cannibalisent les ventes plus juteuses de Windows Home Premium.

Car les Ultrabook, s’ils gardent un côté léger, ne sont pas de portables d’entrée de gamme – ils tournent autour des $1000. Et pour l’écosystème du PC, il y a nettement plus de marges à se faire autour d’un PC à $1000 qu’un Netbook à $500.

Le MacBook Air

Les Ultrabooks arrivent à temps pour Microsoft. Car si l’on a beaucoup parlé de l’iPad en entreprise, le véritable danger pour Redmond est le MacBook Air. Le risque est moins le volume de vente qu’une masse critique d’utilisateurs Mac en entreprise. Je n’ai pas de chiffres à donner, mais à ce que j’en vois les iPad en entreprise sont grandement achetés par les utilisateurs eux-mêmes (ou offerts en guise de cadeau ou récompense). Le MacBook Air, par contre, est un accepté par certains départements informatique depuis bien plus longtemps.

En particulier, le MacBook Air est apprécié par les utilisateurs qui sont souvent sur la route ou en meeting et qui privilégient un portable léger tout en étant confortable d’utilisation. En d’autres termes, les managers et cadres dirigeants. Et si une entreprise a une masse critique d’employés influents ayant des MacBook, cela impacte le reste des logiciels acheté par la compagnie. Si le PDG ou plusieurs vice-présidents ont un Mac, autant dire que les logiciels d’entreprise qu’ils utilisent on intérêt à tourner sur leur ordinateur. Si une compagnie a suffisamment d’employés possédant des Mac, elle va chercher des logiciels qui supportent Windows et Macintosh.

Le problème n’est pas pour MS-Office qui existe sur MacOS X, mais pour les logiciels d’entreprise que Microsoft essaie de pousser tels que SharePoint ou Lync. Ces logiciels sont en effet avant tout conçus pour fonctionner avec Windows et Internet Explorer. Ils fonctionnent sur d’autres plateformes, mais pas aussi bien. Plus généralement, plus une entreprise a d’ordinateurs non Windows, moins la sacro-sainte compatibilité Windows n’a d’importance.

Cela ne veut pas dire pour autant que l’empire Microsoft va s’effondrer du jour au lendemain. Redmond a encore de belles années devant lui, et ses deux vaches à lait ne sont pas prêtes de se tarir. Mais cela représente tout de même une évolution dans le mauvais sens pour la firme de Steve Ballmer.

L’avantage des systèmes ouverts

8 janvier 2012

En informatique, la guerre entre les systèmes ouverts et les systèmes fermés (ou propriétaires) a toujours fait rage. Logiciels propriétaires contre logiciels libres, architecture ouverte du PC contre architecture fermée du Mac, etc.

Le succès d’Apple apporte de l’eau au moulin des systèmes fermés – la compagnie préfère d’ailleurs parler de système intégré, par opposition aux systèmes « fragmentés ». Avant l’iPhone, l’idée qu’une compagnie puisse lancer avec succès une plateforme en contrôlant quelles applications peuvent y tourner semblait impensable. Depuis le succès de son App Store, plus tellement.

De fait, un système fermé a de nombreux d’avantages. Un des problèmes des plateformes PC et Android est la multitude de configurations matérielles possibles, entrainant des risques d’incompatibilités. Apple, au contraire, contrôlant tous les éléments de ses produits, peut limiter les combinaisons et s’assurer que tous les éléments fonctionnent correctement. De la même manière, contrôler les applications qui peuvent être installées sur un iPhone ou un iPad permet de mieux sécuriser le système.

Mais si les systèmes ouverts ont leurs inconvénients, ils ont également leurs avantages. Dont, ironie du sort, même Apple en a profité.

L’exemple du PC

Le PC est sans doute le système matériel le plus ouvert qui ait jamais existé, même si cela n’était pas été volontaire. Tout d’abord, pressé par le temps, Big Blue a en effet assemblé vite fait mal fait un ordinateur individuel à partir de composants du marché qu’il a pu trouver : Microsoft pour le système d’exploitation, Intel pour le processeur, Seagate pour le disque dur, etc. N’ayant pas pensé à verrouiller le système, il a permit la création de nombreux « clones » PC qui ont assemblé des machines réutilisant les mêmes composants.

L’autre caractéristique déterminante : l’utilisation du bus d’expansion, permettant d’étendre les capacités en utilisant des cartes d’extension. La carte graphique a d’ailleurs dés le début été accessible par le bus d’expansion au lieu d’être soudée à la carte-mère comme c’était le cas pour tous les autres ordinateurs individuels. Non seulement cela a permit de monter facilement un PC, accélérant la prolifération des clones PC (Michael Dell a commencé sa compagnie dans sa chambre d’université), mais cela a contribué à un dégroupage des composants du PC, favorisant la création de multiple fabriquant de cartes d’extension. Et permettant à ces fabricants de court-circuiter les constructeurs de PC pour cibler de nouveaux marchés.

3Com a ainsi démarré en vendant des cartes Ethernet à une époque où aucun ordinateur individuel n’était équipé en standard d’une connexion réseau. Du coup, n’importe quel PC pouvait se connecter à un réseau sans avoir à attendre que les constructeurs de PC ne se décident à adopter Ethernet.

De la même manière, les géants du PC de l’époque (IBM, Compaq, HP) étant focalisés sur l’informatique d’entreprise, ils n’étaient que moyennement intéressés par les capacités graphiques et sonores du PC. Qu’à cela ne tienne, de nombreuses compagnies tierces ont créé des cartes graphiques, processeurs graphiques et cartes sonores permettant de mieux viser le marché grand public, plus avide de jeux vidéo. C’est ainsi que des géants tels que ATI, Nvidia ou Creative Labs ont pu se développer.

Imaginons qu’IBM ait créé son PC comme système fermé, empêchant tout clone. Admettons que le PC ait eu du succès malgré ça (ce qui n’est pas certain car Big Blue ne se serait certainement pas démené pour améliorer son PC). IBM se serait certainement cantonné à un seul fournisseur pour chaque composant, empêchant des compagnies telles que AMD (processeurs) ou Western Digital (disques dur) de se développer sur ce marché. L’apparition d’autres marques qu’IBM a en effet représenté autant d’opportunités de se créer un marché (si IBM n’est pas intéressé, on essaie de vendre à Compaq, HP, etc). Qui plus est, IBM n’aurait certainement pas été intéressé par le marché des jeux vidéo, limitant les innovations graphiques et sonores du PC.

Le Macintosh a beau être un système fermé, il utilise plusieurs standards développés grâce au PC (tels qu’USB ou VGA) et de nombreux de ses composants (CPU, processeurs graphiques, etc.). Il a ainsi bénéficié des progrès engendrés par l’écosystème PC. Uniquement, il faut le reconnaître, parce qu’il a réussi à survivre au PC. Les autres constructeurs d’ordinateurs non compatibles PC n’ont pas eu cette chance.

Le PC et l’héritage de l’autre Steve ?

Mais le bus d’expansion du PC était tout sauf une évidence à l’époque. Quasiment aucun autre micro-ordinateur de l’époque n’avait un tel bus (certains avaient un accès direct au bus, mais pas comme le PC). Si un tel bus était monnaie courante pour la toute première génération d’ordinateurs individuels, c’était parce que ces derniers étaient destinés à un public d’amateur d’électronique. Dés que les ordinateurs personnels sont devenus des ensembles complets que l’on n’avait plus à monter à l’aide de son fer à souder, cette fonctionnalité a disparu. Tous les composants sont devenus soudés à la carte-mère, limitant les possibilités d’étendre les capacités de l’ordinateur. L’exception a été l’Apple II. Wozniak était en effet de l’ancienne école et a été l’une des rares personnes à travailler sur les deux premières générations d’ordinateurs personnels. Il a imposé le choix de 8 slots d’extension à Steve Jobs qui détestait le concept.

Je ne sais pas si l’équipe a emprunté le concept de slots d’extension à l’Apple II, mais ce n’est pas impossible. Ce dernier était en effet l’ordinateur à concurrencer pour IBM. Si c’est le cas, Steve Wozniak a eu beaucoup plus d’influence que l’on pense sur l’informatique.

Le paysage fermé des tablettes

Le paysage de l’informatique mobile est bien moins ouvert que celui du PC. Tout d’abord, il n’est pas aussi facile d’assembler une tablette ou un iPhone de la même manière que l’on assemble un PC de bureau. Sur le marché des tablettes, Apple règne en plus en maître.

Le résultat est qu’à l’heure actuelle, la seule manière pour fournir des composants pour tablettes en volume suffisant est de passer par la firme à la pomme – qui doit avoir une liste réduite de fournisseurs. Si la firme de Cupertino est fort novatrice, elle ne peut pas penser -ni s’intéresser- à tout les types d’innovation possibles. Que cela soit une connexion 4G, satellite (qui sait), etc. Apple n’ayant jamais été grandement intéressé par le marché d’entreprise, on peut se demander si elle considèrera un jour des extensions telles qu’un lecteur de puce RFID ou de carte bleue. De la même manière, la firme de Tim Cook pourrait-elle un jour refuser une killer app d’entreprise sur iPad parce qu’elle viole un des nombreux interdits qu’elle impose aux applications ?

C’est là où la Kindle Fire d’Amazon à $200 pourrait ouvrir le marché. Mais le monde des tablettes aura besoin de bien plus de deux constructeurs. Amazon.com reste orienté grand public et intéressé par vendre du contenu électronique (livres, etc.). Pour réellement atteindre son potentiel, le marché des tablettes doit être suffisamment ouvert pour que des nouveaux venus aient une chance de s’y faire leur place. Mais si des tablettes à écran 7″ arrivent à se créer un créneau, c’est un début.

Et c’est l’une des raisons pour lesquelles Android a gagné tant de terrain. Malgré tous ses défauts, il a permit à n’importe qui de pouvoir utiliser un système d’exploitation mobile, si bien qu’il est utilisé par plusieurs fabricants de tablettes. Là où Apple ne propose qu’un type de smartphone (l’iPhone), Android propose un plus vaste choix, comme pour ceux qui préfèrent un clavier physique ou un écran plus grand. De la même manière, une compagnie a annoncé un « ordinateur » Android sous forme… de clé USB !