Archive pour janvier 2012

L’avantage des systèmes ouverts

8 janvier 2012

En informatique, la guerre entre les systèmes ouverts et les systèmes fermés (ou propriétaires) a toujours fait rage. Logiciels propriétaires contre logiciels libres, architecture ouverte du PC contre architecture fermée du Mac, etc.

Le succès d’Apple apporte de l’eau au moulin des systèmes fermés – la compagnie préfère d’ailleurs parler de système intégré, par opposition aux systèmes « fragmentés ». Avant l’iPhone, l’idée qu’une compagnie puisse lancer avec succès une plateforme en contrôlant quelles applications peuvent y tourner semblait impensable. Depuis le succès de son App Store, plus tellement.

De fait, un système fermé a de nombreux d’avantages. Un des problèmes des plateformes PC et Android est la multitude de configurations matérielles possibles, entrainant des risques d’incompatibilités. Apple, au contraire, contrôlant tous les éléments de ses produits, peut limiter les combinaisons et s’assurer que tous les éléments fonctionnent correctement. De la même manière, contrôler les applications qui peuvent être installées sur un iPhone ou un iPad permet de mieux sécuriser le système.

Mais si les systèmes ouverts ont leurs inconvénients, ils ont également leurs avantages. Dont, ironie du sort, même Apple en a profité.

L’exemple du PC

Le PC est sans doute le système matériel le plus ouvert qui ait jamais existé, même si cela n’était pas été volontaire. Tout d’abord, pressé par le temps, Big Blue a en effet assemblé vite fait mal fait un ordinateur individuel à partir de composants du marché qu’il a pu trouver : Microsoft pour le système d’exploitation, Intel pour le processeur, Seagate pour le disque dur, etc. N’ayant pas pensé à verrouiller le système, il a permit la création de nombreux « clones » PC qui ont assemblé des machines réutilisant les mêmes composants.

L’autre caractéristique déterminante : l’utilisation du bus d’expansion, permettant d’étendre les capacités en utilisant des cartes d’extension. La carte graphique a d’ailleurs dés le début été accessible par le bus d’expansion au lieu d’être soudée à la carte-mère comme c’était le cas pour tous les autres ordinateurs individuels. Non seulement cela a permit de monter facilement un PC, accélérant la prolifération des clones PC (Michael Dell a commencé sa compagnie dans sa chambre d’université), mais cela a contribué à un dégroupage des composants du PC, favorisant la création de multiple fabriquant de cartes d’extension. Et permettant à ces fabricants de court-circuiter les constructeurs de PC pour cibler de nouveaux marchés.

3Com a ainsi démarré en vendant des cartes Ethernet à une époque où aucun ordinateur individuel n’était équipé en standard d’une connexion réseau. Du coup, n’importe quel PC pouvait se connecter à un réseau sans avoir à attendre que les constructeurs de PC ne se décident à adopter Ethernet.

De la même manière, les géants du PC de l’époque (IBM, Compaq, HP) étant focalisés sur l’informatique d’entreprise, ils n’étaient que moyennement intéressés par les capacités graphiques et sonores du PC. Qu’à cela ne tienne, de nombreuses compagnies tierces ont créé des cartes graphiques, processeurs graphiques et cartes sonores permettant de mieux viser le marché grand public, plus avide de jeux vidéo. C’est ainsi que des géants tels que ATI, Nvidia ou Creative Labs ont pu se développer.

Imaginons qu’IBM ait créé son PC comme système fermé, empêchant tout clone. Admettons que le PC ait eu du succès malgré ça (ce qui n’est pas certain car Big Blue ne se serait certainement pas démené pour améliorer son PC). IBM se serait certainement cantonné à un seul fournisseur pour chaque composant, empêchant des compagnies telles que AMD (processeurs) ou Western Digital (disques dur) de se développer sur ce marché. L’apparition d’autres marques qu’IBM a en effet représenté autant d’opportunités de se créer un marché (si IBM n’est pas intéressé, on essaie de vendre à Compaq, HP, etc). Qui plus est, IBM n’aurait certainement pas été intéressé par le marché des jeux vidéo, limitant les innovations graphiques et sonores du PC.

Le Macintosh a beau être un système fermé, il utilise plusieurs standards développés grâce au PC (tels qu’USB ou VGA) et de nombreux de ses composants (CPU, processeurs graphiques, etc.). Il a ainsi bénéficié des progrès engendrés par l’écosystème PC. Uniquement, il faut le reconnaître, parce qu’il a réussi à survivre au PC. Les autres constructeurs d’ordinateurs non compatibles PC n’ont pas eu cette chance.

Le PC et l’héritage de l’autre Steve ?

Mais le bus d’expansion du PC était tout sauf une évidence à l’époque. Quasiment aucun autre micro-ordinateur de l’époque n’avait un tel bus (certains avaient un accès direct au bus, mais pas comme le PC). Si un tel bus était monnaie courante pour la toute première génération d’ordinateurs individuels, c’était parce que ces derniers étaient destinés à un public d’amateur d’électronique. Dés que les ordinateurs personnels sont devenus des ensembles complets que l’on n’avait plus à monter à l’aide de son fer à souder, cette fonctionnalité a disparu. Tous les composants sont devenus soudés à la carte-mère, limitant les possibilités d’étendre les capacités de l’ordinateur. L’exception a été l’Apple II. Wozniak était en effet de l’ancienne école et a été l’une des rares personnes à travailler sur les deux premières générations d’ordinateurs personnels. Il a imposé le choix de 8 slots d’extension à Steve Jobs qui détestait le concept.

Je ne sais pas si l’équipe a emprunté le concept de slots d’extension à l’Apple II, mais ce n’est pas impossible. Ce dernier était en effet l’ordinateur à concurrencer pour IBM. Si c’est le cas, Steve Wozniak a eu beaucoup plus d’influence que l’on pense sur l’informatique.

Le paysage fermé des tablettes

Le paysage de l’informatique mobile est bien moins ouvert que celui du PC. Tout d’abord, il n’est pas aussi facile d’assembler une tablette ou un iPhone de la même manière que l’on assemble un PC de bureau. Sur le marché des tablettes, Apple règne en plus en maître.

Le résultat est qu’à l’heure actuelle, la seule manière pour fournir des composants pour tablettes en volume suffisant est de passer par la firme à la pomme – qui doit avoir une liste réduite de fournisseurs. Si la firme de Cupertino est fort novatrice, elle ne peut pas penser -ni s’intéresser- à tout les types d’innovation possibles. Que cela soit une connexion 4G, satellite (qui sait), etc. Apple n’ayant jamais été grandement intéressé par le marché d’entreprise, on peut se demander si elle considèrera un jour des extensions telles qu’un lecteur de puce RFID ou de carte bleue. De la même manière, la firme de Tim Cook pourrait-elle un jour refuser une killer app d’entreprise sur iPad parce qu’elle viole un des nombreux interdits qu’elle impose aux applications ?

C’est là où la Kindle Fire d’Amazon à $200 pourrait ouvrir le marché. Mais le monde des tablettes aura besoin de bien plus de deux constructeurs. Amazon.com reste orienté grand public et intéressé par vendre du contenu électronique (livres, etc.). Pour réellement atteindre son potentiel, le marché des tablettes doit être suffisamment ouvert pour que des nouveaux venus aient une chance de s’y faire leur place. Mais si des tablettes à écran 7″ arrivent à se créer un créneau, c’est un début.

Et c’est l’une des raisons pour lesquelles Android a gagné tant de terrain. Malgré tous ses défauts, il a permit à n’importe qui de pouvoir utiliser un système d’exploitation mobile, si bien qu’il est utilisé par plusieurs fabricants de tablettes. Là où Apple ne propose qu’un type de smartphone (l’iPhone), Android propose un plus vaste choix, comme pour ceux qui préfèrent un clavier physique ou un écran plus grand. De la même manière, une compagnie a annoncé un « ordinateur » Android sous forme… de clé USB !