Archive pour décembre 2009

La culture Google

25 décembre 2009

La culture d’une entreprise est grandement influencée par deux facteurs. Tout d’abord la personnalité de son fondateur. Ensuite, les challenges qu’une entreprise doit faire face à ses débuts – et la manière dont elle les surmonte. Ces deux facteurs vont façonner la culture de la compagnie, créer ses forces ainsi que ses faiblesses.

Après Apple et Microsoft cette semaine je me penche sur le cas de Google.

La compagnie a été fondée par Larry Page et Sergey Brin lorsqu’ils étaient tous deux thésards à Stanford, et ont travaillé sur un nouveau type de moteur de recherche.

Sergey et Larry: des informaticiens, pas des businessmen

Sergey et Larry sont deux fondateurs un peu hors du commun dans la mesure où aucun des deux n’est un businessman – bien souvent au moins un des deux co-fondateurs a le sens des affaires. Après avoir conçu leur moteur de recherche, leur premier réflexe a été d’essayer de le vendre à Yahoo. Ce n’est qu’après avoir essuyé un refus qu’ils ont décidé de fonder leur propre société. Et ils ne sont pas restés longtemps à la tête.

De même, tout businessman aurait immédiatement voulu ajouter de la publicité. Pas eux. Leur modèle était de licencier leur technologie. Ce n’est qu’après l’échec du modèle initial qu’ils ont à contrecœur décidé d’ajouter de la publicité sur leur site – mais s’assurant qu’elle soit non-intrusive. Ironiquement, un homme d’affaire aurait immédiatement mis le plus de publicité possible, or la voie choisie par Sergey et Larry est sans doute une des raisons du succès de Google.

On retrouve cette mentalité non-commerciale dans beaucoup d’aspects de Google. Alors que chez Microsoft on affiche le court de l’action de la compagnie, chez Google les employés ont (avaient) une amende s’ils sont pris en train de regarder le cours de l’action Google.

Certains techies deviennent ensuite homme d’affaire – c’est le cas de Bill Gates. Pas Page et Brin. Ils restent fondamentalement des techies en tant que présidents respectivement des produits et de la technologie. Il n’est cependant pas dit qu’ils soient des visionnaires.

Cela implique que Google. Chez Google, ce sont les développeurs qui décident de ce qui doit être fait et ce qui ne doit pas être fait. Le marketing n’a pas pignon sur rue comme dans beaucoup de compagnies.

Le challenge du coût de fonctionnement

L’un des premiers challenges de Google a été ses coûts de fonctionnement. En 1998 la plupart des dotcoms croulaient sous l’argent des investisseurs. C’était l’époque de la « nouvelle économie », où une dotcom qui dégageait des profits n’était pas bien vue car cela voulait dire qu’elle ne dépensait pas assez pour attirer le plus d’utilisateurs possibles (la rentabilité? C’est un concept ringard de l’ancienne économie)

Pas pour Google. Larry Page et Sergey Brin ont démarré Google en septembre 1998 avec un budget de $100.000 – très loin des millions que d’autres dotcoms ont récolté. Sachant qu’ils voulaient avoir leur propre réseau de serveurs, autant dire que le budget était serré.

C’est ainsi que Brin et Page ont acheté le matériel le moins cher qu’ils ont pu trouver sur le marché. Les produits achetés n’étant pas de meilleure qualité, ils ont du mettre en place un système de redondance – acheter 10 serveurs bas de gamme avec 1 serveur redondant coûte moins cher qu’acheter 9 serveurs haute disponibilité.

Aujourd’hui Google dégage des profits colossaux et a des milliards en banque, mais regarde toujours le coût de fonctionnement de très près. Beaucoup d’analystes estiment qu’ils ont l’un des coûts de fonctionnement de server farms les plus bas du marché.

La toute-puissance de l’algorithme

Pour créer son moteur de recherche Google a du surmonter plusieurs obstacles. L’un des plus importants est d’utiliser une architecture distribuée.

Tout d’abord, il a fallu architecturer les services pour qu’ils utilisent une telle architecture. Ensuite, lorsqu’on utilise des centaines de milliers d’ordinateurs en parallèle, de tous petits détails peuvent avoir des impacts disproportionnés. Que ça soit la chaleur dégagée ou les ressources utilisées par les services de Google (CPU, mémoire).

Ce qui fait qu’une obsession chez Google est l’optimisation. C’est l’une des rares compagnies où les employés peuvent argumenter ad nauseum sur le processeur qui offre le meilleur rapport puissance / énergie consommée. C’est aussi une compagnie où optimiser les programmes est extrêmement important. Chaque kilo-octet de mémoire économisé par un programme a de grandes répercutions lorsque ce dernier est déployé sur l’armée de serveur de la compagnie et utilisé par des millions d’utilisateurs.

Si bien qu’au sein de Google l’algorithme est roi. Pas étonnant quand on sait que la compagnie est née d’un sujet de dissertation de Larry Page sur les propriétés mathématiques du Web. Les tests de recrutement destinés aux ingénieurs contiennent tous des questions mathématiques ardues.

Le challenge du recrutement

Qui dit toute-puissance de l’algorithme dit un besoin d’avoir des ingénieurs qui peuvent comprendre, créer et écrire des programmes qui utilisent de tels algorithmes. Sergey Brin a admis que le recrutement est l’un des plus difficile.

Page et Brin étant deux thésards, ce n’est pas étonnant que Google embauche à tour de bras des thésards des grandes universités. La compagnie reçoit certes des milliers de CVs, mais elle cherche les candidats les plus brillants. Outre de nombreux avantages en nature (déjeuner gratuit cuisiné par un chef), Google dépense énormément d’énergie pour recruter les informaticiens les plus talentueux sur les campus d’université.

Influence universitaire

Sergey et Larry sont plus que des techies – ce sont des techies universitaires, ce qui a grandement influencé la culture de Google. A commencer par l’algorithme de recherche de Google, inspiré du modèle universitaire américain. Aux Etats-Unis, les professeurs doivent publier un certain nombre d’articles. Mais juste publier des articles ne suffit pas. On juge la qualité d’un article aux nombres de références de collègues (en d’autres termes, est-ce que l’article est suffisamment intéressant pour être utilisé par des collègues).

Le même principe a été appliqué au moteur de recherche de Google. Ce dernier prend en compte les référencements extérieurs pour juger d’un site Web. N’importe qui peut mettre les bons mots-clé sur sa page. Mais il est plus difficile de faire que d’autres sites référencent son site avec les bons mots-clé comme description. Cette formule a prouvé son efficacité, même si elle a créé le phénomène de Google Bombing.

Dans un autre domaine, Google demande à ses employés de consacrer 20% de leur temps à des projets qui leur tient à cœur – une sorte de subvention de recherche fondamentale.

La dictature du consensus

Mais ces 20% sont menacés par une autre pratique caractéristique de la compagnie: tous les employés sont jugés à outrance par leurs pairs. Les développeurs ont accès à tous les projets au sein de Google, et tout code écrit par les développeurs est revu et analysé dans les moindres détails par leurs collègues. Toute décision est prise par consensus. L’avancement des employés dépend des rapports des collègues.

L’avantage est que tout code écrit par Google a tendance à être extrêmement propre – un autre avantage lorsqu’on sait que le code peut être déployé sur des centaines de milliers de serveurs. Mais les inconvénients sont multiples. Tout d’abord, la plupart des employés passent leur fameux 20% à juger leurs pairs au lieu de travailler sur des projets qui leur tiennent à cœur. Ensuite, les décisions par consensus ralentissent considérablement les choses. Gmail a mis des années avant d’être déployé.

Finalement, il existe certains types d’innovations qui réclament un conflit. La compagnie 3M regorge de nombreuses histoires. L’une d’entre elle est à propos de l’inventeur du Post-It, un ingénieur chez 3M qui a du se battre pour convaincre le reste de la compagnie de l’utilité et du potentiel d’un tel produit. Une autre est à propos de Thinsulate (un concurrent du Gore-Tex), un projet que le PDG de l’époque a tenté de tuer trois fois. Le Post-It comme Thinsulate sont des produits qui aujourd’hui génèrent beaucoup de revenue pour 3M. Mais on a du mal à imaginer de telles histoires arriver chez Google où les conflits sont tabous. On peut imaginer que beaucoup de développeurs oublient les idées impopulaires – aussi bonnes soient-elles – ou quittent Google pour créer leur propre compagnie.

Un grand intérêt pour l’interface utilisateur

Un des intérêts de la compagnie est l’interface utilisateur. La page de garde de Google est très épurée et simple, même après toutes ces années. C’est à contraster avec la page de garde de Yahoo! qui s’est alourdie avec les années pour devenir beaucoup trop complexe.

Je ne suis pas certain de savoir pourquoi (si quelqu’un le sait, merci de me faire savoir), mais Google n’a pas cette obsession qui consiste à rajouter fonctionnalité sur fonctionnalité – rare pour une compagnie avec une culture d’ingénieurs. Bien sûr que Google a rajouté beaucoup de fonctionnalités à ses services. Mais on est loin de la page de garde de Yahoo où du moteur de recherche de Microsoft Bing qui demande d’installer Silverlight pour accéder à certaines parties du site.

Mais l’aspect fonctionnalité a une importance pour Google. Google Maps est non seulement une prouesse technologique pour l’époque, mais a brillé en étant extrêmement facile d’accès.

Un service clientèle pauvre

Un autre challenge auquel Google a été confronté est l’explosion du nombre de ses clients. Le business model de Google est de faire affaire avec un très grand nombre de petits clients, plutôt que de quelques gros clients. Cela veut dire qu’à moins qu’elle sacrifie ses marges, la compagnie n’a pas les ressources pour communiquer avec tous ses clients en utilisant des êtres humains. En d’autres termes, tout a été automatisé. C’est une bonne chose lorsque vous voulez acheter des mots-clé – cela se fait en quelques minutes – mais c’est une moins bonne chose lorsqu’un problème survient et que vous désirez parler à un interlocuteur en chair et en os.

A noter que Google ne vend pas au grand public. Il offre en effet de nombreux services. Il vend par contre à des millions d’annonceurs.

Utiliser les données des masses

L’une des forces – et réflexes – de Google est de mettre à contribution ses utilisateurs. En plus d’utiliser des centaines de milliers de serveurs en parallèle, la compagnie utilise parfois les choix de millions d’utilisateurs pour offrir une décision automatique. Analysez le comportement de millions – voire de milliards – d’utilisateurs et vous pouvez commencer à dégager des statistiques.

C’est comme ça qu’a commencé son moteur de recherche: indexer un page Web non seulement sur son contenu mais également et surtout par le nombre de liens pointant vers cette page. En d’autres termes, analyser comment des millions de pages Web références d’autres pages.

Et Google a repris cette méthode de nombreuses fois. Par exemple pour son système de filtrage anti-spam de Gmail. Lorsque suffisamment d’utilisateurs dénoncent un message comme étant du spam, Gmail l’efface de toutes les boites aux lettres de tous ses utilisateurs – avant même qu’ils ne lisent leurs emails. De même, son service de traduction en ligne ne se base moins sur un dictionnaire et des règles de grammaire que sur ce qu’écrivent les internautes sur le Web.

Aux Etats-Unis, Google a lancé un service téléphonique d’annuaire gratuit appelé GOOG-411. Le but de ce service n’est pas de se faire de l’argent mais de construire une base de donnée de phonèmes la plus importante possible, et ce afin d’améliorer ses algorithmes de reconnaissance vocale.

Les produits

Comme toute compagnie high-tech d’une certaine envergure, Google veut sortir de nouveaux produits et services. Sur ce point, il a utilisé plusieurs méthodes.

Le géant de la recherche a racheté une myriade de petites compagnies pour leur technologie et pour leurs talents. Google a par exemple racheté Keyhole qui est devenu Google Earth. Il a également racheté en 2004 une startup de cartographie en ligne, Where 2 Tech, dont les deux fondateurs – Lars et Jens Rasmussen – ont aidé à créer Google Maps puis Google Wave.

Google a également racheté des entreprises pour gagner des parts de marché. C’est ainsi qu’il a racheté YouTube alors qu’il avait déjà son propre service: Google Videos. A ce jour, YouTube est resté grandement inchangé et très peu intégré au site Google.

Et il y a bien évidemment les fameux 20% du temps des ingénieurs – sensés être consacrés  à un projet en interne. C’est par exemple comme ça que Google News a été développé.

Parfois aussi, certains produits ont été développés en interne en utilisant des modules externes. C’est le cas de Google Chrome dont le moteur interne est Webkit, ou Android qui se base sur Linux.

Une obsession d’améliorer l’existant

L’une des obsessions de Google est de vouloir améliorer ce qui existe déjà. Après tout, Google a commencé parce que Larry et Sergey ont pensé à un meilleur algorithme d’indexation du Web.

Lorsque l’on veut améliorer quelque chose, la meilleure manière est de développer sa solution seul dans son coin. On peut essayer d’impliquer les acteurs existants, mais le processus est plus long et moins sûr d’aboutir. Page et Brin ont d’abord cherché à vendre leur moteur de recherche à Yahoo. Ce n’est qu’après avoir essuyé un refus qu’ils ont décidé de créer Google.

Mais depuis, Google a désormais tendance à toujours vouloir construire une nouvelle solution dans son coin. Google a trouvé que les services d’email en ligne pouvaient être améliorés, il a créé Gmail. Il n’était pas satisfait de l’évolution des navigateurs Web, il a créé Chrome. Google pense que l’email est désuet, il a créé Google Wave. Il n’est pas content de l’évolution des systèmes d’exploitation, il a créé Android pour les smartphones et Chrome OS pour les netbooks. Et ainsi de suite. Si Google pense qu’un produit ou service pourrait être amélioré, son premier réflexe va être de développer son propre produit et/ou service, plutôt que d’essayer d’améliorer l’existant. Le géant de la recherche aurait pu travailler avec l’équipe de Firefox pour améliorer ce dernier au lieu de développer Chrome. Mais cela aurait pris plus de temps et n’aurait pas forcément eu les résultats exacts que Google espérait.

Parfois, cette approche est logique. Ca a été le cas de Gmail, de Google Maps et bien sûr du moteur de recherche de Google – qui ont tous influencés le reste de l’industrie qui a été obligé de se mettre à niveau. Mais parfois on peut douter de l’efficacité de réinventer perpétuellement la roue. Google Wave est certes impressionnant, mais souffre du problème des premiers téléphones: quel est l’intérêt si personne d’autre n’est dessus?

Le handicap des partenariats

Malheureusement, recréer une solution dans son coin sans demander l’autorisation à personne n’est pas la meilleure manière de créer des partenariats.

Google News a été créé par un ingénieur qui en avait assez d’avoir à aller sur tant de sites Web pour se tenir au courant de l’actualité. Si l’initiative est bonne, Google n’en n’a pas moins indexé de nombreux journaux sans leur demander leur avis. Ce n’est qu’après un procès que Google a décidé d’acheter du contenu auprès de compagnies telles qu’Associated Press. Et Google News est loin d’être populaire au sein des rédactions.

La même logique a été suivie pour Google Books: le géant de la recherche en ligne a commencé à numérisé des milliers d’ouvrages sans demander leur avis aux ayant droit – on verra plus tard. D’où la réticence de plusieurs éditeur à faire affaire avec Google, et un procès en France.

De la même manière, alors que Google avait un bon partenariat avec Apple – l’iPhone a été dés le début intégré à Google Maps et YouTube- les relations se sont détériorées entre les deux compagnies. Le fait que Google ait sorti son système d’exploitation pour smartphone, Android, en concurrence directe avec l’iPhone.

Le dernier épisode en date est le Google Phone. Après avoir lancé Android, un système d’exploitation pour smartphone, Google a récemment admis essayer son propre smartphone en interne. On peu imaginer les raisons – des ingénieurs à Mountain View n’ont pas aimé les smartphones actuellement développés, donc ont décidé de créer le leur. Le problème est que cela risque d’envenimer les relations entre Google et les compagnies telles que Motorola qui ont investi massivement sur Android – soudain leur fournisseur commence à devenir leur concurrent.

Conclusion

Google est une compagnie qui a beaucoup de ressources. Sa faiblesse est certes son unique source de revenus (les liens sponsorisés sur son moteur de recherche), mais c’est le cas de beaucoup de compagnies. Il est extrêmement rare de trouver un marché vache à lait, en trouver ne serait-ce que deux tient du prodige.

Mais le plus gros risque qui guette le géant de Mountain View est son obsession d’aller dans tous les sens. Non seulement le risque est de moins se focaliser sur son marché principal – son moteur de recherche – mais d’aliéner nombreux partenaires potentiels. Pour grandir, Google va devoir arrêter de faire cavalier seul. Mais je ne suis pas certain que Mountain View ait la culture pour ça.

Publicités

« Le contenu est roi! » Vraiment?

18 décembre 2009

Au début des années 90 on a commencé à entendre « hardware is dead » (le matériel est mort). Comprenez: le matériel n’est plus le centre de l’informatique. C’était à l’époque où Microsoft venait de voler le contrôle du marché du PC à IBM. L’époque où AMD certifiait ses microprocesseurs « conçu pour Windows » (le monde à l’envers pour les techies de l’époque)

Peu de temps après, quelques-un ont emboîtés avec « software is dead too » (le logiciel est mort lui aussi). C’était à l’époque où Bill Gates commençait à racheter du contenu en grande quantité, comme les droits sur certains travaux de Léonard de Vinci. Le contenu (films, séries télévisées, musique, etc.) apparaissait comme être le futur Graal.

En théorie, cela semble logique. Pour le consommateur moyen (j’exclue volontairement les fanas d’informatique), le matériel comme le logiciel ne sont pas une fin en soi mais un moyen d’accéder au contenu.

En théorie.

En pratique, le contenu n’est pas si souvent roi que ça. Si c’était le cas, Rupert Murdoch ne pesterait pas constamment contre Google News et autres aggrégateurs d’actualité (qui ne possèdent ni ne créent aucun contenu). Les éditeurs de livres américains ne seraient pas victimes du joug que leur impose Amazon.com (là encore un site Web qui ne possède aucun contenu), les forçant à lui accorder des fortes remises. Et Apple (un constructeur de matériel) n’aurait pas autant de poids au sein de l’industrie du disque – au grand dam des majors.

Que se passe-t-il donc?

Une offre fragmentée

Le cœur du problème pour les fournisseurs de contenu vient du fait que l’offre est extrêmement fragmentée. Conséquence de quoi, il est quasiment impossible d’avoir un monopole sur le contenu – quel que soit son marché de niche.

Microsoft possède un monopole virtuel sur le système d’exploitation: si vous voulez un système où vous pouvez faire tourner quasiment n’importe quelle application du marché, il vous faut Windows. Qui plus est, avec Windows vous pouvez ignorer les autres OS (Windows jouit de 90% de parts du marché du système d’exploitation). Google possède un monopole virtuel sur le référencement de site Web. Vous voulez que les internautes trouvent votre site Web, il vous faut passer par Google (70% des recherches Web). Si vous êtes bien référencé par Google vous pouvez oublier les autres moteurs de recherche. Mais aucun film, chanson, livre ou série TV ne peut se vanter d’avoir une telle emprise sur son marché – je ne suis pas certain qu’un seul titre dépasse les 10% de part de marché dans son secteur. Même des titres à succès comme la saga Harry Potter n’ont pas le monopole sur les livres pour jeunes. Certes, un libraire se devra d’avoir la série en stock. Certes, la compétition est rude et les libraires se battent pour avoir les meilleurs prix – Amazon.com reconnaît qu’il ne se fait pas d’argent avec les ventes de la série. Mais les libraires ne peuvent pas se permettre d’ignorer pour autant tous les autres livres visant les jeunes.

Qui plus est, Harry Potter est une exception plus que la règle. Certes, le top 50 de chaque industrie reçoit tant de promotion que le public va souvent chercher où les acheter. Mais la plupart des titres ne sont vendus que si le consommateur tombe dessus chez son vendeur favori – qu’il s’agisse d’un livre, d’un film en DVD ou d’un album de musique. Dans ce cas-là, le contenu est dépendant du distributeur. D’où l’importance du placement des titres dans le magasin (qu’il s’agisse de la Fnac ou de Carrefour pour la grande distribution) – emplacement qui se monnaye au prix fort. A ce sujet, Amazon.com vend peut-être les aventures d’Harry Potter à marges nulles, mais il a sans doute réussi à avoir une remise de Arthur A. Levine Books – peut-être parce que ce dernier veut également vendre le reste de ses livres sur Amazon.com.

Finalement, le public achète plusieurs titres. Cela veut dire qu’aucun éditeur de contenu – qu’il soit de films, de séries télévisées, de livres ou de musique – n’a une offre qui permette au public d’oublier la concurrence. Même Universal – qui est le plus gros des 5 majors – peut difficilement lancer son offre de vente de musique en ligne tout seul. Le consommateur veut une offre qui comprend les titres de toutes les grandes maisons de disque et pas seulement Universal. S’il est relativement facile pour tous les majors de s’allier – il n’y en a que 5 – aucun n’a de monopole individuel.

Le matériel est mort. Pour les PC uniquement.

Lorsque l’on a commencé à dire que le matériel était mort, c’était en ayant pour cadre de référence les PC. De fait, le logiciel a siphonné la plupart des profits. Les fabricants de PC se battent pour des marges minimes. Les constructeurs de machine Unix, quant à eux, ont commencé une longue descente aux enfers. Ils ont depuis quasiment tous disparus quand ils ne se sont pas fait racheter (Digital, Silicon Graphics, Sun). Deux exceptions à la règle cependant: Intel et Apple se portent tous deux très bien pour des entreprises qui vendent des produits « morts ».

Mais le contenu numérique n’est plus simplement consommé sur des PC. Il est désormais accédé sur une multitude d’autres appareils. Et sur ces marchés en cours de développement le matériel reste roi. L’iPod l’a prouvé, ainsi que l’iPhone ou le TiVo.

Dans le cas de matériel autre qu’un ordinateur, on peut penser que le contenu ait autant besoin du matériel qu’inversement, ce qui favoriserait les accords commerciaux. En fait, ce n’est pas toujours vrai.

Car beaucoup de ces appareils ont eu du succès sans avoir à passer d’accord. L’iPod a récupéré le contenu des CDs que possédait le consommateur… quand ce dernier n’a pas téléchargé illégalement de la musique. Le TiVo enregistre les émissions auxquelles le consommateur a accès par le biais de son abonnement câble ou satellite. L’iPhone, quant à lui, n’était pas une machine dédiée au départ au contenu (les premières versions ne permettaient pas encore l’installation d’applications tierces). Il n’en n’a pas eu besoin pour se vendre comme des petits pains. Et tous ont eu du succès parce qu’ils battaient la concurrence en terme de facilité d’utilisation et/ou de fonctionnalité – PAS par leur offre du contenu. Et si, comme le prétend la rumeur, Apple sort sa tablette Internet, cette dernière devra son succès plus à ses fonctionnalités que le contenu tiers fourni.

Mais une fois qu’ils ont développé une forte base installée, ces appareils peuvent revendiquer un certain poids dans la balance. C’est ce qu’a fait Apple, fort du succès de l’iPod. Si demain le TiVo propose un service de location numérique par Internet, il peut se targuer d’avoir des millions d’utilisateurs lorsqu’il veut signer les droits avec les maisons de production. Et si la tablette hypothétique d’Apple se vend bien, elle sera en position de force pour s’attaquer au marché des livres électroniques.

Certains appareils, cependant, offrent uniquement un accès au contenu. Dans ce cas-là, ils se doivent de passer des partenariats avant d’être commercialisés. Ce fut le cas de l’Apple TV comme de n’importe quel livre électronique. Mais il est intéressant de noter que si tous les livres électroniques du marché permettent d’acheter des ouvrages auprès de tous les éditeurs, le consommateur va comparer les livres électroniques et non l’offre des éditeurs – il va prendre ces derniers pour acquis. La raison est que le consommateur va acheter un livre électronique, mais plusieurs ouvrages en ligne – probablement de plusieurs éditeurs. Le fait que le consommateur achète un appareil et/ou logiciel pour accéder au contenu mais plusieurs titres joue en défaveur des fournisseurs de contenu.

Conclusion

Il existera peut-être un jour où l’accès au contenu sera tellement facile que tous les appareils se ressembleront. Ce jour-là, est-ce que les fournisseurs de contenu auront plus de poids? Pas forcément. Car un constructeur peut encore tirer les ficelles du jeu s’il est arrivé à avoir imposé son format propriétaire.

Car un Amazon.com et autres Apple veulent tous imposer leur propre format de livre ou film au format numérique – comprenez: format qui ne peut être lu que sur le matériel vendu par Amazon.com ou Apple. Un constructeur qui arrive à imposer son standard propriétaire possède un avantage certain (demandez à Microsoft): le consommateur n’aura pas envie de perdre l’accès aux titres qu’il a patiemment acheté. C’est pour cette raison que le Blu-Ray et le HD-DVD ont dés le début fourni une compatibilité avec les DVD, ayant réalisé que le consommateur n’allait pas racheter toute sa bibliothèque au nouveau format.

Devant ce risque, c’est aux fournisseurs de contenu de se mettre d’accord sur le format et ne pas laisser les constructeurs imposer leurs choix. La solution la plus facile est encore de ne pas utiliser de protection – le tatouage numérique est sans doute aussi efficace, sans avoir les inconvénients de la protection physique. Les fournisseurs de contenu sont toujours réticents à poursuivre cette option. C’est pourtant en décidant de vendre leur musique au format MP3 – non protégé donc – que les majors de musique ont contribué à ce que d’autres distributeurs qu’Apple puissent vendre de la musique aux possesseurs d’iPod. Et ainsi de contraindre Apple d’augmenter ses prix.

Produit multi-fonctions ou produits spécialisés?

11 décembre 2009

Dans les années 90 la disquette a commencé à présenter des signes de vieillesse – lente, faible capacité et fiabilité douteuse. Si bien qu’une bataille pour la nouvelle disquette s’est lancée entre Iomega et Zipdisk – tous deux tentant d’imposer leur standard de « super disquette ». Le gagnant? Personne! Car la disquette n’a pas été remplacée par une super-disquette mais par une multitude de produits spécialisés.

A l’inverse, un appareil comme l’iPhone fait à la fois office de téléphone portable, borne Internet, baladeur MP3, assistant personnel, appareil photo, caméscope, console de jeu portable et GPS. Bref, 9 produits en un!

Dans quels cas migre-t-on vers un produit multi-fonctions et dans quels cas migre-t-on vers plusieurs produits spécialisés? Passons en revue certains produits qui ont subi cette évolution (dans un sens comme dans l’autre)

La disquette

La disquette était l’exemple type de produit multi-fonctions. Or chacune de ses fonctions a été remplacée par un produit distinct. La disquette servait en effet comme:

  • Stockage de données. Cette fonctionnalité a été remplacée par le disque dur car plus rapide, plus fiable et ayant une plus grande capacité.
  • Support d’installation. Cette fonctionnalité a été remplacée par le CD puis le DVD (plus grande capacité et plus fiable) ainsi que le téléchargement par Internet (plus pratique).
  • Copie de sauvegarde. Cette fonctionnalité a été remplacée par de nombreux produits: disque dur externe, solution de sauvegarde sur Internet, etc. (plus grande capacité, plus rapide et plus fiable)
  • Transfert de données d’un ordinateur à un autre. Cette fonctionnalité a été remplacée par Internet (plus pratique) et les clés USB (plus petit et plus grande capacité).

Comme on le voit, la disquette a été remplacée par plusieurs produits, chacun étant spécialisé dans son domaine de prédilection.

Le système d’exploitation

En 1999, Microsoft avait deux lignes de système d’exploitation: la ligne se basant sur MS-DOS (Windows 95 et 98) et une nouvelle ligne plus moderne destinée aux stations de travail haut de gamme ainsi qu’aux serveurs (Windows NT). NT représentait l’avenir, mais ses performances en matière graphique – critique pour les jeux – ne valaient pas celles ce MS-DOS.

Windows 2000, le successeur de Windows NT 4.0, était sensé fusionner les deux lignes (produit multi-fonctions) et enfin signer la mort de MS-DOS. En utilisant DirectX (une API permettant aux jeux vidéos d’accéder directement au matériel pour plus de rapidité), il pouvait enfin rivaliser en performance graphique avec Windows 95 / 98.  Windows 2000 Professional était destiné à être installé sur le poste client, alors que Windows 2000 Server était destiné à être installé sur un serveur.

Le problème est que Microsoft a essayé de faire faire le grand écart à Windows… et que ça n’a pas marché.

Schématiquement parlant, un système d’exploitation est soit stable, soit rapide. L’un se fait au souvent détriment de l’autre. DirectX améliore les performances pour les jeux, mais se fait au détriment de la stabilité du système.

Or un serveur n’a que faire des performances graphiques et privilégie avant tout la stabilité. Un PC de bureau, par contre, privilégiera la fluidité graphique, même si cela se fait au détriment de la stabilité.

Microsoft a donc été contraint de garder deux lignes de Windows: une pour le poste client (Windows XP, Vista et Windows 7), et une pour le serveur (Windows 2003 et 2008)

Le smartphone

Dés que les produits mobiles se sont multipliés (téléphone portable, PDA, etc.) tout le monde a vu l’intérêt d’un produit multi-fonctions. Et pour cause: les utilisateurs ne veulent pas avoir 36 appareils portables à la ceinture.

Un produit tout-en-un tel que le smartphone a été possible grâce à la miniaturisation. Car du moment que l’on peut miniaturiser suffisamment, n’importe quel outil portable muni d’un écran suffisamment grand peut aisément remplacer un baladeur MP3, un GPS, un assistant numérique ou une console de jeu portable. Ces derniers n’ont pas d’avantage compétitif, comme une clé USB (produit spécialisé) a par rapport à une disquette (produit multi-fonctions)

Les seuls appareils plus difficiles à intégrer dans un produit tout-en-un sont le téléphone portable et l’appareil photo. Avant les smartphones, la tendance des téléphones portables était de devenir de plus en plus petit. Un smartphone au contraire demande un écran le plus grand possible. C’est pour cette raison qu’Apple a pensé à un écran tactile pour son iPhone afin d’utiliser une partie de la surface de l’appareil à la fois comme écran et comme clavier.

De la même manière, un appareil photo est difficile à intégrer dans un appareil tout-en-un. Les contraintes physiques de l’optique limitent en effet le type d’objectif que l’on peut embarquer dans un appareil qui fait moins d’1cm d’épaisseur. Les téléphones ont contourné le problème en utilisant le « zoom numérique ». En d’autres termes, avec une résolution suffisamment importante on peut zoomer en agrandissant l’image. La technologie aidant, ils atteignent désormais des résolutions décentes. Si les puristes garderont un appareil photo et/ou un caméscope, les téléphones portables ont de nombreux avantages. Et tout d’abord celui d’être toujours sous la main (quasiment tout le monde a son portable sur soi, mais rarement son appareil photo). Ensuite, de pouvoir facilement envoyer l’image à un autre téléphone. Les derniers iPhones vont même plus loin: taper sur l’écran pour déterminer où focaliser l’image, et possibilité d’associer la location physique ou de la poster le plus facilement du monde sur son blog.

Si bien qu’à l’heure actuelle l’évolution va vers un appareil tout-en-un.

Il est cependant possible que des gens découvrent des inconvénients pratiques. Car qui dit avoir un produit tout-en-un dit le risque de tout perdre si l’appareil est endommagé ou volé. Quelqu’un qui chipe votre smartphone a accès à vos dernières photos, votre carnet d’adresse, vos chansons, vos sites Web favoris, etc. Je ne pense pas cependant que cela arrêtera grand monde.

L’imprimante / fax / scanner / photocopieuse

Autre produit multi-fonctions qui prend de l’essor: l’imprimante / fax / scanner / photocopieuse.  Ce type de produit a réellement su tirer partie des synergies entre les différents composants qu’il remplace. Le principal composant d’une imprimante et d’un scanner est respectivement un mécanisme d’impression et de lecture d’une page – deux composants utilisés par une photocopieuse et un fax.

Si très peu de particuliers ne sont intéressés par acheter une photocopieuse – leur usage est trop occasionnel – beaucoup sont près à payer un peu plus cher pour que leur imprimante fasse également photocopieuse.

Evolution

Le choix d’un modèle produit multi-fonctions / produits spécialisés est influencé par plusieurs facteurs: les performances, le prix, la taille et les fonctionnalités.

Pour ce qui est des performances, le temps favorise les produits tout-en-un. Des produits séparés étant spécialisés, un produit multi-fonctions peut rarement rivaliser d’un point de vue purement performance. Mais il faut se rappeler que toute technologie atteint à terme un niveau où elle rattrape et dépasse les besoins de la plupart des utilisateurs. C’est le cas du GPS, de la photo numérique, de l’imprimante, du baladeur MP3, et de bien d’autres produits. Certes il existe des gens qui veulent le dernier appareil photo ou le baladeur MP3 avec 300Go de disque, mais ils ne constituent pas une majorité. Certes, l’appareil photo inclus dans un smartphone ne vaut pas un appareil photo traditionnel. Mais la résolution est suffisante pour de plus en plus de gens.

Pour ce qui est du prix, le produit multi-fonctions a souvent l’avantage du fait qu’il utilise souvent des composants de moins bonne qualité (l’objectif photo d’un smartphone ne peut se comparer à celui d’un appareil photo traditionnel) et qu’il réutilise ses composants. Lorsqu’on achète une imprimante et une photocopieuse, on paye deux moteurs d’impression. Lorsqu’on achète une imprimante multi-fonctions, on n’en paye qu’un. De même, l’écran tactile d’un smartphone est utilisé par toutes les applications (appareil photo, téléphone, etc.)

Pour ce qui est de la taille, le temps joue également en faveur des produits tout-en-un, du fait de la constante miniaturisation des composants. Etant donné la taille des téléphones portables dans les années 80, un smartphone tel que l’iPhone aurait été difficilement concevable à l’époque – indépendamment du prix. Le résultat aurait été beaucoup trop volumineux. Mais il existe un seuil au-delà duquel les produits spécialisés ne bénéficient plus autant de la réduction de taille des composants (un appareil photo doit avoir une taille minimum pour être pratique). Plusieurs d’entre eux deviennent plein de vide (c’est le cas des chaînes hi-fi), d’autres ne s’embêtent plus à miniaturiser. Au final, un smartphone prend moins de place que la somme des produits qu’il remplace – fort utile lorsqu’on ne veut qu’un appareil sur soi. Et il n’y a guère que les entreprises pour dédier un bureau entier pour une imprimante, un fax et une photocopieuse.

Finalement, pour ce qui est des fonctionnalités, les deux modèles ont leurs avantages et leurs inconvénients. Les produits spécialisés offrent généralement beaucoup de fonctionnalités poussées. Un appareil photo haut de gamme possède par exemple un objectif interchangeable – inconcevable pour un smartphone. Mais les produits multi-fonctions offrent parfois des synergies entre leurs divers composants, comme l’iPhone (envoyer facilement une image sur Internet, etc.). Dans le cas des imprimantes multi-fonctions, pouvoir faire des photocopies est une fonctionnalité supplémentaire dans la mesure où peu de particuliers ne vont s’acheter une photocopieuse – c’est donc une fonctionnalité qu’ils n’auraient pas autrement.

Dans le cas du smartphone, le prix, la taille et les fonctionnalités ont fait que l’iPhone a été un succès. Pareil pour les imprimantes multi-fonctions.

Dans le cas du système d’exploitation, les besoins en performances font qu’un OS multi-fonctions n’est pas encore à l’ordre du jour. Mais on se rapproche petit à petit d’un tel modèle. Microsoft a finalement réussi à tuer MS-DOS et faire que toutes les versions actuelles de Windows dérivent de Windows NT – même s’il doit encore gérer en parallèle deux familles de système d’exploitation. De même, Linux existe sur les supercalculateurs les plus puissants comme sur certains smartphones ou dans l’enregistreur numérique TiVo. Chaque version de Linux reste grandement personnalisée pour répondre à des besoins spécifiques, mais cela représente un grand changement par rapport aux années 80 où l’OS était cantonné à un type unique d’ordinateur. Peut-être qu’un jour les performances seront telles qu’il existera une version de Linux universelle que l’on peut installer partout. Mais on en est encore loin.

Le cas de la disquette est intéressant car c’est le seul produit multi-fonctions de cet article qui ait été remplacé par plusieurs produits spécialisés. Le principal avantage de la disquette était son prix – un lecteur de disquette était suffisamment cher dans les années 70 et 80, avoir plusieurs produits spécialisés aurait été prohibitif. Lorsque d’autres technologies sont devenues abordables, les utilisateurs ont préféré payer plus cher pour de meilleures performances et fonctionnalités. La disquette n’offrait que peu de synergies entre les différentes fonctions (la seule était la possibilité de lancer un programme de la disquette, sans avoir à l’installer), au contraire (toutes les fonctions demandant l’accès au lecteur, il fallait donc constamment jongler entre les diverses disquettes). Il est intéressant de noter que le remplacement s’est fait progressivement. Le disque dur a d’abord été vu comme un complément de la disquette (c’est avec le disque dur qu’est apparue la notion d’installer un programme). Puis le CD a remplacé les disquettes d’installation (fini les 13 disquettes pour installer Windows, dont une a des chances d’être endommagée). Et ainsi de suite. Lorsque la bataille pour la future disquette a commencé, il était déjà trop tard.

Quant à une fusion disque dur / CD / DVD / clé USB / Internet, elle reste encore floue. La fusion la plus probable est l’abandon de certaines technologies, comme du CD/DVD au profit du téléchargement. On peut toutefois noter un rapprochement entre les disques dur et les clés USB: d’une part on trouve des disques durs au format USB, et d’autre part la mémoire flash a tellement augmenté en capacités qu’elle existe sous forme de disque dit à état solide. Il reste cependant à voir si les utilisateurs veulent que leur principal disque (celui sur lequel ils ont tous leurs programmes et toutes leur données) se comporte comme une clé USB que l’on peut partager avec d’autres personnes. A part ça, on peut imaginer un disque qui sauvegarde automatiquement ses données sur Internet. Mais je ne suis pas au courant d’un tel produit.

Conclusion

La tendance générale est donc vers les produits multi-fonctions. Mais c’est sans compter les besoins en fonctionnalités qui changent sans cesse les attentes des utilisateurs. C’est comme ça que la disquette est morte.

Un produit multi-fonctions peut également subir de la concurrence sur une seule de ses multiples applications. Par exemple, les imprimantes multi-fonctions n’impriment pas des photos de la même qualité que les imprimantes personnelles dédiées à la photo. Ce n’est qu’une question de temps, mais en attendant les imprimantes à photos ont leur créneau. De même, le GPS pré-installé dans les voitures (produit spécialisé) fait concurrence au GPS contenu dans un smartphone, car il offre un écran plus grand et est toujours branché.

Enfin, un produit multi-fonctions qui pourrait avoir de la concurrence est l’ordinateur de bureau (PC ou Mac). Car un PC a plusieurs applications – jeux, accès Internet, bureautique, graphisme, etc. – qui sont parfois concurrencées par des produits spécialisés. C’est par exemple le cas des jeux vidéos (les consoles de jeu). De même, certains utilisateurs commencent à préférer leur smartphone pour certaines applications (lire ses emails est le cas le plus fréquent). Si on voit mal l’ordinateur de bureau disparaître, il est possible que le consommateur passe moins de temps sur son PC ou Mac et plus sur d’autres appareils spécialisés ne nécessitant pas autant de maintenance. Mais cela dépendra grandement des futurs appareils électroniques qui sortiront – ou ne sortiront pas. Si demain quelqu’un sort un appareil dédié à la création graphique qui offre des fonctionnalités difficilement copiables par un ordinateur (cas purement hypothétique, je ne sais pas si c’est possible), le Mac aura du souci à se faire.

Les nouveaux systèmes de saisie

4 décembre 2009

Les périphériques de saisie pour ordinateurs et consoles de jeu vidéo n’ont cessé d’évoluer. Le bon vieux clavier tout d’abord, hérité des machines à écrire mécaniques, est resté la seule manière d’interagir pendant des décennies. Dans les années 80, les choses ont enfin bougé avec l’introduction de la souris. Depuis, les choses ont bien évolué: touchpad, trackpoint, tablette tactile (autre que pour juste dessiner), etc.

Côté jeux vidéo, le joystick a été utilisé dés le début, suivi du joypad dans les années 80 (utilisé par les constructeurs de jeu vidéos japonais)

Les dernières innovations…

Les dernières techniques en matière de saisie ont été popularisées par Nintendo et Apple ces dernières années.

Nintendo a en effet créé la sensation il y a quelques années avec sa dernière console de jeu Wii et ses contrôleurs à capteurs de mouvements, permettant au joueur d’interagir avec la console d’une manière totalement nouvelle.

Apple, de son côté, a popularisé l’utilisation d’un écran tactile avec son iPhone. Nombreuses sont les applications sur l’iPhone qui utilisent cette fonctionnalité de manière originale (ainsi que le détecteur de mouvement)

Il est à noter que ni la Wii ni l’iPhone n’ont utilisé des technologies nouvelles. Le premier contrôleur à capteur de mouvement date de 1989 (le Power Glove, également développé par Nintendo). Quant aux écrans tactiles, ils existaient bien avant l’iPhone. Mais ce qui a différentié la Wii et l’iPhone de leurs prédécesseurs est qu’ils ont su trouver la bonne recette. Suivant la manière dont elle est employée, une même technologie peut apparaître comme un gadget (le Power Glove a été un bide) ou comme une fonctionnalité révolutionnaire. De la même manière, Apple n’a pas inventé la souris mais l’a popularisé.

Quoi qu’il en soit, le reste de l’industrie a rapidement essayé de copier Nintendo et Apple. Tout smartphone qui se respecte est désormais équipés d’écrans tactiles. Le fabricant de tablette graphique Wacom essaie de sortir de son marché de niche et de positionner ses produits comme outil de navigation sous Windows ou Mac. On essaie de mettre à profit l’utilisation de plusieurs doigts sur toute surface tactile – écran comme touchpad. Et Microsoft s’est lancé dans des expériences permettant à l’utilisateur de contrôler un jeu ou Windows juste en remuant les bras.

… au détriment du clavier

Si aucune de ces innovations n’a pour but de remplacer le clavier (cela reste le meilleur moyen de saisir du texte), elles n’en n’ont pas moins parfois négativement impacté ce dernier – parfois en lui enlevant des fonctionnalités.

Car fonctionnalités le clavier a parfois perdu – le plus grand coupable étant sans doute Apple – ironiquement! Car quand on considère le clavier actuel de l’iMac, force est de constater que le choix a été de privilégier le design au détriment de… tout le reste: confort, ergonomie (je suppose que Maître Steve ne doit pas avoir de problème de canal carpien), fonctionnalités (absence de pavé numérique).

Ironiquement, l’un des indicateurs de qualité des ordinateurs dans les années 80 était leur clavier. Les ordinateurs d’entrée de gamme avaient en effet un clavier plat (Sinclair ZX-81) ou à membrane (Thomson TO7) empêchant toute frappe rapide. Le cran d’au-dessus était des claviers à gomme (Sinclair Spectrum, Thomson MO5). Et les ordinateurs plus haut de gamme (Apple II, Commodore 64, Atari 800) avaient un « vrai » clavier mécanique.

Mais il semble que le clavier a perdu grâce aux yeux de Steve depuis longtemps. Les tout premiers Macintosh n’avaient en effet pas de touches de curseur: on était sensé tout faire à la souris (Apple a depuis fait marche arrière). Microsoft est plus innovant qu’Apple pour ce qui est des claviers – c’est tout dire!

Absence de toucher

Mais malgré toutes les innovations en matière de saisie, il est intéressant (et décevant) de noter que personne ne semble se soucier du toucher. A tel point que dans certains cas la situation empire.

Le fond a été atteint avec l’iPhone. Car si utiliser un écran tactile pour simuler un clavier est une idée ingénieuse pour gagner de l’espace, l’utilisateur n’en perd pas moins le sens du toucher lorsqu’il frappe au clavier. Les concurrents n’ont eu de cesse de vouloir ajouter un vrai clavier à leurs smartphones, mais pas Apple. Maître Steve doit être plus visuel que tactile.

Mais le mal n’est pas cantonné qu’à Cupertino. Lorsque Microsoft teste un système où la saisie se fait par mouvement des bras, l’utilisateur n’a plus aucun sens du toucher.

Car le gros problème de tous ces nouveaux systèmes est le manque de précision. Cela remonte à la souris: nous détestons tous devoir bouger la souris de *juste* un ou deux pixels. Cela procure une désagréable sensation. Au contraire, des boutons volumineux sont agréables car il est beaucoup plus facile de les viser.

Avec un écran tactile ou un contrôleur Wii on perd d’avantage en précision. Et pour ce qui est de l’interface sur laquelle Microsoft planche, je ne sais pas si l’utilisateur va aimer garder les bras en l’air pendant une période prolongée.

A quand un mécanisme de feedback?

En fait, il manque à tous ces systèmes un mécanisme de feedback, où l’utilisateur puisse sentir avec les doigts son environnement. Le seul mécanisme de feedback que je connaisse se trouve dans les joypads des consoles de jeu modernes, où le joypad vibre lorsque par exemple on sort sa voiture de la route. J’aimerai bien, lorsque je fais glisser mes doigts sur un touchpad, sentir avec mes doigts mon bureau virtuel. Sentir la barre et les icônes. Sentir l’icône lorsque je ferme une fenêtre. Un doigt humain peut sentir un cheveu qu’il roule sur une table (soit quelques dizaines de microns). Il est dommage que personne n’essaye de mettre à profit ce fabuleux capteur.

J’imagine que les challenges techniques pour mettre en oeuvre un tel mécanisme de feedback sont tout sauf simple. Mais j’ai également l’impression que les constructeurs ignorent de plus en plus le toucher.