Archive pour septembre 2010

« Le problème avec Microsoft est qu’ils n’ont aucun goût »

24 septembre 2010

C’est une petite phrase qu’a dit Steve Jobs à propos de la firme de Bill Gates en 1996. Un coup d’oeil à Windows Phone 7 semble démontrer qu’il a raison.

Si Windows Phone 7 introduit le concept de « tuiles » dynamique qui semble bien pensé, les images que j’ai vues ne m’emballent pas. Après y avoir regardé de plus près, je crois que c’est parce que l’interface est tout simplement moche. C’est peut-être subjectif, mais ça a énormément d’importance sur un marché grand public, et surtout dans le cas de Microsoft qui essaie de rattraper son retard sur l’iPhone dont tout le monde parle et sur Android qui s’étend rapidement.

Jetons un coup d’oeil à des photos d’écrans de l’iPhone, de Windows Phone 7 et d’Android, et comparons l’icône « Phone » des trois systèmes d’exploitation. Tous utilisent la silhouette d’un combiné, mais la différence s’arrête là.

L’icône « Phone » de l’iPhone est assez élaborée et utilise plusieurs techniques pour enjoliver le combiné:

  • Les rebords sont arrondis
  • Le fond d’écran n’est pas un vert uniforme mais dégradé
  • La partie supérieure a un effet de reflet
  • L »icône se reflète sur la « table » sur laquelle elle est posée

En comparaison, l’icône « Phone » de Windows Phone 7 est bien fade.

L’icône est en effet monochrome (blanc sur fond bleu). Pas de coins arrondis, pas de fond dégradé. Peut-être est-ce un hasard, mais l’écran de l’iPhone a presque les proportions du rectangle d’or, contrairement à Windows Phone 7 qui est beaucoup plus rectangulaire.

Terminons la comparaison en regardant Android:

L’icône « Phone » n’est pas assez sophistiquée que l’iPhone (aucun reflet), mais est du même niveau de ce qu’on trouve sur le Web à l’heure actuelle : des rebords arrondis et un fond dégradé.

Une différence de philosophie

Ces différences esthétiques seules ne sont pas ce qui va faire le succès ou le malheur de Windows Phone 7 – encore que cela peut faire une grande différence sur le marché du grand public. Mais cela souligne un gouffre entre les philosophies d’Apple et de Microsoft.

Techniquement, la différence entre l’icône de l’iPhone et celle de Windows Phone 7 est minime. Microsoft pourrait facilement agrémenter le style de ses icônes – et le ferra peut-être un jour. Mais Redmond ne l’a pas fait. Les décideurs de Microsoft – à commencer par Steve Balmer – ne semblent pas avoir eu de problème en utilisant des icônes si fades. Microsoft s’est focalisé sur l’aspect fonctionnalités, telles que les « tuiles » dynamiques, contrairement aux icônes de l’iPhone qui sont statiques. C’est ainsi que la tuile Calendrier indique le lieu et l’heure du rendez-vous. A ce sujet, il est intéressant de noter que Windows Phone 7 garde toujours un côté entreprise malgré la volonté affichée de s’attaquer au marché grand public : l’utilisation du mot Outlook au lieu du mot Mail, et l’icône dynamique est un calendrier (avec comme nom « Budget Meeting« ), outil bien plus utilisé en entreprise que par les particuliers.

Apple, de son côté, a passé une partie de son temps à des fonctionnalités esthétiques. C’est ainsi que l’iPhone enjolive automatiquement les icônes des applications tierces iOS : le système d’exploitation arrondit les bords et ajoute l’effet de reflet.

Si Microsoft n’est pas connu pour de « grandes » innovations, le géant de Redmond sait trouver des fonctionnalités novatrices quand il veut. Microsoft n’a pas révolutionné le marché du baladeur MP3 comme l’a fait Apple, mais son baladeur, le Zune, a plusieurs fonctionnalités que l’iPod n’a jamais eues. Mais en termes d’esthétique, force est de constater qu’ils n’ont aucun goût…

Publicités

Vendre peu à beaucoup où beaucoup à peu?

17 septembre 2010

On peut considérer le modèle de ventes allant dans deux directions différentes : vendre peu à beaucoup de monde ou vendre beaucoup à peu de monde. Ces deux directions coexistent partout, quelle que soit l’industrie. Sur le marché de l’automobile par exemple, Wolkswagen a commencé comme la voiture du peuple, c’est-à-dire vendant beaucoup d’exemplaires le moins cher possible. Au contraire, Ferrari va vendre quelques voitures très chères à une poignée de clients fortunés.

La fuite vers le haut

Il existe cependant une poussée naturelle pour toute entreprise de vouloir migrer vers un modèle où l’on vend plus à chaque client, quitte à diminuer le nombre de clients potentiels. La raison est une histoire de marges. Il est en effet plus facile de se faire des bonnes marches plus le produit est cher. Cela implique bien évidemment vendre un produit qui fournit plus (et donc potentiellement plus cher à produire), mais plus on s’oriente vers un marché haut de gamme, moins le prix est un facteur de décision, et donc plus les marges peuvent être importantes.

Certains réseaux de vente ont des coûts incrémentaux (c’est-à-dire le coût pour chaque produit vendu) relativement fixes. C’est par exemple le cas des forces commerciales où ce sont des individus qui démarchent les clients. Dans ce cas de figure, vendre un produit à $100 000 ou à $200 000 coûte la même chose : le salaire du commercial (en fait, plus un produit coûte cher, plus le processus de vente peut être long, mais n’entrons pas dans les détails). Autrement dit, plus la taille de la vente est importante, plus les marges sont importantes.

D’autres réseaux ont des coûts de vente variables. Un magasin va par exemple facturer une partie fixe, et une partie en fonction du prix de la vente. C’est par exemple le cas d’eBay. Dans ces conditions, l’impact des marges d’un produit sont plus faibles mais existent toujours.

Une solution est de changer de réseau de vente afin de préserver ses marges. Mais dans tous les cas de figure, augmenter la taille des vente est la manière la plus facile d’augmenter au minimum le revenu, et au mieux le revenu ET les profits. C’est pour cette raison que de nombreuses compagnies ont laissé le champ libre à des nouveaux entrants lorsque des technologies disruptives apparaissent.

Contre-exemples

Il existe en informatique quelques contre-exemples où des compagnies ont décidé de vendre moins à plus de clients : Microsoft a percé le marché chinois en bradant Windows et Office. Google a délaissé son modèle initial de licencier sa technologie (vendre beaucoup à peu de clients) pour un modèle de masse (vendre peu à des millions de sites Web). Apple a lancé l’iPod, puis l’iPhone, puis l’iPad, qui coûtent tous les trois bien moins cher que le Mac. Et en parlant d’iPhone et d’iPad, les géants du jeu vidéo (Electronic Arts, etc.) se sont lancés à produire des jeux sur cette plate-forme bien que les prix y sont inférieurs aux jeux vidéos sur console ou PC.

Tous ces contre-exemples ont cependant leur explication.

Microsoft a d’une part toujours misé sur le long terme. Sacrifier les profits à court terme pour mieux vendre dans le futur. Qui plus est, leur modèle de distribution est extrêmement profitable et peut s’accommoder de très petits prix. Car pour ses deux produits vedettes, Microsoft ne vend que peu en magasin, un circuit de vente relativement onéreux. Depuis des années, Redmond pousse à avoir Windows et Office préinstallés sur chaque PC vendu. Ce modèle leur permet d’avoir de confortables marges, car ils ne traitent qu’avec quelques vendeurs de PC (pour un coût minimum) pour atteindre des centaines de millions d’utilisateurs. Lorsque Microsoft vend aux entreprises, même scénario : l’entreprise ne reçoit que quelques CDs et c’est à elle d’installer Windows sur tous les PCs de la compagnie. Autrement dit, plus la compagnie est grosse, plus les marges sont importantes. En commençant par traiter avec les organismes gouvernementaux chinois (qui ont beaucoup de PC), Microsoft conserve des coûts incrémentaux très faibles.

Google, de son côté, a changé de modèle plus par désespoir qu’autre chose. Mais il a du même coup changé de modèle de vente : au lieu d’avoir une poignée de commerciaux (voire le PDG lui-même) qui vont démarcher des clients, Google vend des publicités à des millions de gens en utilisant un processus entièrement automatisé. Les coûts incrémentaux étant quasiment nuls, le marché des publicités pour Google est extrêmement profitable – tellement que la compagnie peut se permettre de fournir de nombreux autres services gratuitement.

Apple s’est lancé dans le domaine du mobile parce que Steve Jobs a reconnu que le Mac ne pouvait avoir qu’un marché de niche – mais il a su conserver ses marges. La firme à la pomme est en effet la plus à l’aise sur des marchés qui ne sont pas encore matures, car ce sont des marchés où le produit-même est le plus grand différentiateur. Et étant donné qu’Apple sait se distinguer de la concurrence, ses clients sont près à payer le prix fort pour acheter ses produits. C’est le cas de l’iPod qui a écrasé la concurrence malgré des prix plus chers, alors que les acheteurs potentiels du Mac comparent le prix de ce dernier à celui du PC. Pour ce qui est de l’iPhone, il faut se rappeler que le prix des smartphones (iPhone et autres) est subventionné par l’abonnement qui va avec. A ce sujet, Steve Jobs a réussi à convaincre les opérateurs télécoms (du moins AT&T aux Etats-Unis) de lui céder une partie des revenus des abonnements liés aux ventes d’iPhone. Dans le cas de l’iPad, j’avoue ne pas connaître le modèle de vente car ce dernier n’a pas encore de concurrence.

Les éditeurs de jeu vidéo, quant à eux, utilisent un réseau de vente très différent avec l’App Store tel que le propose Apple. Car vendre par l’intermédiaire de grandes surfaces ou magasins spécialisés coûte cher. Non seulement les magasins se prennent une marge conséquente sur les ventes (un magasin a des coûts importants), mais il y a en plus le coût de production des jeux (CD, emballage), de distribution, de stockage, ainsi que le casse-tête de l’inventaire. Produisez trop de copies d’un jeu et vous vous retrouvez avec des invendus sur le dos. Produisez-en trop peu et vous risquez de perdre des ventes. Sur l’iPhone / iPad, Apple se prend 30% des ventes, mais les 70% restants sont du profit net pour les éditeurs de jeux vidéo. Etant donné que le téléchargement est entièrement numérique, les coûts incrémentaux de production sont nuls, et il n’y a pas de problème de stocks invendus. Je ne connais pas les marges que se prennent les magasins, mais je doute fort que cela soit moins de 30% des ventes. Et un magasin « en dur » ayant un coût au mètre carré fixe, il aura tendance à privilégier les produits qui rapportent le plus par rapport à la surface prise, favorisant les produits les plus onéreux.

Conclusion

Mais ces contre-exemples sont plus des exceptions que des règles. De temps en temps un vendeur va diverger et attaquer un marché plus bas de gamme que ses produits existants. Mais au quotidien la progression naturelle est de s’adresser à des marchés de plus en plus haut de gamme. La raison de cette tendance naturelle est d’éviter le risque de cannibalisation des ventes. Lorsqu’on lance un nouveau produit, il intervient parfois en remplacement des produits existants – du moins pour une partie de votre clientèle. Si vous offrez un produit plus haut de gamme en plus de votre produit traditionnel, vous allez peut-être même attirer de nouveaux clients, mais vous n’allez pas perdre vos clients existants. Au pire ils garderont votre produit historique, au mieux ils achèteront votre produit plus onéreux. Essayez par contre de vendre un produit un peu moins cher que votre produit actuel et vous courrez le risque que certains de vos clients soient intéressés et payent donc moins.

Sun a commencé à produire des stations de travails et s’est attaqué au marché des serveurs Unix dés qu’il a pu. Microsoft a fait de même avec le PC. Redmond a commencé par vendre Windows et Office en entreprise, mais désormais pousse sa suite complète, en particulier côté serveur : Exchange, SharePoint, Windows 2008, SQL Server, etc.

Apple, quant à lui, a commencé par vendre l’iPod, puis a évolué avec l’iPhone pour finalement vendre l’iPad. On remarque que chaque produit rapporte plus que le précédent.

Et si Google n’a pas cédé à cette mode, c’est tout simplement parce qu’il n’a PAS réussi à trouver de marché plus lucratif. Le géant de la recherche en ligne a essayé de s’attaquer à d’autres marchés de la publicité, mais aucun n’a rapporté autant que la mine d’or qu’il a découverte avec son moteur de recherche.

Les facteurs de réussite… enfin presque

10 septembre 2010

Nombreux sont les articles qui essaient d’isoler les facteurs de la réussite d’une entreprise. Les articles, livres, et autres séminaires sur le sujet ne manquent pas.

L’un des blogs du site Web de Harvard Business Review a récemment publié un article intitulé Do you pass the Leadership test ? L’argument principal est qu’un bon entrepreneur sait garder le cap, même si tout le monde lui dit qu’il est fou. Il prend pour exemple l’attitude de Jeff Bezos, le fondateur et PDG d’Amazon.com, qui ne compte pas ajouter d’écran couleur à son Kindle malgré la concurrence nouvelle de l’iPad. Pour Bezos, « il va y avoir une centaines de compagnies qui vont créer des tablettes à écran LCD. Pourquoi voudrions-vous être la cent unième ? »

Et en parlant de la Harvard Business Review, un autre article, publié lui non pas sur un blog du site mais dans l’édition papier de mai 2002 se penche également sur les qualités requises par un bon entrepreneur. Cet article, intitulé Entrepreneur: test for the fainthearted se base sur une étude d’une cinquantaine de startups et en tire plusieurs qualités nécessaires sinon utiles pour tout entrepreneur. Et l’une d’entres elles est de savoir changer de cap si les circonstances le demandent.

Pris individuellement, ces deux articles sont plein de bon sens… sauf qu’ils se contredisent.

Qui a raison et qui a tort alors ? Quand est-ce une bonne chose de garder le cap, et quand est-ce une bonne chose de changer de cap ? Jeff Bezos a-t-il raison ou tort de continuer son idée du Kindle coûte que coûte ?

En fait, on peut parier que les experts trouveront la bonne réponse… après coup. Si le Kindle est un succès, on dira que Jeff Bezos est un génie car il a su garder la tête froide face à l’iPad. Si par contre ce dernier enterre le Kindle, les mêmes gens trouveront que Jeff Bezos a échoué car il n’a pas su s’adapter.

Garder le cap

Un entrepreneur est quelqu’un qui voit un marché là où personne d’autre ne le voit. Pas étonnant donc que les entrepreneurs se sentent incompris à leurs débuts. Suivre la sagesse conventionnelle est rarement une bonne idée lorsqu’on est un entrepreneur.

Prenons l’exemple de Pixar. Ed Catmull, le co-fondateur de la société, a eu depuis 1970 la vision de films créés entièrement en images de synthèse. Il a été rejoint en 1975 par Alan Ray Smith, l’autre co-fondateur de la société. Leur compagnie (alors appelée Graphic Group) a d’abord fait partie de Lucasfilm en 1979 avant d’être rachetée par Steve Jobs en 1986. Les ordinateurs de l’époque n’ayant pas les capacités requises pour créer des films entièrement en image de synthèse d’une qualité suffisante, ni George Lucas ni Steve Jobs n’ont compris la vision qu’avaient Catmull et Smith. George Lucas voyait l’intérêt des ordinateurs pour les effets spéciaux, pour éditer la bande son… et pour la comptabilité (qui était manuelle pour le premier Star Wars). Steve Jobs, quant à lui, a pendant longtemps vu Pixar uniquement comme un vendeur d’ordinateurs (il a toujours été très orienté matériel). Catmull et Smith ont donc du persister des années dans leurs conviction et parfois opérer en sous-marin face à deux monstres sacrés telles que Lucas et Jobs (excusez du peu). Si Pixar est désormais célèbre pour ses films d’animation, il s’est déroulé pas moins de 25 ans entre la vision de Catmull et le premier Toy Story (1995)

John Lasseter, le troisième pilier de Pixar, a lui commencé sa carrière en tant qu’animateur chez Disney. Mais il a vite déchanté, déçu par l’anéme de la compagnie depuis la mort de Walt. C’est en découvrant des images du film Tron (produit par Disney) qu’il comprit que l’ordinateur pouvait aider les films d’animation, en particulier pour les scènes 3D, fort difficiles à dessiner à la main. Mais le management a fait la sourde oreille, et c’est les tentatives de Lasseter pour promouvoir sa vision ont non seulement échoué mais lui ont coûté son poste, son manager n’ayant pas aimé qu’il passe par-dessus lui pour promouvoir sa vision.

Savoir changer de cap

D’un autre côté, le marché est extrêmement volatile – surtout en high tech. Ce que l’on pensait hier n’est peut-être plus vrai aujourd’hui. Fin des années 90, les téléphones par satellites ont commencé à faire parler d’eux. Globalstar et Iridium étaient les réseaux « in » à cette époque (Microsoft a même investit dans Iridium). Mais ce que personne n’avait prévu lorsque ces réseaux satellites ont été conçus serait que leur lancement coïnciderait avec l’explosion des téléphones cellulaires. Certes la réception de ces derniers n’est pas aussi globale, mais elle est suffisante dans bien des cas. Qui plus est, les téléphones satellites coûtent fort cher, il n’y a pas autant de choix (pas de smartphone) et les communications coûtent horriblement chères. Les téléphones par satellites existent toujours, mais se contentent d’un marché de niche.

Et il existe de nombreux cas de compagnies qui n’ont survécues que parce qu’elles ont changé de vision. La vision initiale de Bill Gates et Paul Allen a été de vendre un langage de programmation, et c’est ce que Microsoft a vendu exclusivement pendant ses 6 premières années. C’est par accident que Redmond s’est attaqué au marché du système d’exploitation. Larry Page et Sergey Brin, les fondateurs de Google, avaient eux la vision de se faire de l’argent en licenciant leur moteur de recherche et non pas par la publicité. Ce n’est qu’à contrecoeur qu’ils ont décidé d’avoir recours à la publicité pour que la compagnie survive. Mais bien leur en a pris, car ils sont tombé sur une véritable mine d’or, propulsant Google au rang des géants de l’informatique.

Quoi croire en fin de compte ?

Le problème de ces deux règles est quand on les prend comme une solution miracle pour avoir du succès. Si les principes de savoir garder le cap comme de savoir changer de cap sont tous les deux bons, cela ne veut pas dire qu’ils doivent être appliqués dans tous les cas. Le bon entrepreneur est celui qui sait quand appliquer le bon principe au bon moment.

Analyser des compagnies et essayer de comprendre les facteurs de leur réussite ou de leur échec est tout à fait normal. Le problème est que l’on a tous (vous comme moi) tendance à extrapoler des règles que l’on pense universelles.

Phil Rosenzweig couvre ce phénomène dans son livre The Halo Effect (que je recommande chaudement). L’auteur explique comment les résultats d’une compagnie influencent plus que de raison notre jugement sur ses atouts, faiblesses et actions passées. Un des exemples qu’il prend est le cas de Cisco. Si le géant californien a été encensé pour sa culture, ses dirigeants et ses employés pendant que tout allait bien, dés que la compagnie s’est trouvée en difficultés, personne n’a plus trouvé aucun bon côté. Comme si ce n’était pas quelques facteurs qui avait précipité le déclin de la firme mais que tout allait mal. Du jour au lendemain, ses dirigeants sont devenus incompétents, ses employés sont devenus normaux. Soudain, Cisco n’était plus une compagnie ayant un support technique légendaire mais au contraire était devenue arrogante. Rosenzweig détaille comment tout ce qui avait été encensé chez Cisco était devenu une source de problème : ses mécanismes d’acquisition, sa technologie, etc.

On a de même tendance à oublier toutes les compagnies qui ont mordu la poussière parce qu’elles ont appliqués des principes qui ont fait la fortune d’autres compagnies. On oublie en effet les startups qui ne sont allées nulle part soit parce qu’elles ont persisté dans leur vision (mais ont eu la mauvaise vision), soit parce qu’elles ont changé de cap (comme pour se retrouver sur un marché pour lequel elles n’étaient pas adaptées).

De la même manière, on a tendance à être très subjectif lorsqu’il s’agit de se diversifier ou de rester sur son coeur de cible. On critiquera Wordperfect de s’être trop diversifié au profit de son produit vedette, mais on applaudira Apple pour avoir fait exactement la même chose avec l’iPod.

Paradoxalement, même si John Lasseter et le management de Disney de l’époque avaient des visions très différentes, tous se pensaient héritiers de la « pensée Disney ». Pour le management de Disney, cela voulait dire utiliser les méthodes qu’avait popularisé Walt – même si les studios Disney ont produit Tron, à moins que le modeste succès de ce dernier n’ai refroidit l’ardeur du management pour les ordinateurs. Pour Lasseter, Walt était avant tout quelqu’un qui n’a jamais hésité à sortir des sentiers battus et d’innover pour épater l’audience. Que ce soit le premier long métrage entièrement animé qui a failli couler la compagnie (Blanche Neige et les Sept Nains), l’utilisation de la caméra multiplans, ou le parc à thème Disneyland. Si l’histoire a tranché du côté de Lasseter, critiquer les dirigeants de Disney serait oublier qu’en 1982 les ordinateurs étaient bons pour créer un univers stylisé tel que Tron, mais pas pour créer des animations qui pouvaient rivaliser avec les dessins animés traditionnels. Et qui sait si les dirigeants n’ont pas ignoré tout un tas de propositions « d’améliorations » qui se seraient révélées catastrophiques pour Disney.

C’est pour essayer d’éviter ce problème que Jim Collins compare des compagnies qui ont brillamment réussi à des compagnies « bonnes mais sans plus » dans son livre Good to Great, un classique du management anglo-saxon. Collins essaie d’en tirer des principes, et s’est assuré que ces derniers ont été appliqués uniquement par les compagnies « brillantes ». Mais même dans ce cas, les principes ne sont pas des recettes miracles. L’un d’entre eux est en effet d’accepter la dure réalité, tout en gardant confiance que l’on va prévaloir à terme. Le livre donne l’exemple des prisonniers américains au Viêt-Nam. Ceux qui n’ont pas survécu sont paradoxalement les optimistes. Pourquoi les optimistes ? Parce que ce sont ceux qui croyaient qu’ils seraient rentrés à Noël, puis à Pâques, etc. Ceux qui le mieux résisté aux geôles Viêt-Cong sont ceux qui ont tout de suite accepté qu’ils étaient là pour plusieurs années – mais qu’ils rentreraient au bout du compte au pays. Pessimiste à court terme, optimiste à long terme.

Mais appliqué à une entreprise, ce principe peut être extrêmement subjectif. Lorsqu’une startup n’a pas le succès escompté, quelle est la dure réalité pour un entrepreneur ? Qu’il va en baver avant que le marché ne décolle ? Qu’il s’est trompé de marché ? Qu’il a le bon marché mais qu’il s’est trompé dans la stratégie à appliquer, faisant perdre des millions à sa compagnie ? Ou qu’il n’est pas la bonne personne pour mener sa compagnie à destination ? Il est facile d’arriver à la conclusion qui nous arrange. En particulier, je doute que beaucoup de gens acceptent le fait qu’ils ne sont pas la bonne personne pour diriger leur compagnie vers le succès et se mettent volontairement à l’écart.

Quelle était la dure réalité pour les fondateurs de Pixar et de Google à leurs débuts ? Facile à déterminer aujourd’hui, mais à l’époque ? Etait-ce que leur vision n’était pas la bonne ? Ou que cela prendrait du temps avant que leur vision puisse être mise en oeuvre ?

Au bout du compte, le décideur, qu’il soit entrepreneur d’une startup ou PDG d’une grosse compagnie, est tout seul. Les différents principes peuvent aider, mais il n’existe aucune règle pour comment les appliquer. Au final, le décideur ne peut compter que sur son expérience et son instinct.

L’utilisation d’Internet va-t-elle changer?

3 septembre 2010

Le magazine Wired a lancé le pavé dans la mare en publiant un article intitulé The Web is Dead, long live the Internet. « Le Web est mort, vive Internet. » Graphique à l’appui, Wired montre que le Web occupe une part décroissante du trafic Internet. Un glissement de plus de 50% en 2000 à seulement 23% en 2010.

Le coupable selon Wired ? Les applications, telles que les applications iPhone et iPad. On ne va plus sur le site Facebook ou Twitter, mais on va sur l’application associée.

Les lacunes du graphique

Malheureusement pour Wired, le graphique comporte de nombreuses lacunes.

Tout d’abord, le graphe n’indique que le pourcentage du trafic et non le trafic même. Il n’y a donc aucun moyen de savoir si, en termes absolus, le trafic Web augmente, stagne ou est en déclin. Par exemple, la part du trafic dédié à l’email est en déclin. Sauf que je doute que le nombre d’emails envoyés ait diminué tant que ça. Non pas que les gens utilisent de plus en plus l’email, mais parce que le spam ne cesse d’augmenter.

Ensuite, le graphique mesure le trafic en termes de bande passante et non pas en termes de temps passé devant l’ordinateur. Or, selon le graphique, le Web cède la place à deux services : le peer to peer et surtout la vidéo. Or ces deux services utilisent beaucoup de bande passante. Un internaute peut en effet passer plus de temps à lire une seule page Web que de regarder une vidéo sur YouTube – même si cette dernière consomme bien plus de bande passante. Quant au peer-to-peer, les plus gros utilisateurs laissent leur client Bittorrent ou Shareaza tourner en tâche de fond. Cela ne veut pas dire pour autant qu’ils délaissent le Web.

Et finalement : où se trouvent sur ce graphique les applications qui sont sensées tuer le Web ? Font-elles partie de la catégorie Others qui est passée en 20 ans de 24% du trafic à 3% ? S’il y a une seule chose que ce graphique montre, c’est que la vidéo semble consommer une partie de plus en plus grande du trafic Internet. Et franchement, tout le monde se doutait que cela allait arriver depuis les débuts du Web.

Les nouveaux services Internet

Si l’article de Wired est biaisé, cela ne veut pas dire que les habitudes d’utilisation d’Internet ne vont pas changer.

Rien en effet ne prouve que les services qui ont popularisé Internet – le Web et l’email – soient toujours utilisés dans le futur. Par exemple, les internautes les plus jeunes n’aiment pas l’email qu’ils jugent trop lent, et lui préfèrent les SMS ou la messagerie instantanée. Google avait une bonne idée en tentant de réunir les deux avec Google Wave, mais la mise en pratique a été mal pensée.

Et il existe des services Internet autrefois populaires qui ont été abandonnés. En 1992 j’ai découvert Usenet, le service de forums d’Internet. A l’époque, beaucoup des forums étaient quasiment vides (je me rappelle être tout excité dés qu’il y avait de nouveaux posts sur les forums que je suivais). Le trafic a finalement augmenté pour atteindre une taille raisonnable. Puis le Web a popularisé Internet, ce qui a apporté beaucoup de monde sur Usenet – beaucoup trop de monde d’un coup – faisant du même coup éclater la « netiquette » qui régissait un code de conduite (ne pas poster le même post sur plusieurs forums, une signature d’au plus 4 lignes, etc.). Trop de nouveaux forums, trop de trafic, trop d’abus en tout genre et trop de spam ont tué Usenet. Si les forums d’internautes ont leur utilité, ils ont quitté Usenet et sont désormais disséminés sur des millions de sites Web spécialisés.

Et il est vrai que les applications iPhone et iPad représentent une nouvelle habitude d’utilisation d’Internet. Elles correspondent à l’image idéale que Steve Jobs se fait de l’informatique : contrôlée le plus possible pour avoir un certain « standard de qualité ». Ce modèle a bien évidemment un prix : une baisse de la flexibilité. Autant le Web permet de créer un site avec n’importe quel outil que l’on désire, autant les applications restreignent et ralentissent l’arrivée de nouveaux venus.

Mais faisons-nous l’avocat du diable et demandons-nous : a-t-on encore besoin de la souplesse du Web ?

Car comme dans tout marché nous assistons à une concentration. Pas en termes de nombre de sites Web (47 millions de nouveaux sites en 2009), mais en termes de trafic. Les sites Web qui ont un tant soit peu de popularité continuent de se faire racheter… ou dépérissent (comme MySpace). YouTube était populaire, il a été racheté par Google qui cherchait à être leader sur ce segment. CDNow a été un pionnier des ventes de CD en ligne avant lui aussi de se faire racheter par Amazon.com (encore une fois pour consolider sa présence sur le marché). Lala.com proposait une alternative décente à iTunes ou Amazon MP3 avant qu’il se fasse racheter par Apple et disparaitre complètement (il semble qu’Apple ait racheté Lala.com juste pour éliminer un concurrent). Et ainsi de suite.

De la même manière, une grande partie du contenu s’est déplacée vers une poignée de méga sites. Les internautes ne créent plus leur petite page perso où ils écrivent ce qu’ils veulent. Ils créent leur blog, mais surtout postent leurs états d’âme sur Facebook ou Twitter quant ils ne postent pas une vidéo sur YouTube. Lorsqu’ils veulent créer une communauté en ligne, ils créent de moins en moins leur propre site Web mais passent au contraire par des sites tels que Ning, Meetup.com ou créent un groupe sur Facebook. Et lorsque les internautes se posent une question sur un sujet donné leur premier réflexe est d’aller sur Wikipedia. De la même manière, il est parfois difficile pour un site Web marchant indépendant d’exister. Car récupérer du trafic n’est pas toujours facile, et les internautes peuvent rechigner à donner leur numéro de carte bleue à un site Web inconnu. D’où le succès de sites tels que eBay ou Yahoo Merchant.

Dans tous ces cas de figures, l’installation d’une poignée d’application (Facebook, Twitter, Wikipedia, eBay) et vous avez une grande partie des fonctionnalités du Web sur votre iPhone ou iPad… sans le Web.

Désormais, un site Web est tenu d’avoir également une présence sur Facebook, Twitter, une application iPhone et pour bonne mesure une application Android.

Les avantages du Web

Mais le Web garde un avantage énorme sur les applications : une rapidité d’accès, en particulier pour les sites Web que l’on visite épisodiquement. Car on n’ajoute pas tous les sites Web que l’on visite à ses liens favoris, loin de là. Une application, elle, demande à être installée avant d’être utilisée – et désinstallée si on ne veut plus s’en servir. Autant dire que le modèle des applications n’est pas idéal lorsque l’on ne sait pas ce que l’on cherche.

Qui plus est, les applications n’ont pas le phénomène d’hyperliens entre applications. Certes, les hyperliens entre sites Web sont parfois abusés. Mais le concept reste tout de même fort utile. Les blogs (pour ne citer qu’eux) référencent souvent d’autres blogs ou articles. Or il n’existe pas de manière simple de passer d’une application WordPress à l’application NY Times – surtout si cette dernière n’est pas installée.

Prenons un autre exemple, et imaginons que vous recherchiez des informations sur un produit donné, comme le casque audio Grado SR60. Une recherche sur Google vous permet de glaner des renseignements. La recherche vous donne le site du constructeur, des sites connus tels qu’eBay (pour voir à quel prix pouvez-vous vous en offrir un), mais aussi des sites que vous ne connaissiez pas comme des tests d’utilisateurs ou des témoignages de clients. Chaque lien retourné par Google vous amène directement sur la page parlant du produit.

Avec des applications, la même opération se déroulerait comme suit : vous commencez par lancer les applications que vous avez installées et qui sont susceptibles de retourner des résultats (comme eBay). Vous devez par contre lancer une recherche séparée pour chaque application. Si vous désirez plus d’information (sans passer par le Web), vous devez rechercher dans l’App Store des nouvelles applications qui pourraient vous fournir des informations, comme une application dédiée aux casques audio. Mais la recherche de l’App Store n’ayant que peu de visibilité sur le contenu des applications même, ce qui fait que vous devez choisir à l’aveugle : installer ces applications, chercher si elles ont des informations utiles… et dans le cas contraire les désinstaller. Bref, tout un programme !

Conclusion

Si les applications ont leur utilité, lorsqu’elles remplacent des sites Web, elles ne sont souvent qu’une réécriture au format d’un smartphone. Elles sont plus simples que leur équivalent Web, mais uniquement lorsque l’utilisation ne doit pas impliquer plusieurs applications. Je reste de même persuadé qu’il y aurait un intérêt à packager des sites Web en applications.