Archive for the ‘Internet’ category

L’université en ligne

26 août 2012

Les cours en ligne se répandent de plus en plus.

Comme toute tendance, celle-ci n’est pas vraiment nouvelle. University of Phoenix a démarré un programme de cours en ligne dés 1989, et est depuis connue pour être l’université qui délivre des diplômes en ligne. Depuis 2006, Kahn Academy propose gratuitement des milliers de cours sous forme de vidéos sur de nombreux sujets.

Mais jusqu’alors les cours offerts en ligne n’avaient pas bonne réputation. Sur le marché du travail, un MBA obtenu en ligne n’a pas la même valeur qu’un MBA en provenance d’une école traditionnelle.

Or cette année, plusieurs universités prestigieuses commencent à offrir des cours en ligne gratuits. C’est ainsi que Coursera met en ligne gratuitement des vrais cours de plusieurs universités (16 pour l’instant), et pas des moindres : Caltech, Stanford, l’Ecole Polytechnique Fédérale de Lausanne, Berkeley, Princeton pour n’en nommer que quelques unes. A noter que Coursera ne se contente pas d’offrir de simples vidéos. Les cours démarrent à une date précise (les élèvent peuvent cependant les visionner quand ils veulent), et sont émaillés de quiz. Certains cours donnent même un certificat pour ceux qui réussissent l’examen final.

De leur côté, Harvard, le MIT et Berkeley ont commencé à publier des cours sur edX (Berkeley propose les mêmes cours sur Coursera)

Et ce sont loin d’être les seuls. Apple a lancé iTunes U (pour « iTunes University ») qui offre des vidéos (cours et conférences) en provenance de diverses universités, dont HEC Paris.

Quelle audience ?

Ce type d’initiative a le plus de chance de se développer lorsque les coûts de l’éducation sont prohibitifs. C’est le cas des pays du tiers monde bien sûr, mais également des Etats-Unis. Le coût des universités aux USA a en effet explosé au court des dernières décennies. Chaque année il augmente plus vite que l’inflation, si bien qu’à ce rythme, obtenir un diplôme d’une université américaine dans une dizaine d’années coûtera dans les $500,000. Quand on sait que de nombreux jeunes diplômés américains ne trouvent pas d’emploi à l’heure actuelle, la demande d’une alternative moins chère existe bel et bien aux Etats-Unis.

Quelles implications ?

Il existe certes des problèmes logistiques tels qu’éviter la triche – mais pas insurmontables. Par contre, tous les sujets ne pourront pas être abordés. Des études de médecine demandent de la pratique en hôpital. Des études de chimie demandent un laboratoire. Par contre, d’autres sujets tels que les mathématiques ou le droit sont transposable en ligne.

Que se passera-t-il si les cours en ligne explosent ? Avec cette méthode, les universités pourront « monter en charge », c’est-à-dire accepter autant d’étudiants qu’elles veulent. Lorsqu’un tel phénomène se produit pour une profession, on observe qu’une poignée de vendeurs s’accaparent la grosse majorité des parts de marché, ne laissant que les miettes au reste. C’est le cas des livres ou de la musique, où une poignée de stars se font des millions alors que la très grande majorité des auteurs/compositeurs arrivent tout juste à subsister. Par contre, le théâtre peut plus facilement nourrir son homme, car le plus célèbre des acteurs ne peut physiquement pas monopoliser toutes les salles de théâtre.

Si demain toutes les universités proposent leurs cours en ligne, tout le monde voudra suivre les cours des universités les plus cotées telles qu’Harvard, Yale ou Stanford. Ces dernières pourront avoir des millions d’étudiants de par le monde, ce qui leur permettra de gagner énormément d’argent tout en proposant des cours bon marché.

Cela ne veut pas dire que des universités physiques disparaitront, car les interactions entre étudiants sont parfois irremplaçables. L’un des grands avantages de Stanford est de mettre en contact les étudiants entre eux (c’est ainsi que les deux cofondateurs de Google se sont rencontrés) et de leur faire rencontrer des investisseurs potentiels. Les ivy leagues (les universités américaines les plus prestigieuses) sont avant tout des endroits où l’on se crée un carnet d’adresse. Ces universités mettent d’ailleurs plus l’accent sur la vie sociale entre étudiants que sur les cours mêmes. C’est pour cette raison qu’un MBA d’une université prestigieuse est bien plus côté qu’un MBA obtenu en ligne. Comme disait Coluche, il existe deux types d’avocats : celui qui connait la loi, et celui qui connait le juge.

Mais pour une majorité d’universités – celles qui n’ont pas le cachet pour attirer le public – le choc pourrait être rude.

Je serais curieux de savoir ce que donnera la perception des carrières universitaires si certains types de cours deviennent abordables et pas d’autre. Aux Etats-Unis, les élèves les plus doués ont tendance à aller en école de droit ou de médecine, car c’est là où se trouvent les métiers les plus lucratifs. Les cursus qui demandent toujours de s’endetter pendant des années vont-ils perdre de leur attrait face aux cursus peu onéreux, ou au contraire vont ils exacerber la demande du fait de leur exclusivité ?

Je ne suis par contre pas convaincu d’une future démocratisation de l’université parmi les classes modestes ou dans le tiers monde – du moins à grande échelle. Car l’éducation est avant tout une affaire de culture. Dans des pays comme la France où l’éducation est quasiment gratuite, les enfants d’ingénieurs ont toujours plus de chance de devenir ingénieurs que les enfants issus de classes modestes. Pas parce qu’ils ont plus intelligents, mais parce que la pression parentale (directe comme implicite) est plus importante. De la même manière, un enfant du tiers monde qui n’a pas reçu une éducation secondaire convenable pourra difficilement profiter de cours d’université de qualité. Cela peut par contre aider les enfants de familles qui attachent une importance aux études (comme en Inde) ou aider les jeunes prodiges de par le monde.

Les magasins d’électronique ont-ils besoin d’un nouveau business model?

13 avril 2012

Aux Etats-Unis, Best Buy, la première chaîne de magasins d’électronique et d’électroménager (sorte de Darty) vient d’annoncer un plan de restructuration drastique, avec la fermeture de nombreux magasins. Peu de temps après, son PDG démissionnait.

Il faut dire que le secteur n’est pas au mieux de sa forme. Le principal concurrent de Best Buy, Circuit City, a d’ailleurs fermé ses portes il y a quelques années. Et je doute que la situation soit nettement meilleure dans les autres pays, que ce soit en France ou ailleurs.

D’une part, la valeur ajoutée qu’apportent les grandes surfaces en matière de produits électronique a diminué depuis l’avènement d’Internet. Le Web permet en effet de comparer beaucoup de modèles, d’obtenir les caractéristiques techniques, et bien sûr d’avoir les meilleurs prix. De leur côté, les grandes surfaces n’apportent que peu de connaissance technique. Le SAV consiste souvent à renvoyer l’appareil défectueux au constructeur, et cela fait plusieurs décennies que le personnel compétent s’y fait rare. Trop de vendeurs ne font que lire les étiquettes, lorsqu’ils n’essaient pas de fourguer les produits qu’on leur a dit de vendre.

Car les magasins sont avant tout au service de leurs fournisseurs plus que du consommateur – et en particulier du fournisseur qui a payé le plus pour que son produit soit le mieux en évidence. Les vendeurs ont donc pour consigne de vendre ledit produit en priorité, ce qui a entraîné de nombreuses pratique malhonnêtes : dérégler les télévisions concurrentes pour mieux faire valoir la « bonne » télévision, vendeurs qui sortent des mensonges éhontés, etc. Je n’ai jamais entendu parler de « vendeur de la Fnac » comme un compliment.

Les magasins « réels » apportent pourtant de la valeur ajouté : permettre de voire et d’essayer le produit en vrai. Le problème est que les clients ont appris à aller voir le produit en magasin et à l’acheter en ligne au meilleur prix.

Besoin d’un autre business model

Une stratégie serait bien évidemment de copier Amazon.com et de s’orienter vers la vente numérique. Mais ce n’est pas la seule manière.

Car il y a toujours un besoin de voir et essayer certains produits électroniques (notez le « certains »). Si le public n’a pas besoin de voir 50 modèles différents de portables PC qui se ressemblent tous, il peut être intéressé pour voir comment fonctionne une tablette Android ou une liseuse telle que le Kindle d’Amazon.com.

Et pour ce qui est du consommateur qui consulte en magasin et qui achètent en ligne, ce problème serait résolu si les grandes surfaces facturaient les constructeurs de matériel pour tout sauf un pourcentage sur les ventes : le placement dans leurs rayons, avoir du personnel qualifié qui sait répondre aux questions techniques, une facturation nominale pour couvrir les frais des transactions des ventes. On peut même imaginer un système de service à la carte où HP, Dell et autres constructeurs décident du niveau de service qu’ils veulent que le magasin fournisse (uniquement démonstration mais pas de vente, etc.). Mais en évitant de se prendre un pourcentage des ventes, les magasins évitent le piège Internet. Leur but devient d’informer plus que de vendre.

Bien évidemment, ce modèle ne s’applique pas à tous les types de produit hi-tech. Non seulement tous les produits ne gagnent pas à être visible en magasin, mais une grande surface peut difficilement avoir du personnel compétent si elle vend trop de produits.

Cela impliquerait des magasins plus petits, avec un inventaire plus restreint mais plus ciblé. Exit les webcams, PC et autres commodités. Ils peuvent être tout autant être vus sur le Web. Par contre, un tel magasin serait l’endroit de choix pour se renseigner sur les technologies encore nouvelles : tablettes, streaming vidéo sur son téléviseur, etc.

Je doute que des géants tels que Best Buy ou la Fnac se lancent dans ce genre de magasin. Il est toujours très difficile de vendre moins de produits – et donc de voir décliner ses revenus. A moins qu’ils ne lancent leur propre sous-marque. Mais la plus grande chance est de venir d’un nouveau venu. Les opérateurs mobiles pourraient se lancer dans le créneau, étant donné qu’ils ont déjà des magasins de taille plus restreinte qui mettent en avant les téléphones portables et smartphones dernier cri. Les magasins de jeu vidéo ou de location vidéo sont une autre possibilité.

Encore faut-il que quelqu’un se décide à lancer un business model différent…

Difficultés logiciel et difficultés tierces

11 février 2012

Un excellent article de Paul Graham indique comment des entrepreneurs évitent (parfois inconsciemment) les projets qui impliquent des difficultés auxquelles ils ne sont pas habitués. En informatique, il est de fait tentant de vouloir se restreindre à la seule écriture d’un logiciel autour d’une idée géniale et de laisser la « magie » d’Internet faire le reste. Le risque est de créer un logiciel que les utilisateurs aiment peut-être mais ne sont pas prêt à acheter.

Créer un programme complexe ne refroidi que peu d’informaticiens. Par contre, tout challenge périphérique comme négocier avec des organismes tiers est une autre histoire. C’est pourtant ce qui fait souvent la différence.

Tout le monde s’attend à ce qu’une compagnie qui vende des biens tangibles doive faire face à de nombreux challenges en dehors de la conception. Apple a ses débuts a dû trouver des composants les moins cher possible. Amazon.com a du créer un système de logistique pour livrer sa marchandise de la manière la plus efficace. Mais plusieurs compagnies de logiciels ont également dû faire face à des imprévus :

  • Le tout premier programme de Microsoft était un langage de programmation BASIC pour le premier micro-ordinateur, l’Altair 8800 (1975). Le BASIC ne s’est par contre pas vendu tout seul. Tout d’abord, Bill Gates et Paul Allen n’avaient pas d’Altair. Ils ont donc du écrire un émulateur Altair afin d’écrire leur programme BASIC – en espérant que ça marche ! Qui plus est, avant même que Microsoft soit créé, Paul Allen a dû prendre l’avion vers Albuquerque dans le Nouveau Mexique où se trouvait le siège de MITS, le constructeur de l’Altair. Allen et Gates ont d’ailleurs été jusqu’à déménager à Albuquerque pour y fonder Microsoft.
  • Bien que le moteur de recherche de Google soit tirée d’une idée d’algorithme, la compagnie de Mountain View a dû dés le début se préoccuper du matériel. Car un moteur de recherche est un service qui demande énormément de ressources. Google a ainsi dû customiser ses propres serveurs pour éviter que des pannes de matérielles n’aient d’incidence sur le service et que les serveurs consomment le moins d’énergie possible.
  • PayPal a dû faire face à une multitude de casse-têtes pour créer un système de paiement en ligne, que ce soit négocier avec les organismes de carte de crédit, sécuriser son site (il est évident qu’ils sont une cible privilégiée des hackers) ou gérer les plaintes des clients (toujours délicat lorsque de l’argent est en jeu)
  • Facebook a tout de suite fait très attention à ses serveurs afin d’éviter que le flux de nouveaux utilisateurs ne les sature – un problème qui a été fatal à son prédécesseur Friendster.
  • Des sites de rencontre comme Meetic, qui sont un rare cas où les utilisateurs acceptent de payer un abonnement, ont dû briser le cercle vicieux du manque d’utilisateurs initiaux. Car être la première personne sur un site de rencontre n’apporte que peu d’intérêt.

Mais il est facile d’oublier tout cela. Depuis le Web, les dotcoms permettent de lancer un produit avec un minimum d’investissement. Plus besoin de cherche un distributeur. C’est d’ailleurs le problème auquel se sont heurtés tant de dotcoms avant l’explosion de la bulle : ils se sont affairés à créer un site autour d’une idée « géniale » et d’attirer du trafic sans trop se soucier de questions tierces telles que monnayer ledit trafic. On connait la suite.

Et cette mentalité n’a pas disparu avec la « nouvelle économie », étant donné qu’il est de plus en plus facile de créer un site Web. Des compagnies comme Amazon.com fournissent une offre d’hébergement qui peut monter en charge à la demande. Et des plateformes telles que l’iPhone et l’iPad sont apparues, facilitant la tâche. Apple s’occupe en effet de l’hébergement (même pas besoin d’avoir son propre site Web) et du paiement – on n’a qu’à soumettre son application !

Qui plus est, on a tous entendu parler de sites qui ont explosé grâce au bouche à oreille. En d’autres termes, on peut penser qu’il ne suffit que de trouver une idée géniale pour faire fortune, comme Rovio l’a fait avec Angry Birds. Même pas besoin de marketing.

Mais se focaliser sur Angry Birds est un peu comme regarder uniquement le gagnant à la loterie, sans réaliser que de millions de gens jouent et perdent tous les jours. Dans les faits, les gens qui font fortune rien qu’en écrivant un logiciel sont extrêmement rares.

Zynga, l’éditeur de jeu sur Facebook, a par exemple montré comment ils ont réussi à voler le concept d’autres jeux en les copiant purement et simplement mais en étant plus habile sur le plan marketing. Sur l’App Store d’Apple, il y a tellement d’applications qu’il est très difficile de se faire une place au soleil.

Le cas des marchés naissants

La meilleure manière de se faire de l’argent en n’écrivant que du logiciel reste les marchés à leur tout début. Il existe une opportunité avant que tout le monde s’engouffre dans la brèche.

Prenez le cas du jeu vidéo. Le marché traditionnel étant devenu trop complexe et trop dédié aux « gamers », il a laissé le champ libre aux jeux sur iPhone ou sur Facebook qui visent les joueurs occasionnels. Qui plus est, le développement sur ces plateformes demande nettement moins de moyens que les jeux traditionnels qui, eux, demandent des millions de dollars d’investissement. En dehors d’Angry Birds, plusieurs développeurs indépendants ont réussi à gagner une somme correcte, même s’ils ne sont pas forcément devenus millionnaires. Un article du Time raconte d’ailleurs comment plusieurs créateurs de jeux vidéo des années 70 et 80 ont décidé de reprendre du service.

Mais l’opportunité que représentait ce nouveau marché commence à s’évanouir. Sur Facebook, Zynga a siphonné les revenus, copiant sans vergogne les jeux de la concurrence. Et de manière générale il existe tant de jeux sur Facebook et sur les smartphones qu’il est difficile d’avoir une quelconque visibilité au milieu de tant de concurrence. Il faut donc trouver d’autres marchés… ou accepter le fait qu’écrire un logiciel seul est rarement suffisant pour avoir du succès.

La bonne nouvelle est que plus il est difficile de créer une compagnie du fait de challenges inattendus, moins il y a de concurrence.

Tout le monde pense être un expert

6 août 2011

Une des gros buzzwords ces temps-ci est le Web social en entreprise, Facebook étant souvent cité comme référence. Salesforce.com, l’éditeur du système de CRM en ligne est l’un des plus gros promoteurs de cette tendance. L’entreprise annonce « Welcome to the Social Enterprise » sur son site Web. Elle cite Facebook et Twitter comme évolution logique (par rapport à Amazon.com ou Google). Elle a lancé Chatter, une sorte de Facebook destiné aux entreprises et est même payé un coûteux spot télévisé lors du dernier Superbowl présentant will.i.am (le chanteur des Black Eye Peas) comme utilisateur vedette.

Sauf que le Web social en entreprise reste plus mythe que réalité. Il existe certes des outils de travail en équipe, mais ce n’est pas nouveau (le groupware date des années 80). Les employés ne mettent pas à jour leur statut sur les nombreux outils que leur entreprise met à leur disposition. Un an après sa création, Chatter n’est pas devenu un site Web dont tout le monde parle. Sa pub du Superbowl a fait parler du service, mais uniquement brièvement. De son côté, Facebook a explosé sans avoir l’appui de stars comme will.i.am. Google+ de son côté a réussi à attirer 20 millions d’utilisateurs en un mois seulement.

Comme précédemment écrit, le Web social actuel n’est pas adapté à l’entreprise car orienté grand public – Facebook comme Google+ visent le grand public et non pas le marché d’entreprise. Toute technologie qui fait le saut du grand public à l’entreprise (ou vice versa) doit subir une transformation. La micro-informatique des années 70 (initialement destinée aux particuliers) a subi une transformation avec le PC pour s’implanter en entreprise. Pareil pour Linux, qui n’est devenu acceptable sur le marché du travail qu’avec l’apparition de distributions commerciales telles que Red Hat. Inversement, l’iPhone a représenté la transformation nécessaire des smartphones pour atteindre le grand public. Or la transformation du Web social ne s’est pas encore produite.

Pourquoi donc tout le monde s’efforce-t-il de vouloir adapter le modèle Facebook tel quel en entreprise envers et contre tout ? Parce que beaucoup trop de monde se prend pour un expert. Beaucoup trop de managers se prennent pour des experts sur le Web social uniquement parce qu’ils en connaissent un peu plus que la moyenne – mais je doute que beaucoup d’entre eux ait jamais créé un site Web où créé une communauté en ligne (pour info, j’ai créé mon site Web avec sa communauté en ligne, même si elle reste de taille modeste)

Ce phénomène aide à mieux comprendre pourquoi certains buzzword font autant couler d’encre, qu’il s’agisse de la « nouvelle économie », du CRM des années 2000, du Network Computer des années 90, etc. Ces buzzwords sont répétés et amplifié par tout un tas de gens qui se prennent des experts simplement parce qu’ils ont entendu parler du phénomène un peu plus que les autres. Armé d’une « connaissance » théorique (mais aucunement pratique) ils prônent le changement. Vous et moi avons tous été coupables à un moment ou à un autre (nous avons tous donné notre avis sur un sujet que nous ne maîtrisons pas). Si ce comportement fait partie de la nature humaine, les conséquences sont plus graves lorsqu’il touche des décideurs en entreprise, voire du PDG même. Plusieurs entreprises ont mordu la poussière parce que leur PDG et/ou cofondateur, bien que très compétent, s’est cru être un expert ou un visionnaire. Mon exemple préféré est celui de Nortel qui a racheté l’éditeur de CRM Clarify pour $2,1 milliards en 1999, pour le revendre $200 millions en 2001. Le PDG a sans doute été convaincu par le buzz autour du CRM de l’époque et a du se croire suffisamment informé sur le sujet.

Que peut-on faire ? Garder une dose de scepticisme, éviter de prendre pour argent comptant toutes les prévisions que l’on entend et -beaucoup plus dur- accepter le fait que l’on n’est pas un expert sur tout. Pour ce qui est du Web social en entreprise, il faudra attendre que quelqu’un se décide à implémenter la transformation pour qu’il soit adapté au lieu de travail.

Google Chromebook et Google+

8 juillet 2011

Google vient récemment de lancer deux nouveaux produits qui, bien qu’ils soient souvent vus comme un remplacement, peuvent être vus comme visant de nouveaux marchés. Je veux parler du Google Chromebook et de Google+

Le Google Chromebook n’est pas nouveau (il a été annoncé il y a plus de deux mois) mais n’est que récemment disponible (Samsung en a déjà sorti deux modèles et Acer devrait en sortir un dans quelques jours). Google+ vient par contre tout juste d’être annoncé et n’est accessible que par invitations, encore limitées.

Google Chromebook

Un PC miniature à démarrage quasi-instantané (il démarrerait en 8 secondes chrono) est quelque chose que j’attends depuis longtemps. Pourtant, je ne suis pas excité plus que ça. Pourquoi donc ? Plusieurs raisons.

La première raison est le prix, qui va en effet de $350 (Acer, avec un écran 11,6″) à $500 (Samsung, écran 12″ et 3G). Cela se rapproche du prix de l’iPad qui commence à $500, et du même ordre des netbooks équipés de Windows 7 (qui vont de $240 à $530 suivant les options). Certes, il est difficile de comparer uniquement sur le prix. Le Google Chromebook contient un disque SSD de 16 GB et devrait offrir des performances bien supérieures à celles d’un Netbook sous Windows 7. Mais le problème est que si le Chromebook a l’allure et le prix d’un portable PC, les gens risquent de le considérer comme un remplacement d’un ordinateur et non un complément.

La deuxième raison de ma déception est que je n’ai pas réussi à en toucher un pour vérifier qu’il démarre effectivement en 8 secondes. Aux Etats-Unis, le Chromebook est vendu sur Amazon.com et par la chaîne de magasins Best Buy. Ces derniers ne semblent par contre pas l’avoir en magasin – uniquement en ligne. Difficile de juger d’un nouveau type d’appareil lorsqu’on ne peut pas le voir en « chair et en os ». Surtout que les diverses tablettes Android, elles, sont présentes et bien mises en valeur chez Best Buy.

Car le véritable concurrent du Chromebook n’est pas les PC mais bel et bien les tablettes. Elles font en effet partie du mouvement dit du « post-PC » et visent soient les utilisateurs de PC qui désireraient un appareil supplémentaire d’usage plus simple, soit des non-utilisateurs qui ont des besoins limités. Les tablettes sont par contre beaucoup plus « cools ». Certes, l’iPad d’entrée de gamme commence à $500 pour un écran plus petit et pas de clavier physique, mais l’iPad reste une machine bien plus sexy qu’un Chromebook, bien plus léger (600g contre 1,5 Kg) et bien plus fin (9mm d’épaisseur). D’un certain côté le Chromebook arrive trop tard.

Google+

Google+ est ce que je qualifierais le Bing de la recherche sociale. Bing n’était pas la première tentative de Microsoft sur le marché des moteurs de recherche Web, mais c’est la première tentative qui n’a pas été un bide – un signal que Redmond était -enfin- sérieux sur ce marché. Si le service n’a pas eu suffisamment de succès pour menacer Google (du moins pour le moment), il a généré suffisamment de bruit pour sérieusement inquiéter le géant de Mountain View.

De la même manière, Google+ n’est pas la première tentative de Google dans le domaine des réseaux sociaux (on se souvient d’Orkut et de Buzz), mais c’est la première tentative qui fait un tant soi peu parler d’elle. Le fait que l’utilisateur de Google+ le plus suivi n’est autre que Mark Zuckerberg, PDG et cofondateur de Facebook, a fait grand bruit.

Si beaucoup voient Google+ comme le « Facebook killer », le service prend un angle que Facebook s’est toujours refusé de prendre : le concept de plusieurs cercles sociaux parfois complètement distincts. Zuckerberg n’a en effet jamais compris le désir de vouloir séparer sa vie privée de sa vie professionnelle. Pire, il considère ça comme « mentir » et pense que la vertu de Facebook est de forcer les gens à être honnêtes. Google+ au contraire permet de facilement filtrer l’information comme on le désire : telle annonce uniquement pour les amis, telle autre annonce pour les contacts professionnels, etc. Alors que les utilisateurs de Facebook soucieux de leur vie privée doivent régulièrement se battre avec les paramètres Facebook pour s’assurer que des informations personnelles ne sont pas visibles par tout le monde, Google+ est centré autour du concept de filtrage d’information. Cerise sur le gâteau, il est même possible de voir comment les autres utilisateurs nous voient, que ce soit un de nos contacts spécifique ou quelqu’un d’anonyme.

Et Google+ fait bien de ne pas prendre le même angle que Facebook. Plus il évitera de l’attaquer de face, plus il aura de chance de succès. En particulier, le gros handicap des réseaux sociaux à leurs débuts est qu’avec peu d’utilisateurs leur utilisation reste limitée, ce qui freine l’adoption de nouveaux utilisateurs. Facebook a brisé ce cercle vicieux en s’appuyant sur les étudiants d’Harvard, puis des autres universités américaines. Google+ ferait bien d’avoir le plus grand nombre de fonctionnalités possibles même lorsque les contacts de ses utilisateurs ne sont pas sur Google+.  Cela peut signifier devenir un excellent service de gestion de contacts, ou de pouvoir partager des informations avec des non-utilisateurs sans qu’ils aient à s’enregistrer.

Et même dans ce cas, Google+ n’a que peu de chance de détrôner Facebook. On ne remplace pas un service qui a des centaines de millions d’utilisateurs comme ça. Il est par contre possible qu’un succès de Google+ force Facebook à revoir sa vision en matière de données privées.

Les données selon Google, Microsoft et Apple

18 juin 2011

Internet a changé la manière dont on interagit avec les données. Le temps est terminé où les utilisateurs gardent le gros de leur données sur leur ordinateurs. Non seulement le partage de donnée n’est pas nouveau, mais les utilisateurs veulent de plus en plus accéder à leurs données depuis plusieurs appareil – leur PC, au travail et/ou leur smartphone.

Windows étant le gardien actuel des données sur PC, Microsoft a bien évidemment le plus à perdre. Google et Apple ont logiquement le plus à gagner. Google a depuis des années proposé plusieurs services permettant de stocker ses données sur Internet. Apple, quant à lui, vient d’annoncer iCloud, son service pour synchroniser différents appareils : iPhone, iPod Touch, iPad, Mac et même PC.

Microsoft étant principalement focalisé sur le marché d’entreprise, sa vision des données est avant tout les documents MS Office, sa vache à lait. A contrario, Apple est la compagnie qui a la vision la plus étendue des données. iCloud fonctionne en effet avec les documents bureautique, mais également les images, la musique, le carnet d’adresse, le calendrier, les livres, jusqu’aux applications même et données personnelles (iCloud a même une API permettant aux applications tierces d’en tirer partie). Google est proche d’Apple, même si son offre n’est pas aussi complète que celle d’Apple. iCloud permet en effet de synchroniser automatiquement une application sur 10 appareils (sans avoir à racheter l’application 10 fois) ainsi que ses données – quelque chose que la concurrence ne propose pas (encore ?)

Synchronisation ou copie sur Internet ?

Pour ce qui est de l’approche par contre, les trois offres sont très différentes.

Google a tout de suite opté pour une approche centrée autour d’Internet étant donné que la compagnie tire ses revenus de services Internet – même si elle s’appuie sur plusieurs logiciels clients : Android sur les smartphones et tablettes, Picasa pour les images, Chrome comme navigateur Web pour les « applications Web ». Google propose ainsi Google Docs (traitement de texte), Google Spreadsheet (tableur), Picasa Web Albums (photos), Google Calendar, Gmail, et bientôt Google Music. L’avantage de ce modèle est une facilité de synchronisation (il n’existe qu’une seule copie) et surtout de partage. Google Docs et Google Spreadsheet permettent plusieurs personnes de modifier un document en même temps, chacun voyant les modifications d’autrui en temps réel. L’inconvénient est qu’un service en ligne ne fonctionne que lorsque l’on a une connexion Internet. Pour palier à ce défaut, les services Google possèdent certains mécanismes de cache client (comme pour pouvoir écouter la musique hors ligne), mais Internet reste au centre de la stratégie du géant de la recherche en ligne.

Apple, au contraire, vend du matériel. Les données doivent donc exister principalement sur le matériel Apple, iCloud n’étant qu’un moyen de synchroniser le tout. Non seulement le centre de l’univers Apple a toujours été ses appareils, mais iCloud aide à le centrer. En effet, avec iCloud, un iPhone ou un iPad peuvent télécharger des applications et documents directement depuis Internet sans avoir à passer par un Mac… ou un PC. Comme l’a indiqué Steve Jobs, le PC est désormais considéré comme un appareil comme les autres.

Microsoft, finalement, est entre les deux modèles. La compagnie se faisant de l’argent sur les logiciels installés sur PC (Windows et Office principalement), elle a eu du mal à accepter Internet. D’autant plus que ses plus gros besoin étant au sein de l’entreprise, Redmond a préféré pousser la vente de licences Exchange et Sharepoint en entreprise au lieu d’utiliser des services Internet. On remarque d’ailleurs qu’Exchange et Sharepoint gardent respectivement Outlook et Office au centre du modèle. Si Sharepoint permet de partager des documents, l’édition d’un document implique une synchronisation avec le poste client où l’utilisateur modifie le document utilisant Office. Mais Microsoft vend avant tout du logiciel, et n’est pas attaché à une architecture plus qu’à une autre… du moment où il arrive à facturer ses clients. Car les réserves de Microsoft vis à vis du Web pour la bureautique ne sont pas une question de principe (il est facile d’utiliser des composants ActiveX pour lier ses services à Windows) mais de fonctionnalités. Les suites bureautiques Web sont encore loin de fournir autant de possibilités que MS-Office. Mais un modèle en ligne a un avantage : il force l’utilisateur à payer régulièrement sous peine de ne plus pouvoir se servir du logiciel. D’où Office 365, un service en ligne hybride entre un modèle en ligne complet et un logiciel traditionnel que l’on télécharge sur son PC. Si Office 365 permet d’éditer ses documents sur le Web, il n’en reste pas moins fortement intégré avec MS Office et Outlook.

Quelle est la formule gagnante ?

Difficile à dire, étant donné que de nombreux facteurs entrent en jeu, et il n’est pas dit que l’architecture soit le plus important. Par exemple, la position prédominante de Microsoft sur le marché des suites bureautiques ne semble pas être en danger avant plusieurs années. Plus que l’architecture gagnante qui va décider du vainqueur, c’est la compagnie gagnante qui va imposer son architecture.

Le crash d’EC2

6 mai 2011

Une des nouvelles qui a fait grand bruit sur la toile a été le crash du service de Cloud Computing d’Amazon.com, EC2. Ce dernier a eu beau affirmer offrir un taux de disponibilité de 99,95% (soit environ 4 heures par an), plusieurs sites Web hébergés sur EC2 ont été hors-service pendant plus que ça – certain jusqu’à 36 heures.

Attentes différentes

Le fait qu’un site Web soit hors service n’est en soi n’est rien de nouveau. Les sites Web plantent, les infrastructures informatiques défaillent pour de nombreuses raisons. J’ai personnellement vu des pannes informatiques généralisées parfois dues à une erreur humaine (l’électricien qui déclenche par inadvertance l’alarme incendie dans la salle machine), parfois par malveillance (un employé du service réseau qui a fichu la pagaille après avoir appris qu’il était licencié).

Mais lorsque l’on délègue quelque chose – et que l’on paye pour cela – les attentes sont bien plus importantes. « Ce sont des professionnels, on peut leur faire confiance. » Pas toujours.

Tout d’abord, séparons les compagnies de Cloud Computing qui fournissent de la puissance de traitement pur à la demande des compagnies de SaaS (Service as a Service) qui louent sur site Web sous forme de service. Si ces dernières sont souvent l’interlocuteur du client final, elles hébergent rarement leurs propres serveurs et passent au contraire par des compagnies de Cloud Computing spécialisées. Amazon.com, Microsoft Azure, mais d’autres moins connus tels que GoGrid ou Rackspace Cloud.

Le premier problème est que les compagnies de SaaS se spécialisent plus dans l’aspect applicatif que dans l’aspect haute disponibilité, reléguant ce dernier aux compagnies de Cloud Computing. Mais lorsque l’on a affaire à de la haute disponibilité, tous les éléments de la chaîne peuvent mettre le site Web hors-service. Les machines comme l’application que construisent les compagnies de SaaS.

Dans le cas d’Amazon.com, le problème n’a cependant pas été au niveau du SaaS mais bel et bien du réseau de machines. Les systèmes comme le service EC2 d’Amazon ont des mécanismes de redondance en cas d’indisponibilité de certains éléments du réseau. En d’autres termes, ce sont des mécanismes de type non-Karenine, c’est-à-dire que pour qu’une panne survienne il faut que plusieurs problèmes se superposent. Dans le cas d’EC2, voici dans les grandes lignes ce qui est arrivé :

  • Amazon.com a voulu mettre à jour la capacité de stockage dans son réseau de Virginie. Pour cela, le trafic a dû être rerouté. Pour l’instant, rien d’anormal.
  • Le premier problème est survenu lorsque, du fait d’une erreur humaine, le trafic a été incorrectement rerouté vers un réseau de secours. Ce réseau s’est alors effondré, n’ayant pas la capacité pour supporter l’afflux de trafic.
  • Le deuxième problème a été qu’un bug dans l’architecture d’EC2 a fait que cet effondrement a provoqué la panique générale au sein des serveurs d’EC2.

Quelles sont les chances pour que les deux problèmes arrivent en même temps ? Sur le papier, quasi-impossible – j’ai même lu dans quelques articles que la panne de EC2 était soi-disant « impossible ». Du moins en pratique. Le problème est qu’un système non-Karenine entraîne un faux sentiment de sécurité. Car un ou plusieurs éléments du système ne peuvent ne pas fonctionner (ou ne fonctionnent qu’en intermittence) sans que l’on se rende compte de quoi que ce soit. Après tout, le système fonctionne correctement.

Et c’est ce qui arrivé chez Amazon.com : le bug dans l’architecture d’EC2 existait depuis toujours. Mais il est passé inaperçu pendant des années car le premier problème (le reroutage par inadvertance vers le mauvais réseau) ne s’était jamais produit.

Amazon.com n’est-il donc rempli que d’incapables ? Loin de là ! Rappelons que la compagnie doit génér un site Web qui doit résister au gros volume de ventes à la période de Noël sans jamais tomber en panne – toute mise hors service coûte fort cher en revenus perdus. Amazon.com a donc une expérience en matière de haute disponibilité et de traffic élevé.

Mais plus un système est complexe, plus n’importe quel changement peut entraîner des conséquences auxquelles on n’avait pas pensé. Pour empêcher la panne, Amazon.com aurait dû identifier tous les cas de scénarios de panne. Et si une panne peut être provoquée par la conjonction de N facteurs, s’assurer pour chacune des combinaisons que le réseau fonctionne toujours lorsque N – 1 facteur est présent.

Allez par contre tester ça en pratique…