Archives de octobre 2009

Comment la technologie influence la chaine de valeur ajoutée

30 octobre 2009

Pourquoi est-ce Microsoft et Intel qui ont récolté les fruits du PC et non IBM? Ce dernier a pourtant créé le PC. Qui plus est, jusqu’alors, l’argent avait toujours été dans le matériel. Que s’est-il passé?

Pour mieux comprendre, il faut analyser la chaîne de valeur ajoutée du PC. Car l’évolution des technologies a eu une influence sur cette chaîne, et par conséquent a parfois bouleversé des marchés.

Un ordinateur comme le PC n’est pas entièrement fabriqué par une seule compagnie, mais fait partie d’une chaîne dite de valeur ajoutée. Les assembleurs de PC tels que Dell, HP et autres Lenovo assemblent en effet plusieurs composants provenant de fournisseurs tiers: le système d’exploitation à Microsoft, le processeur central à Intel ou AMD, le disque dur chez Western Digital / Seagate / Hitashi / …, etc. Ces vendeurs eux-même commandent à des fournisseurs (du moins dans le cas de composants physiques). Un fabricant de carte graphique va acheter le processeur graphique auprès d’un vendeur spécialisé, qui lui-même aura ses propres fournisseurs. A l’autre bout de la chaîne, les fabricants de PC vendent rarement en direct. Ils passent par des distributeurs comme la Fnac, Carrefour ou, pour leur clientèle professionnelle, par des sociétés de service.

Chaque élément de cette chaîne est un marché en lui-même. Western Digital se bat pour avoir la plus grande part de marché des ventes de disques durs. La Fnac se bat avec Carrefour pour être le lieu où les consommateurs iront faire leurs achats. Microsoft, quant à lui, jouit d’un quasi-monopole sur le marché du système d’exploitation.

Face à cette chaîne de valeur ajoutée, le consommateur se trouve devant une multitude de choix. Quel type de disque dur choisir? Quel processeur? Quel fabricant de PC? Dans quel magasin acheter? Dans les faits, les consommateurs ne vont faire qu’un ou deux choix, et laisser ces derniers dicter le reste de leurs décisions.

A l’heure actuelle, la plupart des consommateurs veulent une machine sous Windows (s’ils préfèrent Mac OS X, le choix est tout de suite beaucoup plus simple). Microsoft a un tel monopole que pour beaucoup de monde le système d’exploitation n’est même pas un choix mais une évidence.

Certains consommateurs choisiront ensuite la marque du PC se basant sur divers critères (meilleure qualité/prix, service, facilité d’achat en ligne, réputation, influence de la publicité) et trouver le premier magasin où acheter cette marque. D’autres au contraire se fichent de la marque et iront à leur magasin préféré acheter l’ordinateur que le vendeur leur conseillera.

Le besoin de se différentier

Le consommateur cherche au bout du compte les composants qui ont le plus d’influence sur le produit final. Ce seront les vendeurs de ces composants qui toucheront le jackpot et qui imposeront leurs conditions au reste de la chaîne.

Pour les vendeurs de la chaîne de valeur ajoutée, l’aspect différentiateur est donc clé pour avoir une influence sur le client final. Le fait qu’un disque dur provienne de Western Digital ou de Seagate n’aura que peu d’influence sur l’ordinateur car l’utilisateur a peu de chance de remarquer une différence. Par contre, il verra tout de suite la différence si le PC est livré avec Windows ou avec Linux. Le problème des fabricants de disques durs n’est pas qu’ils n’offrent que peu de valeur ajoutée. Contrôler une tête de lecture plus petite qu’un grain de poussière pour lire l’information sur des plateaux tournant à plus de 7000 tours / minute n’est pas une mince affaire. Mais un disque de 500 Go à 7200 t/min reste un disque de 500 Go à 7200 t/min, quelle que soit la marque. L’aspect différentiateur n’est qu’une histoire de quantification (capacité, tours/min, prix). C’est pour ça que les prix des disques durs ne cessent de chuter – malgré des performances de plus en plus grandes – et que les vendeurs se font dans les 10% de marge. A comparer avec Microsoft qui vend Windows au prix fort et jouit de marges dépassant 80%.

L’évolution technologique

IBM a grandi à une époque où c’était le matériel qui dirigeait tout. Mais la technologie évolue sans cesse, et il arrive que certains événements changent la décision d’achat, bouleversant ainsi l’équilibre des pouvoirs:

  • L’arrivée de standards: les standards sont fort pratiques pour les consommateurs car une seule décision (le choix du standard) implique plusieurs décisions implicites. Lorsque les consommateurs ont choisi VHS au dépend de Betamax ou V2000, ils ont choisi un standard de magnétoscope avant de choisir la marque – se simplifiant du coup la vie. L’inconvénient pour les vendeurs est qu’un standard diminue leur aspect différentiateur. Parfois même un standard peut sérieusement diminuer la valeur ajoutée. Le « standard » du PC (c’est-à-dire les standards qui régissent les interactions entre ses différents composants) ont transformé les constructeurs d’ordinateurs en de simples assembleurs (voir Intégration verticale contre intégration horizontale)
  • La spécialisation: certains maillons de la chaîne se scindent. Le PC est bien entendu un exemple, mais il en existe d’autres. Si plusieurs des premiers constructeurs de cartes graphiques pour PC concevaient également les processeurs graphiques – le canadien Matrox est l’exemple type – il y a rapidement eu une spécialisation avec d’un côté les fabricants de cartes graphiques et de l’autre les fabricants des processeurs graphiques utilisés par lesdites cartes.
  • L’offre dépasse la demande: les besoins du consommateur augmentent constamment, mais les performances et fonctionnalités offertes augmentent également, et ce à un plus grand rythme. A tel point qu’il existe un seuil au-delà duquel les produits offrent plus de performances et/ou de fonctionnalités que n’ont besoin la majorité des utilisateurs. Il existe certes certains utilisateurs aux besoins très pointus, mais ils ne sont qu’une minorité. Par exemple, jusqu’à il y a quelques années, on n’avait jamais trop d’espace disque sur son ordinateur de bureau. Cette ère est désormais révolue. De moins en moins d’utilisateurs se soucient de la place disque car n’arrivent plus à remplir 500 Go. De même, Microsoft se bat depuis plus de 10 ans pour convaincre les utilisateurs que sa prochaine version de Windows et de MS-Office vaut le coup d’être achetée.
  • Changements radicaux de besoins: à l’inverse de la dernière tendance, certaines nouvelles technologies changent radicalement les besoins en performances du consommateur en créant un nouveau type de besoin. S’ils s’étaient cantonnés à la 2-D, la course à la performance des consoles de jeux vidéos se serait arrêtée – l’offre en performance aurait dépassé la demande depuis longtemps. Mais l’avènement des jeux en 3-D a fait exploser la demande en puissance de calcul – demande qui n’est elle pas près d’être rassasiée.
  • Un élément de la chaîne peut être remplacé. C’est comme ça que Dell a utilisé le téléphone puis Internet pour remplacer le réseau de distribution traditionnel. Plus généralement, Internet a bouleversé plusieurs chaînes de valeur ajoutée. C’est ainsi que plus aucun particulier n’utilise Outlook pour gérer ses emails (il utilise Hotmail, Yahoo! Mail, Gmail et compagnie). L’implication est que les particuliers n’ont plus besoin de Windows pour leurs emails.

Que se passe-t-il lorsqu’un de ces facteurs se produit? Si l’un des éléments de la chaîne de valeur ajoutée perd de son importance, la décision d’achat se déplace le long de cette chaîne – le consommateur n’a plus besoin de considérer un élément pour son achat, il peut donc en choisir un autre.

La spécialisation des processeurs graphique a par exemple eu une grosse incidence sur le marché des cartes graphiques pour PC. Plus personne ne s’intéresse à la carte graphique – les vendeurs d’ordinateurs mettent désormais en avant le processeur graphique utilisé. Des marques de cartes graphiques naguère prestigieuses sont tombées dans l’oubli. Orchid et Hercules se sont fait racheter, Diamond a fusionné avec le fabricant de processeur graphique S3, et Matrox (qui a toujours conçu ses propres processeurs graphiques) se cantonne désormais à un marché de niche.

Un autre exemple est l’iPhone. Avant l’arrivée du smartphone d’Apple, les opérateurs mobiles dictaient leurs lois aux constructeurs de téléphones portables. Mais la firme de Steve Jobs a sorti un smartphone qui a généré tant d’enthousiasme qu’Apple a pu imposer ses conditions. Non seulement le logo de l’opérateur n’est quasiment pas visible sur un iPhone, mais Cupertino touche une partie des revenus des abonnements 3G. Du jamais vu! Mais d’après une étude récente, les 2/3 des nouveaux abonnés 3G d’AT&T aux Etats-Unis sont des possesseurs d’iPhone. Autant dire qu’AT&T a nettement plus besoin d’Apple que l’inverse.

Les besoins du consommateur

Pour savoir où se déplace la décision d’achat, il faut garder à l’esprit que le consommateur cherche la solution la plus à même de servir ses besoins. Un utilisateur de PC n’a techniquement pas besoin d’un ordinateur. Il a besoin de se connecter à Internet, d’éditer un document, de jouer, etc.

La pyramide de Maslow donne une hiérarchie des besoins humains. Il existe une telle hiérarchie technologique pour les utilisateurs:

  • Le premier besoin est celui des fonctionnalités. Les premiers traitements de texte et tableurs étaient rudimentaires, mais ils ont fait un tabac car ils offraient des possibilités jusque-là inédite. De même, l’arrivée du PC a brisé la valeur ajoutée des fabricants d’ordinateurs, poussant une partie de la décision d’achat en aval vers le système d’exploitation, plus proche des besoins réels des utilisateurs.
  • Vient ensuite un besoin de performances. Si un élément-clé de la chaîne perd de son importance, le besoin de performance pousse la décision d’achat en amont vers les sous-composants qui influencent le plus les performances. C’est ainsi que le PC a poussé une partie de la décision en aval vers les micro-processeurs (à une époque où ils influaient beaucoup sur les performances). De Même, la marque de la carte graphique n’importe plus beaucoup – c’est le processeur graphique qui compte.
  • Le troisième besoin est le besoin de facilité. Technophiles mis à parts, le consommateur cherche à se simplifier la vie. Une solution plus simple d’utilisation est attrayante. Ce besoin peut influencer l’aspect différentiateur (Apple pousse sur l’aspect « sans problème » du Mac), mais aussi pousser la décision en aval, auquel cas le consommateur se focalise sur l’aspect service. Depuis longtemps les entreprises choisissent leur fournisseur de PC en fonction du service fourni.
  • Le dernier facteur est le prix. Lorsqu’il ne reste plus d’autres manières de comparer, le prix est différentiateur. C’est là où en sont les fabricants de disque dur.

(mais il ne faut pas croire non plus que cette hiérarchie est 100% stricte. Elle peut en effet varier d’un consommateur à l’autre. Certains consommateurs sont ainsi très sensibles aux prix. Au contraires, d’autres auront un grand besoin de performance et seront près à mettre le prix qu’il faut)

C’est ainsi que Microsoft a su garder la décision d’achat au niveau des fonctionnalités (à savoir la logithèque). Il existe des systèmes d’exploitations plus performants, plus faciles d’accès et/ou moins cher que Windows, mais rien n’y a fait: les gens sont attachés à leurs logiciels sous Windows. La seule faille dans l’armure est Internet qui fournit certaines applications qui fonctionnent quel que soit le système d’exploitation.

L’iPhone a fait couler tant d’encre car il a offert un aspect fonctionnalité inédit. Aux Etats-Unis, les possesseurs d’iPhone acceptent de passer par AT&T (qui est l’opérateur mobile exclusif) malgré des prix élevés et un réseau 3G n’ayant pas bonne réputation. Le risque vient par contre des concurrents de l’iPhone qui commencent à devenir suffisamment bon pour éclipser la mystique de ce dernier – et parfois en proposant d’autres avantages comme un clavier physique. Si demain tous les smartphones ont les mêmes possibilités, les consommateurs se tourneront peut-être plus vers l’opérateur mobile qui a le meilleur réseau (et si tous ont les mêmes performances, le meilleur prix). Le joker d’Apple est cependant non pas les fonctionnalités de l’iPhone mais la logithèque et les périphériques de ce dernier.

Pour les jeux vidéos, le besoin en performances a souvent été important – du moment que le besoin en fonctionnalités est satisfait. Lorsque toutes les consoles ont les mêmes jeux – ou s’ils se ressemblent suffisamment – le consommateur va s’orienter vers la console qui fournit le plus de punch possible. Mais l’aspect fonctionnalité pointe le bout de son nez de temps en temps. Une grande partie du succès de la Xbox a en effet été due à son jeu-phare exclusif Halo. De même, Nintendo a coupé l’herbe sous le pied de Sony et Microsoft avec sa Wii. Alors que ses deux concurrents se battaient uniquement sur le terrain des performances, Nintendo a changé la donne en introduisant des nouveaux contrôleurs à mouvement. Les ventes de Wii ont écrasé les ventes de Xbox 360 et Playstation 3 malgré des performances inférieures.

Il existe également d’autres facteurs qui peuvent influencer le consommateur. Le facteur psychologique par exemple. Apple doit une partie de son succès au fait d’avoir une image de produits « cools ». Un autre facteur est la force de l’habitude. Extrêmement peu de particuliers n’utilisent ne serait-ce que le 10e des fonctionnalités de MS-Office ou MS-Works, mais la très grande majorité veut une suite bureautique Microsoft sur son PC – et est prête à payer pour ça. Il existe des alternatives gratuites tout aussi bonnes, mais l’inertie est importante.

Prédictions?

Si l’on peut relativement facilement identifier les raisons qui poussent à un changement sur la chaîne de valeur ajouté, cela ne veut pas dire pour autant qu’il est facile de prédire les futurs changements.

Il est parfois possible de prédire le type de changement – parfois. Prédire sa date est par contre quasiment impossible.

Lorsque la bataille entre le Blu-Ray et le HD-DVD a commencé, tout le monde savait qu’il ne resterait au bout du compte qu’un standard – le même scénario s’était déjà produit entre VHS et Betamax. Mais personne n’aurait pu prédire la date où un standard unique se dégagerait.

Certes, la loi de Moore permet de prédire les capacités et puissance de futurs processeurs, disques durs, etc. Cette loi, tout empirique qu’elle soit, peut donc être utilisée pour prédire le moment où l’offre dépassera la demande… mais c’est sans compter les changements radicaux de besoins.

L’avènement des jeux en 3-D est un exemple de changement radical de besoins. Mais les jeux en 3-D existent depuis très longtemps: Maze War (1974), BattleZone (1980), etc. Il a fallu des jeux comme Doom (1993) ou Toshinden (1994) pour populariser les jeux 3-D modernes. Mais ces jeux ont pris tout le monde par surprise car ils repoussaient les limites de ce qu’on pensait possible. Leur arrivée était grandement imprévisible.

Parfois même il arrive qu’un changement radical capote. C’est le cas de la réalité virtuelle. Très prometteuse pendant les années 90 – et qui aurait augmenté le besoin de puissance de calcul, cette technologie a cependant fait un flop et a complètement disparu.

Dans un autre domaine, les particuliers ne se soucient quasiment plus de la capacité de leur disque dur. Le seul changement possible est par la vidéo – ce n’est que s’ils commencent à stocker des films entiers sur leurs disques durs que les particuliers se retrouveront en demande de capacité. Mais cela se produira-t-il? Pour cela il faudra une solution simple (la vidéo à la demande en reste encore à ses balbutiements), ainsi que changer les habitudes – le consommateur aime avoir un support physique pour ses films. Cela peut arriver en un an comme dans des années si on assiste à une guerre des standards. Malheureusement pour les fabricants de disque dur, cela ne résoudra pas leur absence de différentiation.

Tout est une histoire de contrôle

23 octobre 2009

Le moins que l’on puisse dire c’est que le gouvernement français n’apprécie pas toujours les libertés que fournit Internet.

La polémique déclenchée par la très controversée vidéo de Brice Hortefeux est vécu comme l’UMP comme une injustice et le résultat d’un des excès d’Internet. Jean-François Copé a vite parlé de la nécessité d’un « débat public sur Internet et la liberté » (traduction de la langue de bois: il veut qu’on mette plus de lois pour contrôler Internet)

Il y a quelques mois, Nadine Morano, secrétaire d’état à la famille, portait plainte contre une internaute pour « injures publiques envers un membre du ministère. » L’internaute avait écrit « Hou la menteuse » en commentaire d’une vidéo pas particulièrement favorable à Mme Morano.

Mais cette attitude n’est ni nouvelle ni unique au gouvernement actuel. Les premiers heurts entre Internet et le gouvernement français datent peut-être de 1996, lorsqu’un patron d’un cybercafé, Pascal Barbraud, mit en ligne le livre « Le grand secret« , interdit en France car un peu trop dérangeant (les lois européennes ont depuis forcé la France à remettre le livre en circulation). Dans un domaine tout à fait autre, M. Barbraud a reçu une peine de prison ferme pour non-paiement de pension alimentaire – fait rarissime en France. Mais c’est sans doute une coïncidence.

Tout est une histoire de contrôle

La classe politique aime mettre en avant les excès d’Internet – comme le fait que n’importe qui peut publier n’importe quelle information en la déformant au passage.

Mais dans l’affaire Hortefeux les « excès » d’Internet n’ont été qu’un prétexte. Car la vidéo n’a pas été enregistrée par un téléphone portable et déformée hors de son contexte comme M. Copé le pensait. Elle a été tournée par des journalistes de Public Sénat. M. Hortefeux n’a donc nullement été pris en traître. Quant au « Hou la menteuse! » visant Mme Morano, on a du mal à voir en quoi il s’agit d’une injure nécessitant que la police questionne l’auteur des propos – même Mme Morano a reconnu que l’affaire avait été un peu trop loin.

Ce qui embête véritablement la classe politique c’est qu’Internet fournit un contrôle sans précédent aux citoyens. Si Internet n’existait pas, la polémique autour de M. Hortefeux n’aurait pas existé. La vidéo compromettante aurait peut-être été diffusée sur les chaînes de télévision, mais une ou deux fois au plus, et pas forcément à l’heure de grande écoute.

Avec Internet par contre, les citoyens ont le contrôle de la programmation. Une fois postée sur Dailymotion ou YouTube, ils peuvent visionner la vidéo complète quand ils le veulent, envoyer le lien à leurs amis, voire copier la vidéo et la publier sur d’autres sites. Le tout bien évidemment sans demander l’avis du CSA.

Dans le cas de l’affaire Morano, ce qui embête la classe politique est qu’elle n’a plus affaire simplement qu’à des poids lourds de la critique comme les Guignols ou le Canard Enchaîné. Sur Internet, n’importe qui peut critiquer publiquement les politiques (je ne parle pas ici d’insulter mais de critiquer). Ce qui n’était alors limité qu’à des conversations autour de la machine à café peuvent devenir des commentaires lus par des milliers d’internautes. C’est là que le bât blesse.

Le pire cauchemar de la classe politique n’est non pas l’internaute qui truque les vidéos, insulte ou diffame, mais celui qui publie un blog politique critique argumenté, qui reste poli et qui cite ses sources – car c’est le type de blog qui peut avoir du succès. Imaginez donc: n’importe quel citoyen peut devenir un Guignol de l’Info en puissance (comme le blog l’Actu en Patatessans avoir besoin d’aucune autorisation officielle pour exister.

Pas étonnant que le Réseau des réseaux donne de l’urticaire aux politiques.

Pas seulement les politiques

Mais on aurait tort de croire que cette attitude n’affecte que les politiques. L’industrie toute entière se comporte de la même manière vis-à-vis du Réseau des réseaux lorsque ce dernier lui fait perdre du contrôle – qu’il soit de l’information ou de processus entier.

Prenons le cas de l’industrie du disque. Comme je l’ai précédemment écrit, cette dernière n’est pas réfractaire aux nouvelles technologies. Elle a par exemple adoré la technologie du compact disc. Mais les technologies postérieures au CD ont donné beaucoup trop de contrôle aux utilisateurs à son goût. Cela a commencé par les graveurs de CD bon marché, mais cela a continué avec d’autres technologies – parfois légales. Le consommateur a en effet un plus grand contrôle sur ses achats et peut dorénavant acheter une chanson à la pièce et n’est plus obligé d’acheter un album entier. Il a pu convertir tous ses CD au format MP3 sans passer à la caisse. Autant de technologies qui irritent les majors de musique parce qu’elles donnent trop de contrôle au consommateur. Et encore une fois, les majors ont beau mettre en avant les usages illégaux des nouvelles technologies, même des pratiques légales les ennuient profondément.

Un autre exemple est celui de la presse. Le magnat de la presse australien Rupert Murdoch a récemment haussé le ton contre les « kleptomanes du contenu » (comprenez: Google News et autres aggrégateurs). On peut s’interroger sur l’utilisation d’un tel terme lorsqu’on sait qu’à l’exception du Wall Street Journal, les journaux de News Corp mettent leur contenu en ligne gratuitement. En quoi un service tel que Google Actualité qui ne copie que le début d’un article et donne un pointeur vers le journal – et qui offre aux journaux l’option de ne pas être référencés par le service – se comporte-t-il comme un voleur? Le véritable vol qui embête M. Murdoch est le vol du contrôle de l’accès à l’information. Avec un journal papier, ce dernier contrôle complètement l’accès aux articles. La rédaction décide en effet quels articles publier, dans quel ordre, et quels articles seront en première page. Lorsque les lecteurs utilisent un aggrégateur, c’est ce dernier qui détermine l’ordre des articles et non plus les rédactions. Vu sous cet angle, on comprend mieux pourquoi News Corp, malgré les discours incendiaires de son patron contre les aggrégateurs, laisse ces derniers indexer les articles en ligne de ses publications.

Conclusion

Nul ne nie qu’Internet a favorisé de nombreuses dérives moralement douteuses, voire illégales. Aux Etats-Unis, la FCC (Federal Communication Commission) a dans son collimateur les blogueurs qui publient des tests de produits et compte les obliger à révéler tout conflit d’intérêt et tout produit reçu gratuitement, sous peine d’amende.

Mais dans de nombreux cas, les excès d’Internet ne sont qu’un prétexte pour contester un changement de contrôle qui ne se fait pas toujours au détriment des citoyens et consommateurs.

Microsoft se fracture la cheville en taclant le Cloud Computing

16 octobre 2009

Le 2 octobre, un service en ligne géré par Microsoft est tombé en panne en emportant avec lui les données personnelles de près d’un million d’utilisateurs. C’est ce que beaucoup appellent l’une des plus importantes catastrophes informatique. Cet épisode entache le concept de Cloud Computing et est un mauvais coup de presse pour Microsoft par qui le désastre est arrivé.

Le Sidekick est un smartphone commercialisé aux Etats-Unis par T-Mobile, 3e opérateur cellulaire américain et filiale de l’allemand Deutsche Telekom. Ce smartphone repose sur Danger, un service de Cloud Computing qui permet de stocker sur Internet ses emails, contacts, photos, etc. La compagnie Danger a quant à elle été rachetée l’année dernière par Microsoft.

Après plusieurs pannes fin septembre, Danger tombe en panne pour de bon le 2 octobre – plus aucun Sidekick ne fonctionne alors correctement. Après des jours à essayer de remettre le système en route, une mise à jour tourne mal et efface les données personnelles des utilisateurs ainsi que les sauvegardes (il n’y avait apparemment pas de données sauvegarder sur un site tiers). Le 10 octobre, T-Mobile et Microsoft annoncent qu’ils ont perdu les données personnelles de 800.000 utilisateurs, sans doute de manière permanente (ils pensent depuis pouvoir récupérer les données de « nombreux » utilisateurs). Deux semaines plus tard, non seulement le service n’est pas complètement rétabli mais les utilisateurs ne savent toujours pas s’ils vont récupérer leurs emails, photo et autres données perdues. En attendant, tout utilisateur du smartphone Sidekick est conseillé de ne pas laisser son portable se décharger sous risque de perdre les données stockées dans le téléphone.

Retour de bâton pour le Cloud Computing

J’ai écris il y a quelques mois sur le risque d’un retour de manivelle à propos du SaaS (Software as a Service – les services disponibles sur Internet). Le désastre Sidekick en fait partie – et est arrivé bien plus tôt que je ne le pensais. Nombreux sont en effet ceux qui utilisent ce Trafalgar de l’informatique pour tenter de discréditer le Cloud Computing.

Mais la polémique est née plus d’une histoire de perception que d’autre chose.

Le problème n’est pas que le Cloud Computing n’est pas fiable. Même en prenant en compte le désastre Sidekick, stocker ses données sur Internet reste beaucoup plus fiable que de les stocker sur son disque dur. Très peu de particuliers sauvegardent en effet les données de leur ordinateur, et nombreux sont ceux qui perdent chaque année leurs données lorsque leur disque dur rend l’âme, qu’ils se font cambrioler, perdent ou cassent leur téléphone portable, etc. Ce qui change par contre entre le modèle traditionnel et le modèle du Cloud Computing sont les attentes des clients. Lorsqu’on perd ses données parce que son portable tombe dans la cuvette des WC, on ne s’en prend qu’à soi-même. Lorsqu’on perd ses données en ligne parce que l’opérateur a commis une boulette, on hurle au scandale.

Mauvaise publicité pour Microsoft

Cet épisode n’aide évidemment pas Microsoft.

Tout d’abord, Redmond a une responsabilité financière dans cette histoire. Les services en lignes viennent avec un SLA (Service Level Agreement ou accord de niveau de service) stipulant des pénalités financières pour l’opérateur (en l’occurence Microsoft) en cas de coupure de service prolongée. Quand on sait que le temps de ses coupures se mesure généralement en minutes voire en heures, une absence de service de plusieurs semaines accompagnée d’une perte de données risque de coûter cher à Microsoft.

Mais le coût est une goutte d’eau pour une compagnie qui engrange plus d’un milliard de dollars de profits chaque mois. L’impact le plus douloureux est surtout en terme d’image.

Image tout d’abord vis-à-vis des utilisateurs. Microsoft n’a pas eu énormément de succès dans le domaine des portables, cet épisode aide encore moins. Face à l’embarrassement vis-à-vis de ses clients, T-Mobile a très vite jeté plus ou moins directement la pierre à partenaire dans une lettre à ses abonnés:

« Regrettably, based on Microsoft/Danger’s latest recovery assessment of their systems, we must now inform you that personal information stored on your device–such as contacts, calendar entries, to-do lists or photos–that is no longer on your Sidekick almost certainly has been lost as a result of a server failure at Microsoft/Danger »

Ils parlent en effet des systèmes de Microsoft/Danger, et de panne de serveurs chez Microsoft/Danger. Si cela est une indication, les #MicrosoftSucks ont vite supplanté les #TmobileSucks sur Twitter. Cette affaire n’arrive pas au meilleur moment quand on sait que Microsoft vient de lancer My Phone, un service pour Windows Mobile équivalent à Danger. Ironie du sort, My Phone a été lancé officiellement le 6 octobre, soit en plein milieu de la débâcle Danger/Sidekick.

L’autre impact est vis-à-vis des partenaires de Microsoft, présents ou futurs. Redmond cherche en effet à devenir un poids lourd sur le marché du Cloud Computing – entre autre avec la sortie de son offre Azure Services Platform sensée être lancée le mois prochain. Là encore, cette affaire ne donne pas une image de Microsoft de partenaire sérieux. On se rappelle des critiques contre Google lorsque son service d’email, Gmail, a enregistré plusieurs coupures au court de ces derniers mois.

Pour être honnête, il est possible que les autres offres de Cloud Computing de Microsoft soient plus fiables que Danger. Ce fiasco est en effet dû à une conjonction de plusieurs facteurs (comme toujours dans ce tel type de désastre): tout d’abord le fait que le service ne se base pas sur des technologies Microsoft – ce dernier est moins à l’aise à supporter ce type d’environnement. Ensuite le fait que Microsoft fasse tourner Danger à contrecœur, uniquement par obligation contractuelle envers T-Mobile. Enfin parce que Steve Balmer a complètement démuni le groupe Danger de ses développeurs pour les mettre sur d’autres projets. AppleInsider s’est fait un malin plaisir à détailler les dysfonctionnements quant à l’intégration de Danger au sein de Microsoft et les rapports tendus avec T-Mobile.

Mais il n’empêche. Que le service ne soit pas complètement rétabli plusieurs semaines plus tard est tout sauf une bonne publicité. Et que Microsoft soit près à faire tourner un service de Cloud Computing tel que Danger dans de telles conditions témoigne d’un manque de sérieux et en dit long sur la manière dont Redmond traite ses partenaires.

Conclusion

Au final, cet épisode va surtout renforcer les sceptiques du Cloud Computing et les anti-Microsoft dans leurs convictions.

Les sceptiques du Cloud Computing vont voir cette débâcle comme un argument de plus contre ce concept. Mais cela ne va pas arrêter le mouvement pour autant, et Salesforce.com n’est pas près de mettre la clé sous la porte. Ce déplorable épisode va encourager un retour de manivelle face aux évangélistes qui nous ont trop rabâché les oreilles sur ce nouveau concept. La conséquence n’est pas que les gens vont délaisser le Cloud Computing, mais qu’ils vont être plus alerte quant aux inconvénients de cette méthode, et donc un peu plus prudent. Cet épisode a par exemple démontré qu’il ne faut pas choisir ses fournisseurs à la légère. Et qu’il est utile de sauvegarder ses données en local (chose qu’il faut que je fasse pour ce blog)

Les anti-Microsoft, quant à eux, vont se réjouir des déconvenues de Redmond et être encore plus convaincu que la firme de Bill Gates n’est pas un partenaire sérieux sur le marché du Cloud Computing et du téléphone portable. Plusieurs experts affirment que les entreprises vont réfléchir à deux fois avant de mettre toute application critique sur le nuage de Microsoft. Mais ce n’est ni la première boulette médiatique de Microsoft (comme le crash en direct de Windows 98 devant Bill Gates lui-même) ni la première fois qu’il maltraite ou trahit un partenaire. Sans pour autant que cela nuise outre-mesure à la firme de Bill Gates. Au final, si Microsoft n’arrive pas à s’imposer sur le marché du Cloud Computing et/ou des téléphones portables, ce sera certainement plus du fait de son offre – pour l’instant peu convaincante – que du fait de la débâcle Danger/Sidekick.

Apple compte se débarasser de Google Maps?

9 octobre 2009

Il a récemment été révélé qu’Apple a racheté en toute discrétion Placebase, un concurrent de Google Maps.

Tout le monde y voit le signe que Steve Jobs compte débarrasser son iPhone de Google Maps par un remplacement propriétaire. Jusque là, cela parait logique. Apple ne rachèterait pas un service de cartographie en ligne s’il ne comptait pas s’en servir.

Beaucoup pensent cependant que c’est une preuve de plus que le divorce est prononcé entre Apple et Google depuis que ce dernier la lancé Android, un système d’exploitation pour smartphone en concurrence direct avec l’iPhone.

Je ne suis pas convaincu qu’Android soit la cause de ce rachat. Apple aurait sans doute cherché à remplacer Google Maps même si Google n’avait pas lancé Android.

Car le plus gros défaut de Google Maps aux yeux d’Apple n’est pas qu’il soit indirectement lié à un système d’exploitation concurrent de celui de l’iPhone mais bel et bien qu’il puisse être utilisé par n’importe quel système d’exploitation concurrent.

Pour justifier ses confortables marges, Apple a toujours cherché à se différentier de la concurrence. Cela veut dire proposer quelque chose de différent. L’iPhone a été le premier smartphone à utiliser pleinement les possibilités de Google Maps et à l’intégrer avec d’autres fonctionnalités de l’appareil – comme le fait de pouvoir appeler une adresse trouvée sur Google Maps par un simple click. Mais étant donné que ce service est ouvert à tous, n’importe quel autre smartphone peut fournir une telle fonctionnalité. Android comme les autres.

C’est sans doute plus pour se différentier de la concurrence que pour « punir » Google qu’Apple a racheté Placebase.

Que peut-on espérer?

Le premier changement que l’on peut imaginer est un redesign des cartes. De la même manière qu’Apple s’est efforcé que Mac OS X ait la meilleure allure qui soit, il est logique que Cupertino veuille que le futur logiciel de cartographie de l’iPhone ait son look distinct – et si possible ait l’air plus léché que le concurrence.

Mais il existe également un aspect fonctionnel. Google a par exemple utilisé le potentiel des utilisateurs d’Android pour afficher le trafic en temps réel sur Google Maps. Le principe est le suivant: en analysant les déplacements des possesseurs de smartphones à base d’Android (merci le GPS), Google peut instantanément avoir une idée de la fluidité du trafic routier.

L’iPhone pourrait donc fournir un tel service. Après tout, la base installée d’iPhone est suffisamment importante pour cela. Mais la firme à la pomme ne se contentera pas de proposer juste le même type de fonctionnalité que Google Maps. Car Placebase a réussi à être profitable avec un modèle payant en fournissant des services de personnalisation que Google Maps n’offre pas. Exactement ce qu’Apple a toujours recherché: personnaliser pour se différentier, et fournir des fonctionnalités que Google Maps – et donc n’importe quel autre smartphone – ne pourrons répliquer facilement.

Cela ne veut pas forcément dire qu’Apple ne fera plus affaire avec Google. Il n’y a pas de raison pour que l’iPhone lâche son intégration avec YouTube – ce dernier possède le contenu qu’Apple ne peut répliquer – ni même Google pour les recherches en lignes. Mais Google Maps est devenu trop facilement utilisable par tout le monde et possède un contenu – les cartes du monde – qui peut être relativement facilement copié.

Leçon de créativité par les jeux de combat

2 octobre 2009

Cette semaine, un article qui sort un peu de l’ordinaire, et qui suit l’évolution des jeux de combat. En quoi est-ce intéressant? Suivre l’évolution donne quelques leçons sur la créativité (si si!)

Les premiers jeux de baston

Les jeux de combat se sont popularisé dans les années 80 avec The Way of the Exploding Fist et autres International Karate.

Le principe était le suivant: un combat entre deux experts en arts martiaux (karaté la plupart du temps mais parfois kung-fu). Pas d’histoire, rien. Le but est juste de battre l’adversaire. Le joueur peut se mesurer à l’ordinateur ou contre un autre joueur. Certains jeux de baston ont enrobé le tout d’une histoire et d’une quête (comme la princesse à sauver dans Karateka) mais le principe de base reste souvent le même: un combat d’art martiaux.

Fait intéressant: étant donné que les possibilités graphiques de l’époque étaient limitées, les deux joueurs étaient souvent dessinés exactement pareil (même visage et corpulence). Pour les différentier, l’un d’entre eux portait un kimono rouge. Lorsque l’on jouait seul contre l’ordinateur, ce dernier avait toujours le kimono rouge.

Yie Ar Kung-Fu et Street Fighter

En 1985 et 1987 respectivement, Yie Ar Kung-Fu (Konami) et Street Fighter (Capcom) innovent en variant le type d’adversaires. Le but du jeu est toujours la castagne, mais par contre le joueur affronte des adversaires des plus variés.

Dans ces deux jeux, chaque adversaire a son attaque spéciale. Si les adversaires de Yie Ar Kung-Fu utilisent des méthodes de combat traditionnelles (un sumo, des ninjas, un expert en nunchakus, etc), ceux de Street Fighter sont plus exotiques, comme un géant anglais de 2m de haut spécialiste du coup de boule. Certains ont même des attaques spéciales magiques (boules de feu magiques, possibilité de disparaître à volonté). Le joueur a lui-même son attaque spéciale: une boule de feu magique.

Ces deux jeux gardent quand même une certaine continuité avec les précédents jeux de castagne: le joueur ne peut toujours que contrôler un combattant en habits traditionnels. Afin de garder l’option d’un combat à deux joueurs, Street Fighter invente un alter ego à Ryu (le combattant principal) en la personne de Ken. Ken a les mêmes pouvoirs que Ryu mais, performances graphiques accrues obligent, est représenté différemment (il est blond et a les cheveux longs). Il garde quand même le kimono rouge.

Street Fighter II

Mais c’est vraiment avec Street Fighter II (1991) que Capcom trouve la combinaison gagnante pour les années (voire décennies) qui viennent. Non seulement les adversaires sont variés, mais cette fois le joueur peut incarner n’importe quel adversaire et n’est plus cantonné à Ryu/Ken.

Certains des combattants deviendront célèbres au-delà du jeu vidéo. Chun-Li en particulier, car c’est la première femme combattante qu’un joueur peut contrôler. Sa popularité sera telle que par la suite, n’importe quel jeu de baston aura son lot de combattantes sexy.

Le même principe sera repris par tous les jeux de baston qui suivront: Mortal Kombat, Toshinden, Tekken, etc. Tous permettent désormais de choisir parmi une pléthore de combattants, tous avec leur attaque spéciale et leur histoire personnelle.

Virtua Fighter

Dans les années 90, Sega lance plusieurs jeux « Virtua » (Virtua Tennis, Virtua Racing) et entre autres Virtua Fighter. C’est le premier jeu de baston à utiliser la 3-D pour représenter les combattants (3-D à base de polygones dite « fil de fer à faces cachées »). Les effets sont encore limités, mais la 3-D permet une animation plus réelle. Pour le reste, le jeu reste le même: deux combattants qui se mettent dessus.

Toshinden

En 1995, Sony crée la sensation avec Toshinden sur PlayStation. Le jeu reprend le principe de Virtua Fighter, mais pousse le concept de la 3-D nettement plus loin. Les polygones des combattants sont lissés et ont des textures plus poussées (on n’a plus l’impression d’avoir affaire à deux combattants en carton). Qui plus est, l’action ne se cantonne plus seulement à un seul axe linéaire mais s’étale sur toute l’arène.

Il en résulte un jeu qui a grandement aidé au lancement de la PlayStation.

Et depuis…

Depuis, les jeux de combats sont tombés en désuétude pour devenir un marché de niche. Certains affirment que c’est parce qu’ils sont devenus trop complexes, rebutant trop de monde. Mais on ne peut s’empêcher de constater que depuis 1995 il n’y a pas eu grande innovation dans le domaine.

Conclusion

On peut tirer plusieurs enseignements en matière de créativité et d’innovation.

Tout d’abord, on peut différentier les innovations technologiques des innovations fonctionnelles. Afficher des joueurs en 3D est une innovation technologique. Permettre au joueur de contrôler des combattants variés est une innovation fonctionnelle.

Les innovations technologiques dépendent grandement de l’évolution du matériel. Toshinden n’a pu voir le jour que parce que la PlayStation avait la puissance de calcul nécessaire. Mais ce type d’évolution nécessite également autre chose: des développeurs qui sont près à repousser les limites de ce qui se fait. Lorsque Doom est sorti en 1993 (pour rester dans les jeux d’actions) les PCs à base de 80386 (la configuration minimale exigée) existaient depuis longtemps. Mais personne jusqu’alors n’avait pensé à pousser les limites de ce qui pouvait se faire sur PC – la plupart des développeurs ont sans doute pensé qu’il était impossible de faire un jeu comme Doom avant 1993.

Les innovations fonctionnelles, quant à elles, dépendent de l’imagination des concepteurs. Ce qui ne veut pas dire qu’elles sont plus rapides à venir que les évolutions technologiques. Capcom a mis deux versions pour perfectionner son jeu culte. L’évolution s’est faite une idée à la fois. Le concept de combattants exotiques dans Street Fighter I, et le concept de pouvoir contrôler ces derniers dans Street Fighter II. Les développeurs de Capcom auraient pu très facilement ajouter les deux innovations dés la première mouture de Street Fighter, mais ils n’y ont pas pensé.

En d’autres termes, l’innovation se fait lentement car elle dépend de l’imagination des concepteurs. Or il est beaucoup plus difficile que l’on pense d’innover. On est tous influencés par notre entourage, créateurs y compris. Chaque jeu de baston novateur s’est inspiré de jeux déjà existants et y a apporté son grain de sel. Les premiers jeux de bagarre se sont inspirés de combats réels et/ou de films d’arts martiaux. De même, à l’heure actuelle les jeux de castagne reprennent tous le modèle de Street Fighter II. On y ajoute quelques petites nouveautés ici et là et on utilise les possibilités graphiques des nouvelles consoles de jeu. Mais fondamentalement il n’y a rien de bien nouveau.

Et malgré toutes ces évolutions, certaines fonctionnalités historiques persistent – même lorsqu’elles n’ont plus d’intérêt. Comme le kimono rouge, initialement créé pour des raisons purement techniques, mais que Ken porte toujours.