Archive pour décembre 2011

Prédictions 2012

30 décembre 2011

La tradition des blogs technologiques étant d’émettre des prédictions pour l’année suivante, je me plie au rituel – en quelque sorte.

Prédictions 2012 (roulements de tambour)

En commençant par ma prédiction préférée :

« La grande majorité des prédictions s’avèreront fausses. »

Pour ceux qui en veulent d’autres, je paraphraserais Rabelais, remis au goût du jour :

Les compagnies dirigées par des incompétents prendront bien peu de décisions brillantes. Celles devenues arrogantes écouteront mal leurs clients. Les entreprises qui font beaucoup de bénéfices se porteront mieux que celles qui ont des pertes. L’obsolescence continue des ordinateurs va continuer du fait des années passées. Certaines entreprises vont se faire racheter, d’autres vont au contraire racheter d’autres compagnies. Et IBM, Oracle, Microsoft et Google continuant à faire partir du second groupe.

Les parts de marché d’Android vont soit augmenter, soit baisser – avec un changement en un an qui devrait être entre -50,65% et +46,72% (admirez la précision à deux chiffres). A l’inverse, les parts de marché du BlackBerry vont soit baisser soit augmenter, avec un changement qui devrait se situer entre -80,46% et +88,21%. La croissance des parts de marché d’iOS (si il y en a), sera quant à elle inversement proportionnelle à l’inverse des parts de marché gagnées. De plus, j’affirme avec certitude qu’AUCUN constructeur ne verra ses parts de marché (en pourcentages) rester exactement au même niveau que l’année précédente. Les poursuites en justice pour violation de brevet vont continuer. Finalement, Google fera plus de bénéfices que RIM, mais moins qu’Apple. Et Facebook comme Google+ vont voir leur nombre d’utilisateurs total continuer à augmenter.

Plus sérieusement, au lieu de prédictions, je vais citer plusieurs challenges pour les différents acteurs du marché.

Le marché du PC

Il n’y a pas grand changement à espérer du côté du marché du PC. Certes, le Mac continue à afficher une bonne santé et s’étend même en entreprise. Les tablettes écornent ce marché (surtout sur le segment du grand public), et la pénurie de disques durs causée par les inondations en Thaïlande n’arrange rien. Il n’empêche, Redmond continuera à se faire beaucoup d’argent avec Windows et MS Office. Dans ce jeu à somme nulle, Dell, Lenovo et autres HP n’ayant pas de présence véritable sur le marché de l’informatique mobile, ils n’auront comme solution pour grossir que de se chiper des parts de marché… ou d’acquérir d’autres constructeurs.

Le marché des smartphones

Sur le marché des smartphones par contre, la guerre continue à faire rage car aucun des poids-lourds actuels n’est solidement ancré.

Le challenge de Google sera de fortifier la position très favorable dont jouit Android. Et en particulier éviter une fragmentation de l’écosystème.

Le challenge pour Apple sera de redonner un coup de souffle à l’iPhone. Si ce dernier se vend bien, il s’est fait dépasser par Android en termes de ventes. Ce dernier a en effet l’avantage de se décliner en de multiples offres, que ce soit point de vue prix, opérateur mobile ou taille de l’écran. Apple propose l’iPhone 3G à prix réduit, mais il garde la même taille d’écran et n’a que peu d’opérateurs. L’iPhone bénéficierait vraiment d’une version qui se distingue de ses prédécesseurs. Mais si Apple continue à sortir une nouvelle mouture de son produit tous les 12 mois, l’iPhone 5 ne sera pas disponible avant septembre 2012.

Le challenge pour Microsoft comme pour RIM sera d’enrayer leur déclin. Redmond vient de sortir Windows Phone 7.5 « Mango » dont on entend beaucoup de bien, et Nokia a sorti son Lumia 800 qui semble très sexy (bien que pas encore sorti aux Etats-Unis). L’avenir dira si cela suffira pour renverser la situation, où s’il est trop tard. Car Microsoft a sorti Windows Phone 7 l’année dernière à grand coup de battage médiatique… dans l’indifférence générale (et ses parts de marché ont continué de diminuer). Le gros problème est que dans les photos d’écran, WP7.5 Mango ressemble à s’y méprendre à la version 7. Microsoft devrait pourtant savoir mieux que quiconque que la meilleure manière d’indiquer un changement de système d’exploitation est de changer l’aspect de l’interface graphique. Peut-être un jour Redmond pensera à utiliser des coins arrondis… Mais il ne faut jamais sous-estimer Microsoft, donc je me garderais de prédire le succès ou l’échec de WP7.5. Pour ce qui est de RIM, sa situation n’est pas brillante – même si la compagnie reste très profitable. Son BlackBerry est en chute libre, sa tablette a fait un bide et plusieurs pannes prolongées ont terni son image. Il y a trop de systèmes d’exploitation mobiles. A moins d’un miracle, RIM se dirige vers au mieux un marché de niche et au pire le début de la fin.

Le marché des tablettes

S’il a perdu du terrain sur le marché des smartphones, Apple garde l’avantage sur le marché des tablettes. Aucune des nombreuses tablettes Android n’est pour l’instant en mesure de sérieusement concurrencer l’iPad. Pour l’instant, l’iPad est d’ailleurs la tablette qui a le plus de succès en entreprise – chose surprenante quand on sait le peu d’intérêt qu’a Apple pour ce segment. L’explication vient du fait que la meilleure manière pour une tablette de s’introduire en entreprise est de viser les non-utilisateurs de PC. Microsoft et RIM en sont quasiment incapables, mais cela ne pose pas de problème à Apple. C’est ainsi que l’iPad a été approuvé par la Federation Aviation Administration comme remplacement (optionnel) des cartes et livres de bord. Il commence à être utilisé dans de nombreux hôpitaux par les docteurs. Le challenge pour Microsoft, RIM ou même HP sera de changer leur vision des tablettes en entreprise… s’ils en sont capables.

La seule ombre au tableau pour Apple est l’arrivée de tablettes à écran 7″ comme la Kindle Fire d’Amazon.com. Je ne sais cependant pas s’il s’agit d’un mouvement durable ou d’une mode. Rappelez vous, les Netbook étaient très en vogue il y a de ça quelques années, mais leurs ventes ont chuté depuis. La raison est que si le grand public est très intéressé par un ordinateur très bon marché, encore faut-il que l’expérience n’en soit pas trop dégradée – chose qui ne s’est pas avérée vrai pour les Netbooks. Il est possible que le même phénomène se passe pour les tablettes 7″. Si j’ai acheté une telle tablette (un Nook Color sous Android), c’est avant tout pour mes enfants (s’ils me la cassent, je n’en suis pas de $500). Je compte toujours m’acheter un iPad car un écran 7″ reste petit pour surfer sur le Web. La seule différence est qu’Angry Birds fonctionne très bien sous une tablette bas de gamme, donc elle peut cibler un public aux besoins minimes.

Microsoft, quant à lui, compte sortir Windows 8 d’ici à la fin 2012, mais j’ai de gros doutes sur l’efficacité de cette stratégie. Une tablette compatible Windows demande beaucoup plus de puissance qu’un iPad. Je vois mal comment elle pourrait sérieusement concurrencer ce dernier.

HP compte-t-il relancer une tablette sous WebOS ? Qui sait. Mais je doute que cela change grand chose.

Le Web

Il est toujours difficile de prédire ce qui va se passer sur le Web, car ce marché est très volatile. Je ne vois Google, Facebook ou Twitter aller nulle part, mais d’autres nouveaux venus peuvent émerger. Le « Web social en entreprise » va toujours faire parler de lui, mais le challenge pour ses promoteurs sera d’adapter le modèle Facebook aux besoins de l’entreprise – ce qui n’est pas encore le cas.

Finalement…

Il existe de nombreuses autres incertitudes. Les critiques de Steve Ballmer ne vont pas se taire, mais ce n’est pas pour autant qu’il va être remplacé. La rumeur affirme qu’Apple compte sortir ses propres télévisions courant de l’année, mais tout dépendra de ce qu’ils sortiront (s’ils sortent quelque chose). On parle d’un rachat de RIM, mais je ne vais pas m’avancer sur ce terrain là. Les acquisitions ont tendance à ne jamais arriver là où on les attend.

Et puis il y a toutes les chances qu’au moins un imprévu survienne. Une acquisition surprise, un produit que l’on n’attendait pas, etc. Apple a changé la donne en 2007 en lançant l’iPhone et en 2010 en lançant l’iPad. En 2011, Google rachetait la division mobile de Motorola et Nokia annonçait un partenariat étroit avec Microsoft. Il est impossible de savoir quelles surprises 2012 va nous réserver. On peut par contre parier sur le fait qu’il y en aura…

Publicités

Le « fin du Web », encore et toujours

16 décembre 2011

Lors de la conférence Le Web Paris, George Colony, le PDG de Forrester Research a émit trois prédictions. Et l’une d’entre elles était la fin du Web – une fois de plus.

L’analyse est la suivante : la vitesse des réseaux augmente, mais pas aussi rapidement que les capacités des disques durs ou la puissance des ordinateurs. Dans ses conditions, ces deux derniers sont de plus en plus sous-exploités par le Web. Forrester voit donc l’arrivée des « app Internet » apparemment calées sur le modèle de l’App Store d’Apple. M. Colony ajoute que, de la même manière qu’il existait des services Internet avant le Web, ce dernier va disparaitre pour être remplacé par d’autres services Internet.

Failles dans le raisonnement

On ne peut pas écarter la possibilité que le Web soit grandement abandonné d’ici à 10 ans. La conclusion de Forrester est cependant un peu prématurée, car le raisonnement a de nombreuses failles. Tout d’abord, il existe de nombreuses manières de contourner des débits qui ne suivent pas le reste du matériel. Le Web est d’ailleurs très optimisé pour ça – faut-il rappeler qu’il a débuté à l’époque des modems 14,4Kbs ? Qui plus est, dans certains cas de figure le protocole utilisé importe peu. Lorsque l’on télécharge un film en haute définition, la quantité de données à télécharger est la même que l’on utilise le Web, une Apple TV ou une « app Internet ».

Et quand bien même la puissance des processeurs et des disques est sous-exploitée, en quoi est-ce un problème ? Le fait est que la puissance des portables PC actuels et leur capacité disque est largement suffisante pour la grande majorité de nos besoins. Même l’écosystème Windows -pourtant gourmand en ressources- n’arrive pas à utiliser les capacités des disques durs -et très rarement le processeur. A l’heure actuelle, les seuls particuliers qui arrivent à remplir leur disque dur sont ceux qui stockent des heures de vidéo. Les app-Internet n’aident en rien à mieux utiliser les ressources disque.

Application Internet : rien de nouveau

L’idée d’app-Internet n’est pas nouvelle. Dés les débuts du Web, les géants informatiques ont vu ses limitations et ont tenté de trouver un palliatif aux deux standards du Web, HTTP et HTML. Microsoft a voulu les remplacer par DCOM et ActiveX. Sun a voulu les remplacer par CORBA et Java. Les deux tentatives ont lamentablement échoué, en partie parce que leur solution consommait trop de ressources réseau. Adobe a gardé HTTP mais a voulu remplacer HTML par Flash, avec un succès mitigé. Le seul acteur qui a eu du succès avec son architecture est Apple qui a remplacé le HTML sur l’iPhone et l’iPad par des applications écrites en Objective-C.

HTML est une innovation disruptive. Elle est sur certains points plus limitée que ce qui existait déjà. Les professionnels ayant en tête les cas d’applications les plus complexes, nombre d’entre eux sont enclin à trouver un remplacement. Une application Web a toujours eu une interface graphique moins puissante qu’une application traditionnelle. Ce n’est pas un hasard si M. Colony prend pour exemple des jeux 3D – un cas d’exemple haut de gamme pour lequel HTML n’est pas du tout adapté.

Lors d’une interview en 1996, Steve Jobs s’émerveillait du fait qu’une compagnie de deux personnes pouvait avoir un site Web aussi beau que celui d’une multinationale. Notez le « aussi beau ». Quelqu’un aussi perfectionniste et de visuel que Jobs devait être horrifié par des sites tels que Craigslist. Et c’est quelque chose qu’il s’est appliqué à corriger avec l’App Store, en s’assurant que les applications aient une certaine esthétique avant d’être approuvées.

Mais, détail important, HTML s’améliore avec le temps, et permet d’avoir des interfaces de plus en plus poussées. Des applications comme Google Maps ont repoussé les limites de ce que l’on pensait pouvoir faire sur le Web. Et sa dernière mouture, HTML 5, a considérablement augmenté les capacités graphiques et permet même de stocker des données sur le disque local. On commence à voir des jeux vidéo à base de HTML 5 tels que le célèbre Angry Birds. Flash commence à être sérieusement concurrencé, en particulier sur son bastion : les vidéos (de plus en plus de vidéos sont en effet disponible en utilisant HTML 5). Adobe vient d’ailleurs de jeter l’éponge pour Flash sur environnement mobile. Et même Apple utilise HTML 5 pour les publicités de son réseau iAd.

HTML n’est pas prêt de remplacer tous les types d’application, et certainement pas les jeux en 3D. Mais il est amplement suffisant pour de plus en plus d’applications.

Google, gardien du statu quo

Un point intéressant que soulève M. Colony est que Google n’a aucun intérêt à voir le modèle du Web changer. Si le géant de Mountain View s’est investi sur le domaine de l’informatique mobile avec Android, le but est d’essayer de répliquer le modèle du Web, en particulier en s’assurant que son moteur de recherche reste le moteur de choix des utilisateurs.

Mais il faut cependant reconnaître que Google fournit un service très utile. Malgré toutes les applications sur iOS, et malgré toutes les imperfections du Web, ce dernier reste une mine d’information inégalée. Les sites Web peuvent être indexés, permettant l’existence de moteurs de recherche. On n’a pas besoin d’installer un site Web avant de pouvoir le visiter. Les sites Web se référencent les uns les autres. Et le Web reste une architecture où l’on peut visiter un site inconnu sans trop de danger. Dans les cas des « app-Internet », on doit soit attendre qu’elles soient approuvées comme dans le modèle Apple, soit espèrer qu’elles ne compromettent pas notre système comme dans le modèle Android.

Evolution du Web

Mais il existe définitivement une évolution du Web. En particulier, une concentration des sites, les petits sites Web indépendants ayant de plus en plus de mal à survivre.

Les sites Web communautaires, par exemple, ont été particulièrement visés. Lorsque le système de forums Usenet s’est effondré sous le poids des usagers, il a été remplacé par une multitude de sites Web créant des communautés souvent très ciblées. Or ces sites sont de plus en plus souvent remplacés par des groupes Facebook ou Meetup (ce dernier appartenant à eBay). Inversement, le premier réflexe des internautes lorsqu’ils recherchent une communauté est de chercher sur Facebook et/ou Meetup, plutôt que de chercher les sites indépendants sur Google.

Le phénomène n’est pas nouveau : cela fait longtemps qu’eBay a le quasi-monopole des enchères en ligne. Et si l’on veut vendre un produit en ligne, il faut que l’internaute nous trouve et ait confiance. D’où le succès d’eBay ou d’Amazon.com. La disparition de petits sites au profit de plus gros sites a progressée, et touche plusieurs secteurs. Lorsque l’on cherche une recette de cuisine sur Google (du moins sur la version américaine), ce dernier propose un filtre où l’utilisateur peut inclure ou exclure des ingrédients, filtrer le temps de cuisson ou le nombre de calories. Si l’idée n’est pas mauvaise, elle favorise les sites de recettes Web professionnels. Car pour qu’un site soit indexé par le moteur de recherche de recettes de Google il faut qu’il suive des directives. Les sites indépendants ont peu de chance de passer le temps à les mettre en oeuvre – et beaucoup ne sont certainement pas au courant.

Ce phénomène favorise en effet le modèle des applications. Car lorsqu’on est habitué à visiter un unique site Web lorsque l’on recherche une recette, on peut tout autant utiliser l’application.

Conclusion

Il est possible que le Web de fait disparaisse face aux « app-Internet ». Peut-être est-ce parce que je n’aime pas l’univers qu’on nous propose (j’avoue), je reste sceptique. Et je ne peux m’empêcher de penser que les prédictions de Forrester sont comme les prédictions météo : il est possible qu’elles s’avèrent exactes, mais si elles le sont c’est en grande partie dû à la chance.

Relations publiques et gestion de crise

9 décembre 2011

La semaine dernière, une obscure compagnie, Carrier IQ, a fait la une des journaux informatique. La raison : un expert en sécurité, Trevor Eckhart, a dévoilé comment leur logiciel de diagnostic de réseau (installé sur de très nombreux smartphones) semble être très actif et est impossible à désinstaller ou désactiver. Un tollé s’en est ensuit. Tout le monde s’est immédiatement distancé du mieux qu’il pouvait de la compagnie. Google a affirmé que ce logiciel n’était pas utilisé dans la version d’Android qu’il livre à ses partenaires. Les constructeurs de smartphones ont rejeté la faute sur les opérateurs mobiles. Ces derniers ont soit démenti utiliser Carrier IQ, soit ont admit l’utiliser mais uniquement pour mieux diagnostiquer les problèmes réseau.

Certains pensent que la polémique est exagérée. Un outil de diagnostic de réseau n’est pas en soi un problème. Mais dans l’histoire, la société Carrier IQ n’a qu’à s’en prendre à elle-même car elle a commis plusieurs fautes difficilement pardonnables.

Tout d’abord, la manière dont le logiciel s’installe. M. Eckhart a utilisé le terme de rootkit car le logiciel utilise plusieurs subterfuges pour éviter d’être détecté, et surtout n’est pas conçu pour être désinstallé ou même désactivé. On imagine la réponse de Carrier IQ : « Notre logiciel est caché pour ne pas troubler les utilisateurs », « On ne peut pas le désactiver parce qu’il est à l’usage des opérateurs mobiles » et autres excuses bidon. Quand on créé un logiciel qui se comporte comme un rootkit, il ne faut pas s’étonner ensuite que des experts en sécurité se posent des questions.

L’autre faute qu’a commise Carrier IQ a été de sortir les avocats pour tenter d’étouffer l’affaire. Le premier réflexe de la compagnie a en effet été de menacer M. Eckhart de poursuite en justice pour violation de copyright (pouvant aller jusqu’à $150.000) si ce dernier ne rétractait pas immédiatement ses propos, cessait d’employer le terme rootkit, fournissait des excuses publiques (avec un texte bien préparé) et donnait les noms et adresses de ceux qui avaient lu son rapport.

N’importe quelle compagnie peut faire des erreurs. Et à l’heure d’Internet, une polémique peut enfler réellement rapidement, surtout sur les marchés du grand public. Mais il y a erreur et erreur. Plusieurs facteurs influencent une crise de relations publiques. L’intention, l’impact, la manière de réagir et sa relation avec les clients.

L’intention

Tout d’abord, a-t-on affaire à une erreur commise de bonne foi ou si le problème est intentionnel ?

Apple, par exemple, a eu plusieurs problèmes avec ses produits, de la batterie de ses premiers iPods aux problèmes d’antenne de l’iPhone 4. Même avec les meilleures intentions du monde, des problèmes techniques peuvent toujours se glisser dans un produit. L’iPod a toujours été conçu pour ne pas être démonté. Pas de problème, sauf lorsque la batterie dure moins longtemps que prévu et doit être remplacée. Quant à l’antenne de l’iPhone 4, la volonté des designers d’utiliser un cadre en métal a créé une cage de Faraday qui peut facilement bloquer les ondes. Qui plus est, le goût du secret d’Apple a limité les tests en grandeur nature. Dans les deux cas, le souci du design a impacté négativement le fonctionnement des produits.

L’intention au départ était donc louable. A contrario, Dell a été accusé d’avoir sciemment vendus plusieurs millions de PC contenant des composants défectueux. Si Dell n’a bien évidemment pas cherché à utiliser des composants défectueux, le constructeur a fait l’objet d’une poursuite l’accusant d’avoir livré de tels PC et d’avoir tout fait pour éviter de payer les réparations.

Google a également eu son lot de controverses. Google Buzz, sa tentative de réseau social, a souffert d’une faille de sécurité importante lors de son lancement (cela arrive). De même, le service Google Street View a créé la polémique lorsqu’il s’est avéré que Google avait également « malencontreusement » pris note des réseaux Wi-Fi ouverts. Si Google n’a fait que noter des données publiques, on peut douter que les voitures de Google aient embarqué du matériel qui collectait des informations sur les réseaux Wi-Fi ouverts complètement par accident.

Facebook, quant à lui, ne compte plus les controverses autour des données privées. Programme Beacon (qui échangeait des informations avec des sites tiers sans le consentement des utilisateurs), changements constants des paramètres de sécurité (souvent obscurs), etc. Si certaines controverses ont été dues à des failles de sécurité, d’autres ont été la conséquence de décisions sciemment prises par Facebook.

Carrier IQ, quant à lui, ne peut pas plaider la bonne fois. La compagnie a développé en toute connaissance de cause un logiciel qui tente de se dissimuler aux yeux de l’utilisateur et qui est difficile (voire impossible) à désactiver.

La manière de réagir

Une fois qu’une controverse démarre, comment la compagnie réagit ?

Sur ce point, Apple n’est pas un modèle à suivre. La firme à la pomme n’a proposé de remplacer la batterie de l’iPhone (et pas à prix coûtant) qu’après que se soit propagée une vidéo anti-iPod contenant une conversation avec le support technique d’Apple. Pour ce qui est de l’antennagate, la firme de Steve Jobs a commencé à blâmer le logiciel ; puis affirmé que tout les smartphones avaient ce problème ; puis sous-entendu que les utilisateurs tenaient l’iPhone de la mauvaise manière ; le tout avant d’offrir une pochette de protection gratuite. Je soupçonne que ce comportement vient de Steve Jobs lui-même. Etant très exigeants avec ses produits et étant très manichéen (un produit est soit génial, soit une daube), les produits qu’Apple accepte de sortir ne peuvent qu’être géniaux. Par conséquent, il ne peut y avoir de défaut. CQFD.

Google, de son côté, ne s’en n’est pas mal tiré, la compagnie ayant rapidement rectifié le tir et n’ayant pas essayé de noyer le poisson.

Dell, par contre, n’a pas réagit au mieux. La compagnie a en effet été accusée d’avoir rejeté la faute sur ses utilisateurs pour éviter de réparer les PC défectueux alors qu’elle savait pertinemment l’origine du problème. Le service technique de Dell a ainsi eu le culot de dire à un de leurs clients (l’université du Texas) que leurs PC sont tombés en panne parce qu’ils avaient trop utilisés leurs machines en leur faisant faire des « opérations mathématiques compliquées » (pauv’ petit nordinateurs, ils ont eu un vilain mal de crâne pour avoir trop bossé !) Ironiquement, selon des emails saisis lors de la poursuite en justice contre Dell, le constructeur aurait été réticent à remplacer les quelques 1000 PC livrés… au cabinet d’avocat qu’il employait pour le défendre !

Facebook, de son côté, a eu des réactions mitigées. Si la compagnie s’est rapidement attaqué aux problèmes de sécurité, elle ne s’est jamais empressée de corriger le tir sur les fonctionnalités controversées (sans doute parce qu’elle pensait qu’elle était dans la bonne voie). Malgré les excuses de Mark Zuckerberg sur le programme Beacon, ce dernier a duré deux ans.

Carrier IQ est peut-être le pire exemple du lot. Au lieu d’ignorer le problème, la compagne a tenté d’étouffer l’affaire en menaçant de poursuites judiciaires. Même Apple -qui est connu pour avoir trainé en justice même des bloggeurs- n’a jamais osé une telle chose.

L’impact

Au-delà du problème, un autre facteur est l’impact : combien de personnes sont affectées par le problème, et à quel degré ?

La polémique Google Street View n’a impacté que des gens qui ont oublié de mettre un mot de passe à leur réseau Wi-Fi, soit une petite partie de leurs utilisateurs. L’iPhone 4 a par contre affecté beaucoup plus de monde du fait de son succès commercial et qu’Apple a une gamme de produits réduite.

Dell, quant à lui, a vendu dans les 12 millions de PC défectueux entre 2003 et 2005, soit un pourcentage relativement faible de ses ventes. Si on n’est jamais content lorsque Dell nous a vendu un PC défectueux, on paye toujours moins attention lorsque les problèmes arrivent à quelqu’un d’autre (« Moi je n’ai eu aucun problème »). La poursuite en justice a eu un impact négatif sur son image, mais je doute que le grand public ait entendu parler de cette affaire. Et le fait que Dell ait réglé l’affaire à l’amiable en 2010 a permit de mettre fin à la polémique.

Les controverses Facebook et Carrier IQ affectent dans les deux cas des centaines de millions d’utilisateurs, et sont liées au sujet sensible des informations personnelles. Le scandale Carrier IQ a plus un impact psychologique qu’autre chose, contrairement à Facebook où certaines informations personnelles peuvent se retrouver publiques (visibles par un employeur potentiel par exemple). Par contre, les utilisateurs de Facebook ont beaucoup plus de contrôle dans la mesure où ils peuvent limiter les informations qu’ils partagent sur le site. En empêchant la désactivation de son logiciel, Carrier IQ enlève tout contrôle aux possesseurs de smartphones.

Relation avec les clients

Les facteurs précédemment cités peuvent entamer plus ou moins sérieusement la confiance que l’on a en une compagnie. La question est : est-ce suffisant pour que l’on décide d’aller voir ailleurs ? Tout dépend de la relation que l’on a avec cette compagnie. Par exemple, Apple a une image de marque tellement puissante que ses utilisateurs sont prêts à lui pardonner beaucoup. Pareil pour Google ou Facebook qui offrent des services forts utiles. Même si vous n’aimez pas la manière très libérale dont Facebook se sert des informations sur notre personne, le site reste le meilleur moyen de rester en contact avec ses connaissances. Pour ce qui est de Dell, tant qu’ils proposeront des PC et un service après-vente moins cher que la concurrence, ils trouveront toujours des clients.

Et c’est là où Carrier IQ a un problème : personne n’a besoin de lui. Pas les opérateurs mobiles, et encore moins les possesseurs de smartphones. Je ne serais pas étonné que la compagnie mette la clé sous la porte sous peu si les opérateurs mobiles décident d’acheter un logiciel concurrent.

Le mythe du cowboy solitaire

3 décembre 2011

Le monde de l’informatique est rempli de ce que j’appelle des cowboys : des inconnus qui créent une entreprise dans leur coin, sans demander aucune autorisation. La plupart des géants informatiques actuels ont été démarrés par des cowboys.

Il existe par contre un mythe : celui du cowboy solitaire. Même si l’on prend en compte le fait que beaucoup des géants de l’informatique ont été cofondés par au moins deux personnes, il y a beaucoup plus de monde impliqué dans le succès d’une compagnie.

Aide extérieure

Tout d’abord, personne ne crée une entreprise à succès tout seul – ou même à deux. De nombreuses autres personnes jouent un rôle déterminant, même s’il n’est souvent qu’épisodique.

Il y a tout d’abord les « connecteurs » : ceux qui mettent les bonnes personnes en relation. Les deux cofondateurs d’Apple, Steve Jobs et Steve Wozniak, ont été mis en relation par un ami commun. Les deux cofondateurs de Microsoft, Bill Gates et Paul Allen, se sont rencontrés en fréquentant un lycée privé huppé où ils ont pu accéder à un ordinateur, fait rarissime en 1968 (merci papa maman). Les deux cofondateurs de Google, Sergey Brin et Larry Page, ont été mis en contact par le maître de thèse de ce dernier. Les deux compères ont par la suite trouvé un PDG pour Google en la personne d’Eric Schmidt grâce au capital risqueur John Doer. Etc.

Et il existe plein d’autres rôles qui sont tout aussi importants, tels que les capital risqueurs qui investissent dans une startup là où personne d’autre ne croit en eux. Autre exemple : Sean Parker, ancien PDG de Facebook, a su bien conseiller Mark Zuckerberg pour que ce dernier garde le contrôle de sa compagnie. Ayant cofondé -et été expulsé de- Plaxo, Parker connaissait les pièges à éviter et les choses à exiger des investisseurs pour éviter de perdre le contrôle du conseil d’administration.

Evolution des idées

De la même manière, un inventeur, même génial, n’invente jamais une idée tout seul. L’histoire d’Archimède qui crie « Eureka! » dans sa baignoire est une belle histoire, mais elle colle mal avec la réalité. Une idée brillante a toujours une histoire derrière elle. Elle a commencé par être une bonne idée (voire médiocre) puis a évolué au cours du temps, le plus souvent influencée par plusieurs personnes.

C’est ainsi que le moteur de recherche Excite a commencé comme projet d’indexation de bases de données. C’est sur les conseils du capital risqueur qui soutenait la compagnie que les fondateurs se sont tentés à indexer le Web.

Pareil pour l’interface graphique. Elle a vu le jour au sein du fameux Xerox PARC dans les années 70 avec l’Alto, mais un composant critique -la souris- est bien plus ancien. Le premier prototype de souris, conçu par Douglas Engelbart, remonte à 1963. Apple a repris l’idée de l’interface graphique de Xerox et l’a améliorée, en inventant par exemple le double-clic de la souris. A noter qu’Apple a nécessité deux itérations pour arriver au résultat que l’on connait (le Lisa et le Macintosh). Sous l’impulsion de Steve Jobs, le Macintosh a eu les fontes proportionnelles et des rectangles aux coins arrondis (chose que Microsoft n’a pas complètement intégré même 25 ans après). Bill Atkinson, qui a écrit la plupart de l’interface graphique du Lisa et du Macintosh, a inventé le menu déroulant ou le concept d’un cadre pointillé animé pour indiquer une sélection (encore utilisé par des programmes de dessin comme Gimp). Bruce Horn a écrit le Finder qui aide à gérer les fichiers et lancer les programmes (les interfaces de Windows comme de MacOS X ont évolué du Finder). Et il est intéressant de voir l’évolution de l’interface graphique développée au sein d’Apple.

En parlant du Macintosh, le premier modèle a énormément évolué entre le lancement du projet en 1979 et sa sortie cinq ans plus tard. C’est Jef Raskin qui a créé le projet qu’il a baptisé Macintosh, ayant la vision d’un ordinateur bon marché et facile à utiliser. La première version n’était même pas sensée avoir une interface graphique ! Raskin avait en tête d’utiliser 64 Ko de mémoire et un processeur Motorola 6908, bien moins puissant que le Motorola 68000 utilisé par le Lisa mais bien moins onéreux. Une personne de son équipe l’a plus tard convaincu d’utiliser un 68000. Une autre l’a convaincu d’utiliser une interface graphique. Mais même dans ce cas, Raskin pensait utiliser des raccourcis claviers plutôt qu’une souris. En janvier 1981, Steve Jobs a repris le projet, y instillant ses idées. Au final, la carte-mère du Macintosh a eu pas moins de quatre redesigns importants.

Google, quant à lui, a commencé comme projet de thèse à Stanford dont le but était de voir le degré de popularité d’une page. Ce concept est lui-même inspiré d’une pratique des universités américaines, où les professeurs doivent non seulement doivent publier des articles, mais ce qui compte est que ces articles soient référencés. En retournant le concept, Larry Page s’est aperçu qu’il avait un algorithme pour créer un meilleur moteur de recherche. Mais l’histoire de Google ne s’arrête pas là. Car le géant de Mountain View a dû son salut à un business model inventé par Bill Gross, fondateur de Goto.com (devenu par la suite Overture.com et racheté par Yahoo). Ce dernier a en effet été le premier à reconnaître qu’un lien vers un site Web pouvait être vendu, et que tous les liens ne sont pas égaux et donc peuvent être vendus à des prix différents.

Facebook n’a pas été le premier réseau social, loin s’en faut. Avant lui, Friendster et MySpace ont été les réseaux sociaux du moment. Et l’idée de Facebook a également évolué au cours tu temps. Zuckerberg a en effet écrit quelques applications sociales sur le campus d’Harvard. La première version de Facebook était la version électronique du trombinoscope (en anglais, « facebook ») pour les étudiants d’Harvard – la première version du site s’appelait d’ailleurs The Facebook. Par la suite, le site a ajouté d’autres fonctionnalités telles que le fameux « mur ».

En d’autres termes, l’entrepreneur qui est convaincu d’avoir une idée géniale et qui ne pense pas avoir besoin d’autres contributions se fourvoie largement.

Conclusion

Le mythe du cowboy solitaire est bien ancré. Une des raisons est que l’esprit humain peut difficilement se rappeler de toutes les personnes impliquées. Il est bien plus facile d’associer une compagnie à une seule personne. On associe donc une compagnie à un seul individu, auquel on attribue tous les mérites. Tout le monde associe Apple à Steve Jobs. Nettement moins de personnes pensent à Steve Wozniak. Et très peu de gens sont même au courant que la compagnie avait un troisième cofondateur (Ron Wayne, qui a vendu ses 10% dans la société après seulement quelques semaines)

Mais l’imagerie populaire n’est pas toujours représentative de la réalité…