Archive pour février 2011

La publicité sur le Web

25 février 2011

La publicité a été la première source de revenus du Web – et reste la principale. Le problème est que les revenus sont très faibles par rapport au trafic. Non seulement les internautes ont appris à ignorer les publicités, mais ces dernières étant très rarement ciblées, elles ont un rendement très faible. Quelques compagnies ont cependant réussi à trouver un modèle plus efficace pour leurs publicités.

Google

Google a commencé comme un projet de thèse de représentation mathématique du Web. Après quelques années de disettes, la compagnie s’est trouvé être idéalement placée pour exploiter une idée découverte par goto.com: l’idée que certains mot-clés valaient plus que d’autres.

Partant d’un service utile à un maximum d’internautes (son moteur de recherche), Google « vend » aux publicitaires un emplacement lorsque les utilisateurs entrent un mot-clé donné. La valeur du mot-clé est déterminée par un système d’enchères, permettant à Google de maximiser les revenus pour certains mot-clés très prisés. L’une des raisons des profits si juteux de la compagnie est que la compagnie vend principalement de la publicité qui répond à une demande existante. En effet, de nombreux utilisateurs utilisent Google pour chercher des informations sur un produit ou un service donné. Ils ne cherchaient peut-être pas à acheter le produit ou service donné, mais sont au minimum ouvert à cette possibilité. Par exemple, l’un des mot-clés extrêmement profitable pour Google est DUI ou DWI, acronyme américain pour Driving Under InfluenceDriving While Intoxicated, c’est-à-dire conduite en état d’ivresse – quelque chose qui coûte fort cher aux Etats-Unis. Certains cabinets d’avocats spécialisés sont près à payer $40 ou plus par clic sur leur publicité, car ils savent que les prospects ont besoin d’un avocat pour éviter de gros ennuis.

Si les publicités qui répondent à une demande existante ne représentent tout au plus que 20% du marché total de la publicité, elles représentent cependant un marché juteux. Il est en effet bien plus facile de vendre à quelqu’un qui veut acheter que de convaincre quelqu’un d’acheter un produit ou service.

A noter que ce modèle colle parfaitement au moteur de recherche de Google, qui est d’aider les gens à trouver les informations sur le Web. Aller sur Google est un moyen et pas une fin en soi (les gens vont rarement sur un moteur de recherche parce qu’ils n’ont rien à faire). Par conséquent, plus Google est efficace, moins les gens passent du temps dessus pour chaque interaction. La comparaison du temps que les internautes passent sur Facebook et Google n’a donc aucune valeur.

Facebook

Facebook a, de son côté, commencé comme un projet de connexion de personnes. Là où Larry Page s’est demandé comment représenter toutes les connexions des pages Web, Mark Zuckerberg est obsédé depuis longtemps par le graphe social, c’est-à-dire les liens entre les diverses personnes. En d’autres termes, Google est orienté données alors que Facebook est orienté social. L’algorithme est roi au sein de Google, alors que l’obsession de Zuckerberg est de favoriser les interactions entre utilisateurs.

Le business model de Facebook est plus conventionnel et vend des publicités qui tentent de créer une demande, que ce soit pour un produit ou service que les internautes ne connaissent pas ou ne sont à priori pas intéressés.

Là encore, le type de service qu’offre Facebook est adapté à ce genre de publicité. Facebook étant une fin en soi, les utilisateurs restent sur le site pendant longtemps – parfois un peu trop longtemps. Rester longtemps sur le site est un bon signe pour Facebook, car cela donne l’opportunité de présenter plus de publicités. Avec un bémol cependant : le site ne doit pas trop prendre de temps, car il risque de fatiguer les gens à terme. Plusieurs utilisateurs ont par exemple abandonné Farmville (le célèbre jeu sur Facebook) car ils y passaient trop de temps. Le problème de Facebook est un flux d’informations grandissant. On ajoute des contacts plus souvent qu’on en retire. Le challenge du site est de nous montrer uniquement les informations qui nous intéressent.

Mais Facebook utilise une stratégie un peu différente des autres sites Web qui vivent de la publicité. La compagnie de Mark Zuckergerg possède en effet une base de données d’informations sur ses utilisateurs très importante, avec la particularité d’être extrêmement complète et fiable. Alors que la plupart des bases de données consommateurs sont créées à partir de suppositions (on achète une liste d’abonnés et on suppose que les membres ont tel ou tel profil), les données de Facebook sont entrées par les consommateurs eux-mêmes ! Age, location géographique, état matrimonial, mais également des informations sur ce que l’on aime. Facebook possède la base de données rêvée pour toute équipe marketing, ce qui lui permet de vendre de la publicité ciblée. Par exemple, un utilisateur poste des photos de son voyage à Aruba peut être une cible potentielle pour des agences de voyage.

Apple

Bien que constructeur de matériel à la base, Apple a récemment décidé de s’attaquer au marché de la publicité sur iPhone et iPad. Outre des revenus supplémentaires, le but principal est de rendre iOS encore plus attractif auprès des développeurs d’applications. En d’autres termes, fournir un autre avantage compétitif à ses produits en favorisant la création d’applications.

La compagnie a pour cela créé iAd, un réseau de publicité sur iPhone et iPad. Mais iAd ne suit pas la modèle traditionnel, car le service vise les recettes publicitaires télévisées. Steve Jobs affirme que la publicité télévisée attire le plus de revenus car elle fournit la meilleure expérience. Apple essaie donc de fournir des publicités visuellement attrayantes.

L’angle pris par Apple ne surprendra personne quand on sait l’obsession de Steve pour l’aspect visuel. Là où Google permet à n’importe qui de créer des publicités au format texte grâce à un processus entièrement automatisé, Apple tente de créer un environnement où les publicités sont coûteuses à produire et encore plus coûteuses à diffuser (les annonceurs doivent dépenser un minimum $1 million pour être des clients d’iAd). Là où Google et Facebook font de la publicité ciblée à partir des informations que les internautes entrent eux-mêmes, Apple se différentie sur la qualité même de l’expérience publicitaire.

Les avis divergent quant au succès d’iAd. Selon TechCrunch, le service n’est pas en bonne posture. Passé l’enthousiasme initial, les clients rechigneraient à renouveler le coûteux service. D’un autre côté, une étude montrerait que les ventes iAd décollent et surpassent celles d’AdMob, le service racheté par Google utilisé sur Android. Affaire à suivre…

Groupon

Nouveau venu, Groupon est devenu le site « in » du moment, à tel point que Google a proposé de le racheté pour la bagatelle de $6 milliards – et que Groupon a décliné l’offre ! Le principe est de proposer des produits ou services à prix réduits si un nombre suffisant d’internautes s’engagent à acheter. Comme Google, Groupon vise le marché de la publicité qui répond à une demande, avec une légère différence. Les utilisateurs de Google ont leur besoin en tête, mais ne veulent pas forcément acheter quelque chose. Les utilisateurs de Groupon ne savent pas encore les produits ou services qu’ils veulent acheter, mais vont sur Groupon dans le but d’acheter quelque chose.

L’idée d’obtenir des discounts en aggrégant des clients sur le Web n’est pas nouvelle, mais Groupon est le premier qui a trouvé la bonne formule. Par exemple, Priceline Webhouse Club a été lancé en 2000 et permettait aux internautes d’acheter des produits en spécifiant le prix maximum qu’ils désiraient acheter. Une différence cependant : ils ne pouvaient pas spécifier la marque. Le problème de ce modèle et que les vendeurs n’ont eu aucune motivation de faire une remise à une compagnie qui encourage ses clients à n’acheter que sur le prix. Priceline Webhouse Club a donc effectué les remises sur ses propres fonds, et a fermé boutique en octobre 2000.

Conclusion

Google a à ce jour le meilleur modèle de publicité en ligne. Contrairement à Groupon, son site Web attire tous les internautes et pas seulement ceux qui veulent consommer. Contrairement à Facebook et Apple, il affiche principalement de la publicité qui répond à une demande existante – où du moins à un public ouvert à l’achat – ce qui lui permet de gagner beaucoup par publicité.

L’avenir dira si Google arrivera à garder son avancée.

Publicités

Singularité

18 février 2011

L’hebdomadaire Time Magazine de cette semaine a comme article principal « 2045: The year Man Becomes Immortal« .

L’article parle de la Singularité (le moment où les machines deviendront aussi intelligentes que l’homme) et de son champion le plus connu, Raymond Kurzweil.

J’avoue avoir de gros doutes sur le sujet. Pas qu’on ne puisse jamais atteindre la Singularité, mais que l’on puisse donner des dates avec de telles précisions. A mes yeux, toute prédiction qui dépasse les 10 ans est fortement suspecte. Les fans de la Singularité prédisent en effet que d’ici au milieu des années 2020 on aura fait le reverse engineering complet du cerveau humain, et que d’ici à 2045 on aura créé des ordinateur aussi intelligents que nous. Et l’immortalité comme le signale Time ? On y arrivera en téléchargeant notre cerveau dans un ordinateur, bien sûr !

Pensée linéaire

Ma plus grosse critique est la pensée linéaire des supporteurs de la Singularité. Ces derniers basent la date de leur prédiction sur la loi (empirique) de Moore qui dit que la puissance des ordinateurs double tous les 18 mois. Autrement dit, tout ne serait qu’une question de puissance de calcul.

Tout d’abord, personne ne sait combien de temps la loi de Moore va durer. Et même si elle perdure jusqu’à 2045, il n’est pas prouvé que la puissance de calcul brute même soit suffisante. Comme je l’ai déjà écrit, le monde autour de nous a toujours été plus complexe qu’imaginé (la relativité, la mécanique quantique, etc.). Von Neumann pensait dans les années 50 que l’on pourrait non seulement prédire le temps mais le contrôler. Tout n’était qu’une question de puissance de calcul. 60 ans après, et avec des ordinateurs plus puissants que Von Neumann n’aurait jamais imaginé, les prédictions météo une semaine à l’avance sont toujours imprécises. De même, après des avancées spatiales dans les années 60, le transport spatial reste cher et peu fiable, même après 50 ans d’innovations technologiques. Dans le domaine du corps humain, séquencer l’ADN humaine n’a pas eu les bénéfices escomptés et n’a certainement pas été suffisant pour comprendre comment fonctionnait le corps humain. En d’autres termes, avoir un ordinateur aussi puissant qu’un cerveau humain et créer une véritable intelligence artificielle sont deux choses distinctes.

Car un des points-clé est le mot « intelligence ». Les exemples donnés dans l’article de Time semblent montrer une évolution. L’ordinateur Deep Blue qui a battu Kasparov aux échecs. Cette semaine, l’ordinateur Watson a battu au jeu télévisé américain Jeopardy deux champions humain. En d’autres termes, les ordinateurs deviennent de plus en plus intelligents. Sauf qu’ils ne le sont pas. En 60 ans, l’intelligence des ordinateurs a augmenté d’exactement 0% pour rester exactement à zéro. Malgré 60 ans d’innovations, l’informatique reste toujours de la lecture de script du style IF / THEN / ELSE. Les scripts sont devenus plus complexes et plus rapidement exécutés, mais ils restent sans aucune intelligence. Deep Blue ne se base que sur des algorithmes et surtout sur du calcul brut du plus grand nombre de combinaisons possibles. C’est comme dire qu’une calculatrice ou un livre sont plus intelligents qu’un être humain car peuvent respectivement calculer plus vite et retenir des informations bien plus précisément. Deep Blue a été conçu pour jouer aux échecs mais n’a aucune conscience de sa tâche en question. Aucun ordinateur n’est à l’heure actuelle capable d’apprendre à jouer aux échecs sans que les règles soient codées dans son programme – contrairement à n’importe quel joueur humain (on n’a pas les règles d’échec codées dans notre ADN).

Mais qu’est-ce que l’intelligence humaine exactement ? Qui nous dit que le cerveau humain n’est pas un gigantesque script ? En fait, personne ne le sait, car l’intelligence est liée à ce que l’on appelle la conscience de soi, l’âme ou d’autres termes qui désignent la même chose. Et sur le sujet, personne n’a aucune idée d’où elle vient. Est-ce un effet secondaire de l’électricité dans notre cerveau ? D’une réaction chimique ? D’une loi de la physique céleste que nous ignorons ? D’une combinaison des trois ? Cela reste un mystère total. On « ressent » la conscience de soi mais on est incapable de la définir en termes de programme. Et sans cette conscience, le cerveau est un tas de tissus inutile. Ce n’est pas un ordinateur que l’on peut remettre en route juste en y faisant circuler du sang et du courant. Peut-être un jour trouvera-t-on la réponse, mais personne ne peut prédire quand. Et sans comprendre la conscience je doute qu’on puisse atteindre la Singularité. Sans comprendre la conscience, faire un « brain dump » n’aura pas les effets escomptés.

Le « brain dump »

Un autre buzzword associé à la Singularité est l’espoir d’un « brain dump », c’est-à-dire de pouvoir à terme télécharger le contenu de son cerveau sur un ordinateur, le but étant de créer une copie de soi-même et d’atteindre « l’immortalité ». Une fois de plus, une telle opération nécessitera autre chose que des ordinateurs puissants. Outre une résolution du problème de la conscience / âme, la technologie pour extraire les données d’un cerveau devra être mise au point. Les nanotechnologies souvent décriées se sont révélés être pour le moment de la science fiction. Là encore, aucune date de disponibilité raisonnablement prévisible.

Mais juste pour jouer le jeu, imaginons que cela devienne possible. Les implications légales sont nombreuses. Quelques exemples :

  • Peut-on forcer un individu à faire un « dump » de son cerveau contre son gré ? La police a-t-elle le droit de « perquisitionner » un cerveau si elle a un mandat ? Une entreprise peut-elle faire exiger dans son contrat d’embauche que ses employés effectuent un « dump » de leur cerveau afin de les remplacer s’il leur arrive un accident ?
  • Si un employé effectue volontairement un « dump » de son cerveau, à qui appartient la copie électronique ?
  • La copie a-t-elle des droits ? Effacer une copie est-elle équivalent à un meurtre ?
    • Si non, une personne a-t-elle droit de vie et de mort sur ses propres copies ? Peut-elle faire des copies d’elle-même, les torturer pour le plaisir (il y a des sadiques partout) ou de les forcer à faire son travail à sa place sous peine de leur couper le courant  ?
    • Si non, on peut parier que les pensées « électroniques » vont faire du lobbying pour être reconnue en tant que personnes – et auront de quoi bloquer le réseau informatique !
    • Si une copie a les droits d’un être humain, considérons le cas d’un hacker qui crée des copies de lui-même sur des ordinateurs tiers, copies qui se copient elles-mêmes etc. A-t-on le droit d’effacer une de ces copies qui met la pagaille sur notre ordinateur ou est-ce que ce sera considéré comme un meurtre ? Le problème se complique quand on sait que l’on ne peut pas reloger un programme. Car en informatique, déplacer veut dire copier + effacer.
    • Si oui, a-t-elle le droit de voter ? Si elle a le droit, il y a un risque que des gens se « multiplient » juste pour influencer les élections.
    • Si oui, quels sont les droits d’une copie « atrophiée » (où on enlève des capacités cognitives) ou de la copie d’un animal « augmentée » (usage de la parole et plus grandes capacités cognitives) ?
  • Qu’est-ce qui détermine un humain ? Dans le manga Gunnm, l’héroïne, un androïde avec un cerveau humain, parle à un humain dont on a remplacé le cerveau par une puce biologique. Quel est le plus humain d’entre les deux ?

Incertitudes

L’incertitude est l’une des choses dont nous avons le plus de difficultés à faire face. Accepter son ignorance est tellement difficile que nous sommes prêts à nous lancer dans des affirmations gratuites, telles que « la Singularité d’ici à 2045 » ou « la Singularité n’arrivera jamais ». D’autant plus lorsqu’on est un « expert » sur le sujet et que l’on aimerait bien que la Singularité arrive de son vivant – surtout pour Kurzweil qui aimerait bien arriver à l’immortalité avant que son corps physique ne lâche.

L’humanité arrivera-t-elle à la Singularité ? Peut-être. Quand ? Aucune idée.

Quand Apple pousse le bouchon trop loin

17 février 2011

Un article rapide sur Apple et son tout nouveau service d’abonnement.

Apple vient d’annoncer son service d’abonnement sur iOS, permettant aux créateurs d’applications iPhone et iPad de facturer facilement leurs utilisateurs pour des services supplémentaires.

Un gros bémol cependant : désormais, n’importe quelle application iOS qui vend quelconque service à ses utilisateurs par ses propres moyens (que se soit sous forme d’abonnement ou de paiement au coup par coup) doit également vendre le service sur l’App Store au même prix – et Apple se prend une commission de 30% !

Autant dire que le tollé est de taille. Les groupes de presse désireux de sortir une publication électronique payante font la moue, et le service de musique Rhapsody a décidé de boycotter iOS si Apple ne change pas ses règles. Certains prédisent mêmes des poursuites en justice, voire une poursuite pour abus de position dominante.

Changement culturel

Steve Jobs – et par extension Apple – aime tout contrôler. Là-dessus, rien de nouveau. Ce qui est nouveau est que Cupertino considère désormais les revenus autres que les ventes de matériel comme stratégiques. On assiste à un changement culturel important.

Apple est toujours resté fondamentalement un constructeur de matériel. Steve Jobs se plait à dire que c’est le logiciel qui fait la différence, c’est pourtant bel et bien le matériel que les consommateurs achètent. Les gens achètent un iPhone ou un iPad, pas un smartphone ou une tablette à base d’iOS. De la même manière, les revenus et les profits d’Apple proviennent principalement des ventes de matériel. Ses produits ne sont en effet pas réputés pour être les moins chers du marché.

La firme de Steve Jobs a commencé à avoir des rentrées d’argent sur les ventes purement numériques avec iTunes, se prenant 30% des ventes de la musique vendue sur son magasin en ligne. Cela a continué avec l’App Store, Apple gardant le contrôle des applications installées sur iOS. Mais jusqu’alors, cette nouvelle source de revenus n’est pas une source de profits importante pour Apple compte tenu des coûts de fonctionnement. L’enjeu principal est d’offrir la meilleure expérience possible à l’utilisateur en fournissant une gamme complète d’outils intégrés. L’iPod est intégré à iTunes (le logiciel que l’on installe sur son PC), lui-même intégré à iTunes Store (le magasin en ligne). Et jusqu’alors, Apple laissait (plus ou moins) la concurrence tranquille, sachant que son offre est plus facile d’accès. L’iPad a iBooks pour lire les livres électroniques de son magasin en ligne, mais Apple a accepté l’application concurrente Kindle.

Mais cette fois-ci, le but n’est plus une histoire d’offrir une meilleure expérience. Le but est bel et bien de se garantir 30% de tous les revenus numériques des applications iOS. En business, on utilise l’analogie du rasoir (vendu à prix coûtant) et de la lame (vendue après coup, régulièrement et à forte marge). Jusqu’alors, pour Apple le matériel était la lame – d’où l’insistance de Steve Jobs à garder les morceaux de musique le moins cher possible au grand dam de l’industrie du disque. Il semble désormais qu’Apple veuille se faire de l’argent sur les lames ET sur le rasoir.

Retour de bâton

Apple semble avoir ici poussé le bouchon trop loin, d’autant plus que Google n’est pas loin derrière. Android possède déjà une bonne place sur le marché des smartphones. Si Google arrive à corriger le problème des ventes d’applications (les utilisateurs d’Android en achètent nettement moins que les possesseurs d’iPhone), des développeurs pourraient voir Android comme un nouvel Eldorado – sans les contraintes de Cupertino. Apple a une avance sur l’iPad, mais cela ne durera pas, d’autant plus que des tablettes Android font leur chemin.

Quoi qu’il en soit, Microsoft doit être vert de jalousie de ne pas pouvoir se prendre 30% sur tous les revenus numériques vendus sur Windows.

Baroud d’honneur pour Nokia

13 février 2011

Ce vendredi, Microsoft et Nokia ont annoncé un accord stratégique. Nokia compte désormais utiliser Windows Phone 7 pour quasiment tous ses smartphones, avec évidemment Bing comme moteur de recherche par défaut. Les deux compagnies comptent co-développer des smartphones « novateurs ».

L’accord vient à un moment où les deux compagnies sont en position difficile sur le marché du mobile. Symbian, le système d’exploitation mobile de Nokia, ne va nulle part comme l’a reconnu le PDG de la compagnie dans un mémo interne. Pareil pour MeeGo, son autre système d’exploitation développé en coopération avec Intel (qui du coup se retrouve sans quasiment aucune présence sur le marché). Microsoft, de son côté, essaie depuis des années de reprendre le devant sur le marché du mobile, sans succès. Windows Phone 7 a été un bide.

Marriage de convenance ? Pas complètement. Microsoft a nettement plus à gagner dans cette affaire. Cet accord est en effet tout bénéfices pour Redmond, car cela signifie plus de ventes de smartphones à base de Windows Phone 7 – une bonne nouvelle car les ventes décevantes de WP7 ont du refroidir ses partenaires existants. Nokia vend en effet encore beaucoup de smartphones, mêmes si la compagnie est en déclin. Qui plus est, Nokia va quasiment exclusivement utiliser Windows Phone 7, contrairement aux partenaires de Microsoft actuels qui ont utilisé les mêmes téléphones pour Android et pour WP7. Microsoft espère ainsi atteindre une masse suffisante pour que les ventes décollent.

Nokia, quant à lui, a choisi Windows Phone 7 plutôt qu’Android pour se différentier (il est cependant possible que le fait que son PDG soit un ancien de Microsoft a grandement influencé les décisions). Difficile en effet d’avoir un avantage compétitif face à la multitude de constructeurs Android. Certes, tout miser sur WP7 est un risque, mais pas forcément plus de que tout miser sur Symbian ou MeeGo. Mais même si cette stratégie est gagnante, ce sera Microsoft qui ramassera les gains. Car si les ventes de Windows Phone 7 décollent, on pourra parier que les autres constructeurs seront intéressés par le système d’exploitation de Microsoft, que ce dernier leur vendra avec joie. Au final, le constructeur finlandais reperdra sa différentiation.

Au bout du compte, Nokia doit accepter le fait qu’à moins d’avoir son propre système d’exploitation (option qui a échoué), les constructeurs de smartphones se différentient uniquement sur le matériel. D’un certain côté, choisir Android est moins risqué car de toute façon Nokia ne pourra pas se différentier sur l’OS. Ce qui ne devrait pourtant pas l’effrayer, car le constructeur finlandais était à la pointe du matériel il y a moins de 10 ans de cela.

En attendant, le constructeur ferait bien de sortir des smartphones WP7 le plus rapidement possible, car l’annonce indique clairement que Nokia ne voit pas de futur dans Symbian ou MeeGo – ce qui donne peu de motivation pour acheter un smartphone Nokia actuel.

Ken Olsen (1926 – 2011)

11 février 2011

Ken Olsen, le fondateur de Digital Equipment Corporation (DEC) s’est éteint dimanche dernier à l’âge de 84 ans.

Ken qui ? Fondateur de Digital quoi ? Pour les non-informaticiens comme pour les plus jeunes informaticiens, ces deux noms n’évoqueront probablement rien. C’est peut-être la raison pour laquelle la presse française a fait l’impasse sur ce décès. Google Actualité ne retourne qu’un seul article sur le sujet (la presse anglo-saxonne en parle cependant un peu plus)

Influence de Digital

DEC a pourtant grandement influencé l’informatique. La compagnie a été pendant un temps le 2e constructeur mondial d’ordinateur (même si loin derrière IBM). Elle a été l’un des pionniers des mini-ordinateurs, les premiers ordinateurs plus petits (et moins chers) que les mainframes. Les minis ont d’abord visé le marché universitaire où ils ont eu un grand succès. La gamme PDP de DEC (Programmed Data Processor) est une gamme mythique qui a influencé l’informatique entière de l’époque. Le tout premier jeu vidéo a été écrit sur un PDP1 (Spacewar en 1961). La première version d’Unix a été écrite sur un PDP7. Bill Gates a appris la programmation sur un PDP, tout comme la plupart des gens initiés à l’informatique avant l’apparition des micro-ordinateurs. Et plusieurs composants d’Internet a été développé sur des PDP.

DEC a également été à la pointe en termes de processeurs, avec le DEC Alpha, un processeur 64-bit dévoilé en 1992 et l’un des plus puissants de son temps. L’Alpha a été la puissance derrière AltaVista, le moteur de recherche Web de Digital (qui lui aussi a périclité). Finalement, des anciens de DEC ont à leur tour influencé l’informatique comme Dave Cuttler, architecte du système d’exploitation VMS, qui a été débauché par Microsoft pour être l’architecte de Windows NT.

Puis le déclin

Si la compagnie est apparue grâce à une technologie disruptive (les minis), elle a été également mordu la poussière à cause de la technologie disruptive suivante, à savoir la micro-informatique (c’est-à-dire le PC). Et DEC étant une compagnie d’ingénieurs, elle a gardée sa culture d’ingénieur et est restée à vendre du matériel sans vouloir se diversifier sur le service comme l’ont fait IBM ou Oracle. En 1981, Olsen a démonté un IBM PC et a trouvé que ce dernier était si mal conçu que Digital n’avait pas grand chose à craindre. Olsen est également connu pour sa tristement célèbre citation de 1977 : « Il n’y a aucune raison pour aucun individu de posséder un ordinateur à la maison. »

C’était le temps où les constructeurs d’ordinateurs ne regardaient que l’aspect performance des ordinateurs. Pas seulement DEC mais Apple, Commodore, Atari et bien d’autres. La compatibilité logicielle n’était pas aussi importante.

Difficile de tenir la distance

L’informatique évoluant très vite, il est très difficile pour une compagnie de rester un géant sur le long terme. Le géant d’hier peut être inconnu 30 ans plus tard. Dans les années, 80 DEC était au sommet. Les premières difficultés sont arrivées au début des années 90, avec le départ (forcé) de Ken Olsen de la direction en 1992, suivit d’un rachat catastrophique par Compaq en 1998. 20 ans après son apogée, DEC n’est plus présent que dans les manuels d’histoire.

Et peu des géants de l’informatique actuels sont à l’abri. Qui sait, dans 30 ans, les gens diront peut-être « Google quoi? » ou « Facebook qui? » Car si les géants informatiques actuels doivent leur succès à de nombreux facteurs (la chance, une meilleure direction, etc.), leur vision n’a souvent été due qu’à une seule idée alors jugée novatrice (même si parfois partagée par d’autres startups):

  • Bill Gates et Paul Allen ont été avec Microsoft les pionniers de la notion d’éditeur de logiciel sur le marché tout nouveau de la micro-informatique. En d’autres termes, une compagnie spécialisée dans l’écriture de logiciels génériques pour micro-ordinateurs, à une époque où les constructeurs d’ordinateurs écrivaient eux-mêmes leurs logiciels.
  • Oracle a été un des pionniers des bases de données relationnelles, jugée alors peu fiable par les SGBD de l’époque.
  • Google était à l’origine un projet de thèse de Larry Page à Stanford dont le but était de trouver un modèle mathématique du Web. Partant de l’idée de départ de voir si une page Web était référencée souvent, Page a retourné le modèle en regardant quelles pages étaient le plus référencées. Ceci a été la base du moteur de recherche actuel. Depuis, Google a certes conçus d’autres produits et services qui ont eu du succès (Google Maps, Gmail, Android), mais aucun n’a pour l’instant dégagé grand revenu. Et dans le cas d’Android, Google a simplement cherché à imiter l’iPhone en reprenant le modèle d’intégration horizontal de Microsoft.
  • Mark Zuckerberg, le fondateur de Facebook a eu l’idée de créer un annuaire des élèves en ligne et de permettre aux utilisateurs de garder contact avec leurs connexions (Facebook désigne l’annuaire des élèves dans les écoles américaines)

Et c’est sans compter de nombreuses anciens géants qui ont été battis sur une seule idée et qui ont depuis mordu la poussière : Commodore, WordPerfect, Sun, Sybase, Netscape, Yahoo et bien d’autres.

Quelques exceptions existent cependant. Apple tout d’abord, qui a eu plusieurs idées visionnaires au cours de son existence. L’idée en 1976 de construire des micro-ordinateurs à une époque où personne ne savait exactement à quoi ils pourraient servir. L’idée ensuite de s’attaquer au marché de l’informatique mobile grand public avec l’iPod puis l’iPhone, à une époque où ce marché était orienté professionnel.

Un autre exemple est Hewlett-Packard. La compagnie a été créée par Dave Packard et Bill Hewlett non pas parce qu’ils avaient une vision mais parce qu’ils voulaient travailler ensemble dans le domaine de l’électronique (la spécialité des deux fondateurs). Cette caractéristique a permit à HP de ne pas s’enraciner sur un marché spécifique, et ainsi de ne pas mettre tous ses oeufs dans un même panier. Les divisions Laserjet et Deskjet ont ainsi sauvé la mise à la compagnie lorsque les divisions vendant des ordinateurs not décliné.

Mais parmi les géants qui se sont battis sur une seule idée, ceux qui ont le meilleur sens des affaires ont un meilleur avenir. IBM et Oracle ont développé leur activité service pour complémenter leur offre initiale – une bonne chose pour IBM sachant que le marché des ordinateurs n’est plus aussi porteur qu’auparavant. Microsoft ayant une idée de départ relativement générique (être spécialisé dans le logiciel), il a su saisir les occasions lorsqu’elles se sont présentées même s’ils n’étaient au départ intéressés, comme pour le marché du système d’exploitation (sa première vache à lait), Microsoft a par la suite conquis en toute connaissance de cause sa deuxième vache à lait (les suites bureautiques) mais uniquement après le tableur et le traitement de texte se soient révélés être des killer apps. Mais même Redmond peine depuis 10 ans à trouver une autre source de revenus.

Restent des compagnies comme Google ou Facebook, qui comme Digital sont grandement des compagnies à forte culture d’ingénieur. Ces compagnies n’ont qu’une seule source de revenus. Google a accomplit l’exploit de devenir un poids lourd sur le marché de l’informatique mobile avec Android, mais ce dernier ne permet pas encore de compléter les revenus de son moteur de recherche.

Sur tous les géants actuels, il est fort probable que plusieurs aient disparus dans 30 ans et soient oubliées des générations futures. Allez par contre deviner lesquelles…

Google accuse Bing de plagiat

4 février 2011

Google vient d’accuser Bing de plagiat. La compagnie de Mountain View en veut pour preuve d’avoir planté certaines résultats bidon dans son moteur de recherche lorsque l’on entre certaines recherches spécifiques – résultats qui se sont retrouvés sur Bing.

Microsoft nie tout plagiat, bien sûr. Le géant de Redmond reconnait utiliser certaines techniques pour améliorer les statistiques, comme analyser les clics des utilisateurs sous Internet Explorer, que ce soit sur Bing ou Google.

Les avis sont partagés sur le Web quant à savoir s’il s’agit de plagiat ou d’autre chose. Mais si Microsoft n’est pas content d’un procès de fausse intention, il n’a qu’à s’en prendre à lui-même. Ses actions passées n’aident en effet pas à croire de la bonne foi de Redmond. Pendant son procès contre le département de la justice américaine, la firme de Bill Gates s’est fait prendre la main dans le sac à présenter comme « preuve » une vidéo truquée. Son excuse a été qu’ils étaient « meilleurs à faire des logiciels qu’à faire des vidéos ». Avant cela, la compagnie Stac Electronics a accusé en 1993 Microsoft d’avoir copié purement et simplement son logiciel de compression de disque nommé Stacker et de l’avoir intégré dans MS-DOS 6 sous le nom DoubleSpace – ironique quand on sait que Microsoft s’est toujours plaint du piratage. Stac Electronics a prouvé ses dires et a gagné son procès, mais Microsoft ne s’est pas excusé. Au contraire, il a contre-attaqué Stac pour avoir fait du reverse engineering sur MS-DOS.

Dans les deux cas, bienque Microsoft ait été pris la main dans le sac, la compagnie a toujours clamé son innocence. Et je suis persuadé que Microsoft a sincèrement pensé ne pas être en tort. Pour ce qui est des accusations de Google, même si elles sont fondées, on peut douter que Microsoft admette tout méfait.

Implications

Il a été établi que certains résultats retournés par Google influencent les résultats retournés par Bing. La question que personne ne sait avec certitude est dans quelle mesure. Microsoft affirme qu’il ne s’agit que l’un des nombreuses manières d’optimiser Bing, mais quelle poids à cette manière ? D’un point de vue relation publique, Microsoft ferait bien de ne plus s’inspirer des résultats de Google pour optimiser son moteur de recherche -surtout si cette méthode n’a pas grande influence comme l’affirme Redmond. Mais je ne suis pas convaincu que la firme de Steve Ballmer change ses méthodes à moins qu’un juge ne la contraigne.

D’un certain côté, cela montre que Microsoft ne cherche pas à se différentier sur le produit même mais sur d’autres critères. Si au départ Bing a affirmé vouloir être plus qu’un moteur de recherche mais un « moteur décisionnel », force est de constater que le service de Microsoft n’apporte pas grand chose de plus que Google. Et s’il était réellement un « moteur décisionnel », il n’aurait pas besoin de voir ce que retourne Google.

Rien de bien nouveau cependant. Après tout, Microsoft a racheté SQL Server à Sybase sans racheter la compagnie même. Cela veut dire que pendant un temps ils étaient en concurrence directe contre Sybase avec un produit quasiment identique – ce qui n’a pas empêché Microsoft de gagner la partie.

Qu’a fait Microsoft pour promouvoir Bing face à Google ? Comme d’habitude, sa stratégie repose sur trois principes :

  1. Se baser sur ses propres produits : Internet Explorer, Windows 7 et tous les produits en ligne de Microsoft poussent fortement l’utilisation de Bing.
  2. Passer le plus de partenariats possibles : cela a commencé avec Yahoo qui utilise désormais Bing comme moteur de recherche. De la même manière, Facebook utilise le service de Microsoft comme moteur de recherche Web. Il n’est pas dit que beaucoup de gens utilisent Bing de cette manière, mais cela permet au moins de familiariser les internautes avec le nom. Finalement, Microsoft a payé certains opérateurs mobiles pour qu’ils changent le moteur de recherche par défaut de… leurs smartphones Android !
  3. Lancer une grande campagne marketing. Là-dessus, Microsoft n’a pas lésiné sur les moyens, avec énormément de publicités en ligne comme à la télévision.

Dans un de ses articles, John Dvorak pense que Microsoft ferait mieux de licencier Google et d’afficher quelque chose comme « Bing, powered by Google ». Sauf que ce n’est pas la manière d’opérer de Microsoft. Quand la compagnie a racheté SQL Server à Sybase, elle a avant tout racheté le code source pour une somme fixe, lui permettant de faire évoluer le produit de manière complètement autonome de Sybase. Licencier Google ne lui permettrait pas d’être autonome et impliquerait des paiements réguliers.

Mais un argument de Microsoft fait cependant mouche : Google a lancé cette accusation car il a peur de la montée en puissance de Bing. Et il y a de quoi. Si les progrès de Microsoft sont encore modestes sur ce marché, Redmond semble avoir repris du poil de la bête. On parle bien plus de Bing que de Windows Live Search.

A Google de se débrouiller pour innover et laisser Bing loin derrière… s’ils peuvent.