Archive for the ‘Prédictions’ category

« Prédictions » sur les mobiles

1 avril 2011

Deux « prédictions » sur l’informatique ont fait couler de l’encre ces derniers jours.

Tout d’abord, celle d’IDC qui prévoit qu’en 2015, Microsoft aura dépassé Apple sur le marché des smartphones avec 20,9% du marché, occupant la 2e position derrière Android (45,4%) et devançant Apple (15,3%) et BlackBerry (13,7%). IDC se base sur l’accord entre Nokia et Microsoft, prédisant que ce dernier va capturer l’ensemble du marché actuellement occupé par Symbian.

L’autre prédiction provient d’Andy Lark, responsable marketing pour grosses entreprises de Dell. Dans une interview à CIO Australia, Lark prédit que l’iPad sera un échec en entreprise, dit que « Apple est super si on a beaucoup d’argent et que l’on vit sur une ile. Mais ce n’est pas si super lorsque l’on doit exister dans un monde connecté, ouvert et hétérogène. » Il affirme qu’un iPad avec un clavier, une souris et une couverture coûte dans les $1500-$1600, un prix qu’il juge trop élevé.

Prédiction IDC

La prédiction d’IDC a bien évidemment surpris tout le monde. Personnellement, j’admire la précision des chiffres pour une prédiction à long terme (4 ans, c’est très long en informatique). Android aura 45,4% du marché, Microsoft aura 20,9% du marché. Pas 20,8 ou 30%, mais 20,9%.

Le problème de cette prévision est qu’elle se base sur trop de certitudes gratuites et ignore trop d’incertitudes. Windows Phone 7 a par exemple été lancé en grandes pompes l’année dernière à grand renfort d’une campagne marketing musclée, mais pour l’instant reste un bide. Qu’est-ce qui fait croire que l’accord avec Nokia va changer les choses ? S’il est illusoire de compter Microsoft comme définitivement battu, affirmer qu’ils vont s’accaparer le marché occupé par Symbian est tout sauf gagné.

Qui plus est, il peut se passer beaucoup d’imprévus d’ici à 2015. De la même manière qu’Apple a prit tout le monde de court en dévoilant l’iPhone, de nouveaux concurrents peuvent arriver, comme Sony dont la PSP est concurrencée par les smartphones. Des compagnies peuvent commettre des erreurs qui les handicapent. Android peut être victime d’une offre fragmentée. Windows Phone 7 n’est pas à l’abri d’une débâcle à la Windows Vista. Apple peut pousser le bouchon trop loin dans son contrôle, etc.

Prédiction Dell

Les prédictions d’Andy Lark ne sont pas surprenantes. Tout d’abord, on voit mal Dell publiquement prédire qu’un concurrent va garder son leadership. Qui plus est, en tant que responsable marketing focalisé sur les grandes entreprises, il voit le monde comme il veut le voir, c’est-à-dire sous l’angle du marché d’entreprise.

De fait, Steve Jobs n’a jamais été intéressé par ce marché. Mais force est de constater que l’iPad a déjà fait son apparition en entreprise, même si cela reste à petite échelle. C’est tout de même une belle prouesse pour un appareil qui est orienté grand public et en considérant le peu d’efforts qu’Apple déploie pour être en entreprise.

Mais là où Lark se ridiculise est concernant sa critique du prix de l’iPad. Personne ne comprend où il a sorti sa fourchette de $1500-$1600. Les produits Apple ont certes la réputation d’être cher, mais s’il existe un produit Apple pour lequel on ne peut pas critiquer le prix c’est bien l’iPad. Jusqu’alors, aucun concurrent n’a réussi à fournir une offre moins chère à caractéristiques égales… Dell inclut ! Le Dell Streak 7 coûte en effet $450. Certes moins cher qu’un iPad mais avec un écran de seulement 7 pouces (curieusement, le Dell Streak 5 avec un écran 5″ coûte $550) Et alors que Lark critique un iPad soi-disant à $1500, il oublie que Dell vend des tablettes PC sous Windows et processeurs Intel (la gamme Motion Computing) qui coûtent de $2700 à $3100. M. Lark ferait bien de se renseigner avant de débiter de telles âneries.

Mais le point le plus intéressant est quand Lark dit que « Dell a considéré avec soin son approche vers le marché des tablettes, compte tenu que la vaste majorité de nos revenus ne proviennent pas du grand public. » En d’autres termes, Dell voit avant tout l’informatique comme un marché pour professionnel et non comme un marché grand public. Le risque est donc de tomber dans le piège de trop écouter ses clients. Microsoft a commit une telle erreur pendant près de 10 ans : demander à ses clients d’entreprise ce qu’ils voudraient, répondre à leurs demande, le tout pour voir des résultats frustrants et rester derrière Blackberry puis Apple et même Google.

Apple et les systèmes fermés

Les deux prédictions ont cependant une critique commune à Apple : son univers fermé. C’est certes un handicap, mais pas forcément insurmontable. Tout d’abord, le fait de contrôler les applications disponibles sur iOS ne semble pas avoir perturbé l’iPhone et l’iPad outre mesure. Certains consommateurs (en particulier les moins techniques) n’y voient aucun problème, au contraire.

Et il faut se rappeler que malgré qu’il soit un univers fermé, le Mac réussi à avoir 10% du marché des ordinateurs de bureau et portables. Un marché où il est en fort désavantage car 1) les Macs sont bien plus chers que les PC et 2) la compatibilité avec Windows prime. Sur le marché de l’informatique mobile par contre, les produits Apple sont au même prix que la concurrence, et iOS tient le haut du pavé en termes d’applications. Finalement, Apple reste dans son élément tant que le marché de l’informatique mobile est principalement grand public – contrairement à Microsoft et Dell qui restent plus à l’aise sur le marché d’entreprise.

Je terminerais par une anecdote. Un collègue fidèle de Microsoft (il a acheté un PC sur Vista sans sourciller) n’avait aucun produit Apple il y a de ça 2 ans 1/2. Il est désormais sur le point d’avoir entièrement basculé. Il a commencé par un iPod classique il y a 2 ans 1/2. Puis il a acheté l’année dernière un iPad qu’il utilise au travail (étant souvent en meetings, il apprécie sa grande légèreté). Il vient récemment de s’acheter le dernier Macbook Air qui a remplacé son Eee PC Netbook pour les tâches plus complexes. Il avoue qu’il n’avait pas vraiment besoin d’un Macbook Air, mais est séduit par le design des machines. Et dans quelques mois, dés que son abonnement qui le lie à son Blackberry se termine, il compte acheter un iPhone. Et il a commandé l’iPad 2 qu’il attend avec impatience.

En d’autres termes, si Android semble bien placé pour garder son leadership, penser qu’Apple va stagner reste prématuré.

IA et robotique – Illustration

8 octobre 2010

Dans un précédent article IA et robotique je montrais comment les prédictions sur la robotique étaient souvent éloignées de la réalité.

Voici une autre illustration avec quelques planches d’Ortax le Robot, une BD parue en 1978. Cette obscure BD de science fiction, kitch à souhait, est caractéristique de son genre jusque dans les années 80.

L’action se passe en 2080, où les héros découvrent un robot vieux « d’au moins 100 ans ». On retrouve le thème de SF commun à l’époque : tout le monde est habillé de manière uniforme en combinaison spatiale, et toutes les combinaisons ont les mêmes motifs, quel que soit le sexe et l’âge. Les jeunes du futur ne sont pas rebelles et s’habillent comme leurs parents ! Socialement, c’est toujours les femmes qui dont les travaux ménagers (étonnant à une époque où le MLF était encore actif)

Du côté robotique, ce n’est guère mieux : Ortax a un look « fignolé » dans le pur style « plus kitch tu meures. » Le fait que les robots de 2080 refusent de faire des travaux ménagers est plus une excuse pour centrer l’histoire autour d’un robot de 1985 qui créé la sensation.

Ortax indique qu’il a été créé en 1985. En d’autres termes, l’auteur pensait qu’en 7 ans ont pourrait avoir des robots ménagers doués d’une certaine intelligence qui peuvent faire le ménage, la cuisine, etc. Pas de bol, 32 ans plus tard on n’est toujours pas là.

Les robots du futur, quant à eux, ont un look très semblable à celui d’Ortax. Très peu d’évolution de style en 100 ans.

Ortax le Robot n’a certes jamais eu la prétention d’être de la SF sérieuse, mais elle reste caractéristique de beaucoup de prédictions. Trop d’optimisme à court terme (des robots dans 7 ans), trop de pessimisme à long terme (les robots du futur n’ont pas beaucoup évolué voire ont reculé point de vue fonctionnalités), et un zéro pointé pour le style des robots comme la mode du futur.

Note pour les bédéphiles : cette BD a été éditée dans les colonnes de la revue Pistil (envoyez moi un email si vous connaissez). C’est dans cette revue qu’ont débuté des dessinateurs tels que Dodier, Makyo et Vicomte qui ont collaboré par la suite sur d’autres projets plus connus (Jérôme K. Jérôme Bloche, Grimion Gant de Cuir, Ballade au Bout du Monde, Gully)

IA et robotique

30 avril 2010

L’intelligence artificielle et la robotique ont depuis longtemps inspiré l’imagination des foules. Mais force est de constater que la fiction est souvent aux antipodes de la réalité.

L’ordinateur rebelle

Le concept de l’ordinateur rebelle reste puissant dans l’imagination populaire. « Rester maître du temps, et des ordinateurs » chante France Gall (on est maître du temps? Depuis quand?) Et le cinéma n’est pas en reste. Skynet de Terminator veut carrément supprimer l’humanité entière. Pareil pour la matrice du film Matrix. HAL de 2001: L’Odyssée de l’Espace reste sans doute le cas d’intelligence artificielle qui a le plus marqué les esprits. Et pour cause: c’est l’un des rares cas où le programme a une voix et une apparence – l’inquiétant œil rouge.

Dans la réalité, la seule « révolte » de l’ordinateur s’appelle le bug – et elle n’est même pas de sa faute. Et sa plus grande incarnation – le bug de l’an 2000 – a certes causé quelques problèmes (et beaucoup de frayeurs) mais n’a pas rayé l’humanité de la carte. Le bug a par contre toujours été une source de frustration constante chez les humains, et coûte fort cher.

En attendant, aucun programme n’a jamais réussi à passer le test de Turing sensé déterminer si un programme a atteint l’intelligence artificielle. Ce test se passe comme suit: un juge engage une conversation via un terminal avec un humain d’une part et un ordinateur d’autre part – sans savoir qui est qui. Si le juge n’arrive pas à déterminer qui est l’ordinateur et qui est l’humain, le logiciel a passé avec succès le test.

S’il existe une compagnie qui peut créer un programme qui a une chance de passer le test de Turing, je nommerais Google. Le géant de la recherche en ligne s’est en effet spécialisé dans l’analyse de très grandes quantités de données pour en dériver des résultats. Le service de traduction automatique de Google se base par exemple sur des millions de documents traduits par les Nations Unies plus que sur des règles grammaticales. Google pourrait donc créer un programme qui cherche une phrase similaire à celle du juge parmi de vastes quantités de données (comme les millions de forums sur le Web) et fournisse la réponse trouvée dans le document. Il faudrait peut-être améliorer l’algorithme, mais vous voyez le principe.

Mais si un tel programme passait le teste de Turing, cela veut-il dire que Google a créé un service intelligent? Pas sûr. Et il n’y a pas grand chose à craindre d’un tel programme.

Robots humanoïdes

RoombaMais les robots, du T-800 de Terminator (le véritable méchant du film, et non Skynet) à Bender de Futurama, ont bien plus captivé l’imagination que l’intelligence artificielle. Pas surprenant, un robot est beaucoup plus visuel qu’un logiciel.

Mais une fois de plus la fiction n’a pas grand chose à voir avec la réalité.

Une des obsessions a en effet d’imaginer des robots à forme humanoïde – en particulier dans les ouvrages de science fictions et illustrations diverses. Si c’est le cas de beaucoup des robots que l’on a construit, les robots construit à usage véritablement pratique sont eux tout sauf humanoïdes. A commencer par le robot ménager Roomba (voir illustration). Pareil pour les robots sur une chaîne de montage. Le cas de robot le plus « humain » à usage pratique est peut-être le BigDog de la startup BostonDynamics, un robot à usage militaire dont le but est d’accompagner les soldats partout où ils vont (voir vidéo ci-dessous)

L’obsession humanoïde est compréhensible, l’homme étant très égocentrique. Mais dans la réalité vouloir suivre un tel schéma est se compliquer la vie. Je ne suis pas un expert en anthropologie, mais j’ai cru comprendre que l’être humain se tient sur deux pattes pour mieux courir. L’homme est peut-être loin d’être l’animal le plus rapide à la course à pied, mais c’est celui qui a le plus d’endurance. Aucun autre animal ne peut courir les distances que l’homme peut parcourir. Une des raisons est que le fait de se tenir droit permet un meilleur refroidissement en cas d’effort prolongé.

Mais en termes de robotique ce détail n’a pas d’importance, et la modèle humanoïde possède des gros problèmes en termes d’équilibre. Les robots qui sont réellement utilisés sur le terrain ont quatre pattes et souvent des centres de gravités les plus bas possibles.

Fantasmes robotiques
Le fantasme de tomber amoureux d’un robot n’est pas nouveau. Asimov traite par exemple le sujet dans son livre « Les robots de l’aube » (1983). Dans son livre « Love and sex with robots » (2007) David Levy affirme qu’en 2050 il sera commun de tomber amoureux d’un robot voire d’en épouser un dans certaines parties du globe. On voit cependant une certaine constante: dans l’imagination populaire il semble que seules les femmes tombent amoureuses des robots – et uniquement les jolies filles. Les hommes eux utilisent les robots pour des raisons plus bassement physiques (Blade Runner étant une exception). Et dans aucun cas la fiction ne suggère que l’utilisation d’un robot est un acte désespéré.

Les illustrations, elles, ne manquent pas, comme celles ci-dessous de l’artiste Franz Steiner. Ici le robot a un design moderne. Il n’est ni métallique ni carré, mais possède des courbes lisses, une coque en plastique et un visage qui a une expression humaine.

Robot

Dans la réalité, des robots à consommation féminine existent depuis longtemps. Leur usage est cependant plus physique que sentimental, ils n’ont pas l’allure d’un robot et ne répliquent qu’une partie de l’anatomie humaine (je vous laisse deviner de quoi je parle). Un robot humanoïde à consommation masculine (et bientôt féminine) a par contre été annoncé en janvier 2010: le Roxxxy, sensé être un compagnon virtuel et être plus qu’une poupée gonflable améliorée. Si la compagnie affirme que le robot est doté d’une intelligence artificielle, elle emploie néanmoins le terme de « sex robot », laissant imaginer la principale utilisation du joujou.

Mais en terme de design, la grosse différence entre les illustrations de Franz Steiner (la fiction) et le Roxxxy (la réalité) est que ce dernier tente de ressembler le plus possible à un être humain, que ce soit visuellement comme au toucher. De fait, la version de Steiner ne semble pas très confortable pour les câlins.

Source de divergence

Pourquoi donc une telle divergence entre la fiction et la réalité? Parce que l’image de l’IA et de la robotique comme imaginées par la fiction produisent de meilleures histoires, tout simplement.

L’imagination populaire va plus être piquée par l’histoire d’un logiciel qui veut détruire l’humanité que d’un programme qui va se planter au mauvais moment ou faire perdre de grosses sommes d’argent. Que donnerait un film où le héros peut vaincre le grand méchant ordinateur simplement en le débranchant? De quoi auraient l’air les illustrations si les robots ressemblaient parfaitement à des humains?

Le reigne du 64-bit

6 novembre 2009

Le passage au 64-bit s’est sérieusement accéléré depuis quelques années.

Les machines 64-bits ne sont pas nouvelles, mais elles ont historiquement été réservées aux serveurs haut de gamme. Le changement côté client s’est fait très discrètement. Depuis quelques années, Microsoft pousse la version 64-bit de son système d’exploitation. Sur les PCs de bureau et portables haut de gamme il est en effet impossible d’obtenir une version de Windows autre que 64-bit. Apple, de son côté, a il y a quelques mois sorti Mac OS X 10.6 « Snow Leopard » qui est la première version 64-bit.

D’où la question que l’on peut se poser: quand va-t-on voir des machines 128 bits?

Regard technique

(Cette section étant relativement technique, les technophobes pourront sauter directement à la conclusion)

On peut se poser la question sur la durée du 64-bit lorsqu’on regarde l’évolution des processeurs.

Très schématiquement, les ordinateurs 8-bit ont démarré dans les années 70 (Apple II, Commodore 64, Sinclair ZX-81). Les ordinateurs 16 bit ont décollé dans les années 80: l’IBM PC AT ainsi que le Macintosh sont sorti en 1984, l’Atari ST et l’Amiga en 1985. Les ordinateurs 32 bits ont décollé dans les années 90 avec les PC à base d’Intel 80386, i486 et Pentium. Les ordinateurs 64-bit, quant à eux, se sont démocratisés cette décennie. On pourrait donc penser que la prochaine décennie va voir le jour des ordinateurs 128-bit.

Pas si vite.

Il existe deux raisons de changer de type de processeur: la capacité de traitement et l’adressage. Un processeur 64-bit peut théoriquement traiter deux fois plus de nombres par cycle qu’un processeur 32-bit – j’insiste sur le « théoriquement » car c’est uniquement si les applications sont optimisées pour ça.

L’autre raison est l’adressage, c’est-à-dire le maximum de mémoire que le processeur / le système d’exploitation et/ou les programmes peuvent gérer. Un processeur 32-bit peut avoir un maximum de 4Go de RAM, ce qui peut devient de plus en plus petit. C’est la principale raison du passage au 64-bit.

Ouverture d’une parenthèse: certains processeurs ne peuvent pas supporter autant de mémoire que théoriquement prévu. Par exemple, l’Intel Core i5 ne supporte qu’un maximum de 16 Go de RAM (l’équivalent de 36-bit), mais est considéré comme un processeur 64-bit dans la mesure où ses registres mémoire sont 64-bit et il supporte les systèmes d’exploitations et applications écrites en 64-bit. Son bus mémoire externe est par contre plus limité. A l’inverse, certaines machines comme le Commodore 128 ou l’Amstrad CPC 6128 (1985) utilisaient un processeur à adressage 16-bit mais étaient livrés avec 128 Ko de mémoire (l’équivalent de 17-bit). Cela n’a cependant été possible que grâce à une bidouille – le processeur continuant à croire qu’il avait 64 Ko de RAM. Fin de la parenthèse.

Or, si l’on regarde bien, l’évolution de la consommation de la mémoire n’est pas si drastique que cela. Les processeurs dits 8-bit, s’ils ne pouvaient pas traiter des nombres plus grand que 255 (2 puissance 8 = 256), avaient en effet un adressage 16-bit leur permettant de gérer jusqu’à 64Ko de RAM (2 puissance 16). Les processeurs 16-bit comme le 80286 (PC AT)  avaient un adressage 24-bit leur permettant d’avoir jusqu’à 16 Mo de RAM (2 puissance 24). Le processeur 68000 (qui a équipé les premiers Macs, l’Atari ST et l’Amiga) était considéré comme un processeur 16/32, c’est-à-dire qu’il supportait des applications à adressage 32-bit.

Les processeurs 32-bit ont eux une capacité de traitement et d’adressage 32-bit et peuvent avoir jusqu’à 4Go de RAM. Les processeurs 64-bit ont un adressage 64-bit et peuvent avoir jusqu’à 16 milliards de Go de RAM (théorique – aucun processeur grand public actuel ne permet à ma connaissance de gérer autant de mémoire)

Lorsqu’on considère l’évolution sous cet angle, ont observe une envolée de l’adressage théorique par rapport aux besoins. Pendant longtemps on a rallongé l’adressage de 8 bits (de 16 à 24, puis de 24 à 32). Mais avec le 64-bit on rallonge l’adressage de pas moins de 32 bits!

En d’autres termes, dans les années 70 les besoins d’adressages étaient plus difficiles à satisfaire que les besoins de calcul. Les premiers programmeurs comme Steve Wozniak (concepteur de l’Apple I et II) ont pu s’accommoder de processeurs ne pouvant pas traiter des entiers plus grand que 255 (encore que, la programmation du 6502 m’a personnellement dégoûté de l’assembleur pendant 20 ans). Mais ils n’auraient pu construire des machines avec seulement 256 octets de mémoire (même le Sinclair ZX-81, considéré comme la 2 CV de son époque, était livré avec 1 Ko de mémoire, mise à jour de 16 Ko fortement recommandée). D’où le besoin d’un adressage 16-bit.

30 ans plus tard, les besoins en calcul sont devenus plus difficiles à satisfaire que les besoins en adressage. Si les processeurs des PC ont rarement un tel besoin de calcul, on utilise des processeurs 128-bit pour des processeurs graphiques ou supercalculateurs. Le processeur Emotion Engine qui équipe les PlayStation 2 et certaines PlayStation 3 possède des registres de calcul 128-bit mais garde un adressage 64-bit.

Risque-t-on d’avoir besoins de processeurs 128-bit dans nos PC pour des raisons de calcul? Peu de chance, dans la mesure où 1) le gros des calculs est fait par des processeurs spécialisés comme le processeur graphique et 2) les processeurs 64-bit continuent à augmenter en performances sans pour autant avoir besoin de passer au 128-bit.

Conclusion

Un Apple II (machine 8-bit, 1977) pouvait avoir un maximum de 64Ko de RAM. Un PC à base de 80286 (machine 16-bit, 1984) pouvait avoir un maximum de 16 Mo de mémoire, soit 256 fois plus. Un PC à base de 80386 / i486 ou Pentium (machine 32-bit) pouvait avoir un maximum de 4 Go de mémoire, soit encore 256 fois plus.

Mais un PC actuel ou les derniers iMac (64-bit) font tourner des systèmes d’exploitation qui peuvent supporter jusqu’à 16 milliards de Go – soit 4 milliards de fois plus qu’une machine 32-bit. Même si l’on parlait en terme de capacité de disque dur cela resterait énorme.

On ne peut jamais rien prédire avec certitude, mais à moins que les particuliers aient soudain besoin d’une application qui fait exploser le besoin en mémoire, le passage au 128-bit n’est pas pour demain – ni même pour la prochaine décennie.

En quoi est-ce que cela nous concerne? Outre le fait que chaque passage à une nouvelle génération de système d’exploitation consomme plus de ressources (un don du ciel pour les fabricants de PC), c’est un autre signe que l’ordinateur de bureau commence petit à petit à offrir plus que ce que la demande a besoin.

Pendant longtemps les disques durs n’avaient jamais assez de place. On achetait des disques durs avec toujours plus de capacités mais on les remplissait tout aussi rapidement. De nos jours, seuls les gens qui stockent beaucoup de vidéos n’ont pas assez de place sur leur disque dur. La plupart d’entre nous n’a plus jamais à regarder combien il existe de place libre.

En d’autres termes, les capacités offertes par les disques durs ont commencé à dépasser les besoins de la demande. Le même phénomène vient d’arriver pour les capacités de mémoire théoriques – pas la quantité de mémoire que nos ordinateurs ont, mais la quantité que leur processeur et système d’exploitation peut gérer.

En 1981, Bill Gates avait affirmé que 640 Kb – la limite de ce que pouvait supporter MS-DOS – serait bien suffisant (les premiers PC étaient livrés avec 16 Ko ou 64 Ko de RAM suivant les modèles). On s’est rapidement aperçu que 640 Ko ne serait pas suffisant bien longtemps. 10 ans plus tard, un maximum de 4 Go semblait énorme (à l’époque, les PC haut de gamme avaient 8 Mo de RAM). Là encore, on a fini par atteindre ce seuil. Mais cette fois-ci, cela prendra un peu plus de temps pour dépasser les capacités du 64-bit.

Comment la technologie influence la chaine de valeur ajoutée

30 octobre 2009

Pourquoi est-ce Microsoft et Intel qui ont récolté les fruits du PC et non IBM? Ce dernier a pourtant créé le PC. Qui plus est, jusqu’alors, l’argent avait toujours été dans le matériel. Que s’est-il passé?

Pour mieux comprendre, il faut analyser la chaîne de valeur ajoutée du PC. Car l’évolution des technologies a eu une influence sur cette chaîne, et par conséquent a parfois bouleversé des marchés.

Un ordinateur comme le PC n’est pas entièrement fabriqué par une seule compagnie, mais fait partie d’une chaîne dite de valeur ajoutée. Les assembleurs de PC tels que Dell, HP et autres Lenovo assemblent en effet plusieurs composants provenant de fournisseurs tiers: le système d’exploitation à Microsoft, le processeur central à Intel ou AMD, le disque dur chez Western Digital / Seagate / Hitashi / …, etc. Ces vendeurs eux-même commandent à des fournisseurs (du moins dans le cas de composants physiques). Un fabricant de carte graphique va acheter le processeur graphique auprès d’un vendeur spécialisé, qui lui-même aura ses propres fournisseurs. A l’autre bout de la chaîne, les fabricants de PC vendent rarement en direct. Ils passent par des distributeurs comme la Fnac, Carrefour ou, pour leur clientèle professionnelle, par des sociétés de service.

Chaque élément de cette chaîne est un marché en lui-même. Western Digital se bat pour avoir la plus grande part de marché des ventes de disques durs. La Fnac se bat avec Carrefour pour être le lieu où les consommateurs iront faire leurs achats. Microsoft, quant à lui, jouit d’un quasi-monopole sur le marché du système d’exploitation.

Face à cette chaîne de valeur ajoutée, le consommateur se trouve devant une multitude de choix. Quel type de disque dur choisir? Quel processeur? Quel fabricant de PC? Dans quel magasin acheter? Dans les faits, les consommateurs ne vont faire qu’un ou deux choix, et laisser ces derniers dicter le reste de leurs décisions.

A l’heure actuelle, la plupart des consommateurs veulent une machine sous Windows (s’ils préfèrent Mac OS X, le choix est tout de suite beaucoup plus simple). Microsoft a un tel monopole que pour beaucoup de monde le système d’exploitation n’est même pas un choix mais une évidence.

Certains consommateurs choisiront ensuite la marque du PC se basant sur divers critères (meilleure qualité/prix, service, facilité d’achat en ligne, réputation, influence de la publicité) et trouver le premier magasin où acheter cette marque. D’autres au contraire se fichent de la marque et iront à leur magasin préféré acheter l’ordinateur que le vendeur leur conseillera.

Le besoin de se différentier

Le consommateur cherche au bout du compte les composants qui ont le plus d’influence sur le produit final. Ce seront les vendeurs de ces composants qui toucheront le jackpot et qui imposeront leurs conditions au reste de la chaîne.

Pour les vendeurs de la chaîne de valeur ajoutée, l’aspect différentiateur est donc clé pour avoir une influence sur le client final. Le fait qu’un disque dur provienne de Western Digital ou de Seagate n’aura que peu d’influence sur l’ordinateur car l’utilisateur a peu de chance de remarquer une différence. Par contre, il verra tout de suite la différence si le PC est livré avec Windows ou avec Linux. Le problème des fabricants de disques durs n’est pas qu’ils n’offrent que peu de valeur ajoutée. Contrôler une tête de lecture plus petite qu’un grain de poussière pour lire l’information sur des plateaux tournant à plus de 7000 tours / minute n’est pas une mince affaire. Mais un disque de 500 Go à 7200 t/min reste un disque de 500 Go à 7200 t/min, quelle que soit la marque. L’aspect différentiateur n’est qu’une histoire de quantification (capacité, tours/min, prix). C’est pour ça que les prix des disques durs ne cessent de chuter – malgré des performances de plus en plus grandes – et que les vendeurs se font dans les 10% de marge. A comparer avec Microsoft qui vend Windows au prix fort et jouit de marges dépassant 80%.

L’évolution technologique

IBM a grandi à une époque où c’était le matériel qui dirigeait tout. Mais la technologie évolue sans cesse, et il arrive que certains événements changent la décision d’achat, bouleversant ainsi l’équilibre des pouvoirs:

  • L’arrivée de standards: les standards sont fort pratiques pour les consommateurs car une seule décision (le choix du standard) implique plusieurs décisions implicites. Lorsque les consommateurs ont choisi VHS au dépend de Betamax ou V2000, ils ont choisi un standard de magnétoscope avant de choisir la marque – se simplifiant du coup la vie. L’inconvénient pour les vendeurs est qu’un standard diminue leur aspect différentiateur. Parfois même un standard peut sérieusement diminuer la valeur ajoutée. Le « standard » du PC (c’est-à-dire les standards qui régissent les interactions entre ses différents composants) ont transformé les constructeurs d’ordinateurs en de simples assembleurs (voir Intégration verticale contre intégration horizontale)
  • La spécialisation: certains maillons de la chaîne se scindent. Le PC est bien entendu un exemple, mais il en existe d’autres. Si plusieurs des premiers constructeurs de cartes graphiques pour PC concevaient également les processeurs graphiques – le canadien Matrox est l’exemple type – il y a rapidement eu une spécialisation avec d’un côté les fabricants de cartes graphiques et de l’autre les fabricants des processeurs graphiques utilisés par lesdites cartes.
  • L’offre dépasse la demande: les besoins du consommateur augmentent constamment, mais les performances et fonctionnalités offertes augmentent également, et ce à un plus grand rythme. A tel point qu’il existe un seuil au-delà duquel les produits offrent plus de performances et/ou de fonctionnalités que n’ont besoin la majorité des utilisateurs. Il existe certes certains utilisateurs aux besoins très pointus, mais ils ne sont qu’une minorité. Par exemple, jusqu’à il y a quelques années, on n’avait jamais trop d’espace disque sur son ordinateur de bureau. Cette ère est désormais révolue. De moins en moins d’utilisateurs se soucient de la place disque car n’arrivent plus à remplir 500 Go. De même, Microsoft se bat depuis plus de 10 ans pour convaincre les utilisateurs que sa prochaine version de Windows et de MS-Office vaut le coup d’être achetée.
  • Changements radicaux de besoins: à l’inverse de la dernière tendance, certaines nouvelles technologies changent radicalement les besoins en performances du consommateur en créant un nouveau type de besoin. S’ils s’étaient cantonnés à la 2-D, la course à la performance des consoles de jeux vidéos se serait arrêtée – l’offre en performance aurait dépassé la demande depuis longtemps. Mais l’avènement des jeux en 3-D a fait exploser la demande en puissance de calcul – demande qui n’est elle pas près d’être rassasiée.
  • Un élément de la chaîne peut être remplacé. C’est comme ça que Dell a utilisé le téléphone puis Internet pour remplacer le réseau de distribution traditionnel. Plus généralement, Internet a bouleversé plusieurs chaînes de valeur ajoutée. C’est ainsi que plus aucun particulier n’utilise Outlook pour gérer ses emails (il utilise Hotmail, Yahoo! Mail, Gmail et compagnie). L’implication est que les particuliers n’ont plus besoin de Windows pour leurs emails.

Que se passe-t-il lorsqu’un de ces facteurs se produit? Si l’un des éléments de la chaîne de valeur ajoutée perd de son importance, la décision d’achat se déplace le long de cette chaîne – le consommateur n’a plus besoin de considérer un élément pour son achat, il peut donc en choisir un autre.

La spécialisation des processeurs graphique a par exemple eu une grosse incidence sur le marché des cartes graphiques pour PC. Plus personne ne s’intéresse à la carte graphique – les vendeurs d’ordinateurs mettent désormais en avant le processeur graphique utilisé. Des marques de cartes graphiques naguère prestigieuses sont tombées dans l’oubli. Orchid et Hercules se sont fait racheter, Diamond a fusionné avec le fabricant de processeur graphique S3, et Matrox (qui a toujours conçu ses propres processeurs graphiques) se cantonne désormais à un marché de niche.

Un autre exemple est l’iPhone. Avant l’arrivée du smartphone d’Apple, les opérateurs mobiles dictaient leurs lois aux constructeurs de téléphones portables. Mais la firme de Steve Jobs a sorti un smartphone qui a généré tant d’enthousiasme qu’Apple a pu imposer ses conditions. Non seulement le logo de l’opérateur n’est quasiment pas visible sur un iPhone, mais Cupertino touche une partie des revenus des abonnements 3G. Du jamais vu! Mais d’après une étude récente, les 2/3 des nouveaux abonnés 3G d’AT&T aux Etats-Unis sont des possesseurs d’iPhone. Autant dire qu’AT&T a nettement plus besoin d’Apple que l’inverse.

Les besoins du consommateur

Pour savoir où se déplace la décision d’achat, il faut garder à l’esprit que le consommateur cherche la solution la plus à même de servir ses besoins. Un utilisateur de PC n’a techniquement pas besoin d’un ordinateur. Il a besoin de se connecter à Internet, d’éditer un document, de jouer, etc.

La pyramide de Maslow donne une hiérarchie des besoins humains. Il existe une telle hiérarchie technologique pour les utilisateurs:

  • Le premier besoin est celui des fonctionnalités. Les premiers traitements de texte et tableurs étaient rudimentaires, mais ils ont fait un tabac car ils offraient des possibilités jusque-là inédite. De même, l’arrivée du PC a brisé la valeur ajoutée des fabricants d’ordinateurs, poussant une partie de la décision d’achat en aval vers le système d’exploitation, plus proche des besoins réels des utilisateurs.
  • Vient ensuite un besoin de performances. Si un élément-clé de la chaîne perd de son importance, le besoin de performance pousse la décision d’achat en amont vers les sous-composants qui influencent le plus les performances. C’est ainsi que le PC a poussé une partie de la décision en aval vers les micro-processeurs (à une époque où ils influaient beaucoup sur les performances). De Même, la marque de la carte graphique n’importe plus beaucoup – c’est le processeur graphique qui compte.
  • Le troisième besoin est le besoin de facilité. Technophiles mis à parts, le consommateur cherche à se simplifier la vie. Une solution plus simple d’utilisation est attrayante. Ce besoin peut influencer l’aspect différentiateur (Apple pousse sur l’aspect « sans problème » du Mac), mais aussi pousser la décision en aval, auquel cas le consommateur se focalise sur l’aspect service. Depuis longtemps les entreprises choisissent leur fournisseur de PC en fonction du service fourni.
  • Le dernier facteur est le prix. Lorsqu’il ne reste plus d’autres manières de comparer, le prix est différentiateur. C’est là où en sont les fabricants de disque dur.

(mais il ne faut pas croire non plus que cette hiérarchie est 100% stricte. Elle peut en effet varier d’un consommateur à l’autre. Certains consommateurs sont ainsi très sensibles aux prix. Au contraires, d’autres auront un grand besoin de performance et seront près à mettre le prix qu’il faut)

C’est ainsi que Microsoft a su garder la décision d’achat au niveau des fonctionnalités (à savoir la logithèque). Il existe des systèmes d’exploitations plus performants, plus faciles d’accès et/ou moins cher que Windows, mais rien n’y a fait: les gens sont attachés à leurs logiciels sous Windows. La seule faille dans l’armure est Internet qui fournit certaines applications qui fonctionnent quel que soit le système d’exploitation.

L’iPhone a fait couler tant d’encre car il a offert un aspect fonctionnalité inédit. Aux Etats-Unis, les possesseurs d’iPhone acceptent de passer par AT&T (qui est l’opérateur mobile exclusif) malgré des prix élevés et un réseau 3G n’ayant pas bonne réputation. Le risque vient par contre des concurrents de l’iPhone qui commencent à devenir suffisamment bon pour éclipser la mystique de ce dernier – et parfois en proposant d’autres avantages comme un clavier physique. Si demain tous les smartphones ont les mêmes possibilités, les consommateurs se tourneront peut-être plus vers l’opérateur mobile qui a le meilleur réseau (et si tous ont les mêmes performances, le meilleur prix). Le joker d’Apple est cependant non pas les fonctionnalités de l’iPhone mais la logithèque et les périphériques de ce dernier.

Pour les jeux vidéos, le besoin en performances a souvent été important – du moment que le besoin en fonctionnalités est satisfait. Lorsque toutes les consoles ont les mêmes jeux – ou s’ils se ressemblent suffisamment – le consommateur va s’orienter vers la console qui fournit le plus de punch possible. Mais l’aspect fonctionnalité pointe le bout de son nez de temps en temps. Une grande partie du succès de la Xbox a en effet été due à son jeu-phare exclusif Halo. De même, Nintendo a coupé l’herbe sous le pied de Sony et Microsoft avec sa Wii. Alors que ses deux concurrents se battaient uniquement sur le terrain des performances, Nintendo a changé la donne en introduisant des nouveaux contrôleurs à mouvement. Les ventes de Wii ont écrasé les ventes de Xbox 360 et Playstation 3 malgré des performances inférieures.

Il existe également d’autres facteurs qui peuvent influencer le consommateur. Le facteur psychologique par exemple. Apple doit une partie de son succès au fait d’avoir une image de produits « cools ». Un autre facteur est la force de l’habitude. Extrêmement peu de particuliers n’utilisent ne serait-ce que le 10e des fonctionnalités de MS-Office ou MS-Works, mais la très grande majorité veut une suite bureautique Microsoft sur son PC – et est prête à payer pour ça. Il existe des alternatives gratuites tout aussi bonnes, mais l’inertie est importante.

Prédictions?

Si l’on peut relativement facilement identifier les raisons qui poussent à un changement sur la chaîne de valeur ajouté, cela ne veut pas dire pour autant qu’il est facile de prédire les futurs changements.

Il est parfois possible de prédire le type de changement – parfois. Prédire sa date est par contre quasiment impossible.

Lorsque la bataille entre le Blu-Ray et le HD-DVD a commencé, tout le monde savait qu’il ne resterait au bout du compte qu’un standard – le même scénario s’était déjà produit entre VHS et Betamax. Mais personne n’aurait pu prédire la date où un standard unique se dégagerait.

Certes, la loi de Moore permet de prédire les capacités et puissance de futurs processeurs, disques durs, etc. Cette loi, tout empirique qu’elle soit, peut donc être utilisée pour prédire le moment où l’offre dépassera la demande… mais c’est sans compter les changements radicaux de besoins.

L’avènement des jeux en 3-D est un exemple de changement radical de besoins. Mais les jeux en 3-D existent depuis très longtemps: Maze War (1974), BattleZone (1980), etc. Il a fallu des jeux comme Doom (1993) ou Toshinden (1994) pour populariser les jeux 3-D modernes. Mais ces jeux ont pris tout le monde par surprise car ils repoussaient les limites de ce qu’on pensait possible. Leur arrivée était grandement imprévisible.

Parfois même il arrive qu’un changement radical capote. C’est le cas de la réalité virtuelle. Très prometteuse pendant les années 90 – et qui aurait augmenté le besoin de puissance de calcul, cette technologie a cependant fait un flop et a complètement disparu.

Dans un autre domaine, les particuliers ne se soucient quasiment plus de la capacité de leur disque dur. Le seul changement possible est par la vidéo – ce n’est que s’ils commencent à stocker des films entiers sur leurs disques durs que les particuliers se retrouveront en demande de capacité. Mais cela se produira-t-il? Pour cela il faudra une solution simple (la vidéo à la demande en reste encore à ses balbutiements), ainsi que changer les habitudes – le consommateur aime avoir un support physique pour ses films. Cela peut arriver en un an comme dans des années si on assiste à une guerre des standards. Malheureusement pour les fabricants de disque dur, cela ne résoudra pas leur absence de différentiation.

Sur la singularité

12 juin 2009

Il y a eu récemment une résurgence des discussions sur la Singularité – le moment où les ordinateurs deviendront aussi puissant que le cerveau humain et nous seront intellectuellement supérieurs.

Je vais être honnête: je n’y crois pas – pas dans le futur immédiat du moins. D’ailleurs, la Singularité me rappelle le bide de la soi-disante « intelligence artificielle » des années 70 / 80.

Je ne suis pas sceptique parce que je pense que c’est impossible. La puissance des ordinateurs a de fait augmenté de manière exponentielle. Le Cray 2 était l’ordinateur le plus puissant du monde de 1985 à 1990 avec une puissance de 1,9 Gflops (milliards d’opérations à virgule flottante par seconde). La France n’en n’avait que deux (un détenu par l’EDF, et un par Polytechniques et utilisé par Météo France). 20 ans plus tard, un Intel Core 2 Duo E6700 que l’on trouve dans un ordinateur de bureau a une puissance de plus de 12 gigaflops. Si en 1950 quelqu’un avait prédit la puissance des ordinateurs de nos jours ainsi que leur application, il aurait été pris pour un fou.

Je suis sceptique de la Singularité comme présentée par ses promoteurs, et parce que je pense que leur modèle est fondamentalement erroné. Leur argument est le suivant: un ordinateur peut à l’heure actuelle simuler sans problème quelques neurones qui interagissent entre eux. En se basant sur la loi de Moore, on peut prédire la puissance future des ordinateurs  et ainsi déterminer la date où ils pourront simuler un cerveau humain entier. A tel point que certains pensent que la Singularité sera atteinte d’ici 10 à 20 ans.

Je vois cependant un défaut à cette théorie: le modèle utilisé est un modèle linéaire – la réalité l’est rarement. Connectez quelques neurones et vous obtenez un circuit électrique facile à émuler. Mais lorsque vous connectez des milliards de neurones – suffisamment pour en faire un cerveau – quelque chose de surprenant se produit: une conscience émerge. Appelez ça une âme, un esprit ou autre chose mais personne ne peut nier que quelque chose apparaît et qui a des sensations – et cette « chose »-là n’est prise en compte par aucun modèle informatique. Est-ce que la conscience est un effet dérivé de l’électricité? D’une réaction chimique? D’autre chose? A l’heure actuelle personne n’en n’a la moindre idée.

J’utiliserais un parallèle: les lois du mouvement de Newton ont été très utiles pour l’humanité – elles sont un des piliers de la mécanique moderne. Mais ces lois sont linéraires, et par conséquent affirment que l’on peut atteindre n’importe quelle vitesse pour peu que l’on fournisse l’énergie nécessaire. Nous savons désormais que la réalité est bien plus complexe – et certainement pas linéaire – et qu’à partir de 100.000 km/s ce modèle ne fonctionne plus. Nous devons utiliser un autre modèle: celui de la relativité d’Einstein.

Et quelque chose me dit que qu’il en est de même pour un réseau de neurones. A partir d’un certain moment, quelque chose se produit, et nous avons besoin d’un autre modèle. Tant que nous n’aurons pas trouvé un modèle pour la conscience, faire quelconque prédiction sur la singularité est aussi fiable qu’une prédiction météorologique un an à l’avance.

Et en parlant de météo, je terminerais par un autre exemple. Dans les années 50, Jon von Neumann pensait que les ordinateurs nous permettraient non seulement de prédire le temps mais également de le contrôler.  Son raisonnement était le suivant: tout système possède des points d’équilibre instables. On peut donc contrôler l’état d’un système en agissant sur ces points. Imaginez une balle en haut d’une colline: on peut la faire dévaler la colline dans la direction que l’on désire par une simple pichenette. Il suffisait simplement de calculer les points d’équilibre instables de l’atmosphère et le tour était joué. C’était juste une affaire de calculs. Sauf que le modèle de von Neumann était erroné car la réalité était plus complexe qu’envisagée: il n’avait en effet pas prévu que tous les points de l’atmosphère sont des points d’équilibre instables – le fameux effet papillon. 50 ans plus tard, malgré des ordinateurs plus puissants que von Neumann n’aurait jamais pu imaginer, on ne peut toujours pas prédire le temps à plus d’une semaine – encore moins de le contrôler. Juste une affaire de calculs, hein?

Et devinez quoi? « C’est juste une affaire de calculs » est exactement ce que les promoteurs de la Singularité nous disent. Se pourrait-il que la réalité soit plus complexe qu’ils ne croient?

La difficulté de prédire les évolutions technologiques

5 juin 2009

2007santa_smallsample

« Le père Noël en 2007. » Cette illustration d’un livre pour enfant publié en 1907 peut prêter à la rigolade. Mais même plus proche de nous les prédictions futuristes sont souvent comiques.

Prenez la plupart des descriptions de l’an 2000 datant des années 80. En l’an 2000 nous étions sensés tous avoir notre soucoupe volante personnelle et nous balader en combinaison spatiale. Les robots étaient sensés être intelligents, mais les écrans de télévision tout petit. Bien évidemment, pas d’Internet ni de téléphone cellulaire. Et quand une illustration montre quelqu’un utiliser un téléphone portable c’est bien souvent un gros talkie-walkie.

Autrement dit, des prédictions à 15-20 ans se sont révélées être à la fois beaucoup trop optimistes sur certains points (la soucoupe volante personnelle) et beaucoup trop pessimistes sur d’autres (Internet ou la puissance des ordinateurs).

Et même des experts se fourvoient. Je prendrais pour exemple l’éminent scientifique Lord Kelvin – après qui sont nommés les degrés Kelvin – qui a affirmé « une machine volante plus lourde que l’air est impossible. » Ou Thomas Watson Jr, PDG d’IBM qui en 1943 voyait « un marché mondial de 5 ordinateurs. »

Qu’est-ce qui rend si difficile de prédire les évolutions technologiques?

Difficulté d’estimer les performances

La première raison est que l’évolution d’une technologie est tout sauf linéaire. Un « produit » high-tech, qu’il s’agisse d’une fusée ou d’un ordinateur, dépend en effet de nombreuses technologies. Or toute technologie a une période de croissance mais à un moment où à un autre se heurte à un « mur technologique ».

Prenons l’exemple des fusées spatiales: depuis le lancement de Spoutnik en 1957 les fusées ont fait beaucoup de progrès. Mais la technologie reste fondamentalement la même: la propulsion s’effectue par un engin à réaction et la fusée essaie de se diriger du mieux qu’elle peut. Même après des décennies de progrès technologiques les fusées restent peu fiables et coûteuses (plusieurs milliers d’euros par Kg à envoyer dans l’espace). Avec la Navette Spatiale américaine, la NASA espérait diminuer le coût d’un vol spatial en réutilisant la navette, contrairement aux fusées qui sont perdues à chaque voyage. Mais on s’est vite aperçu que la maintenance nécessaire entre chaque vol était beaucoup plus importante que prévue. Au final, la navette spatiale coûte bien plus cher qu’une fusée traditionnelle.

Prenons maintenant l’exemple des ordinateurs. Inventés pendant la 2e guerre mondiale, ils se sont rapidement développés et étendus à d’autres secteurs au-delà des applications militaires. Les ordinateurs auraient eux aussi pu se heurter à un mur technologique, mais ils ont réussi à le percer grâce à deux inventions salvatrices: le transistor d’une part et le microprocesseur d’autre part. Ce sont ces inventions qui ont permit de se passer des lampes à vide, encombrantes et peu fiables. Sans ces deux inventions pas d’électronique, et sans électronique pas d’ordinateur moderne.

Mais cela ne veut pas dire que les ordinateurs ne vont pas se heurter à un mur eux aussi. La loi de Moore, loi empirique qui dit que la puissance des processeurs double tous les 18 mois, a perduré plus de temps qu’espéré (plus que Gordon Moore lui-même n’ait imaginé). Mais cela ne veut pas dire qu’elle va continuer éternellement. Par exemple, si la fréquence des processeurs de PC a explosé dans les années 90 (de quelques dizaines de MHz pour dépasser le seuil du GHz), elle n’a que très peu augmenté cette décennie pour plafonner vers les 3 GHz. Au-delà, la chaleur fait littéralement fondre le processeur. Peut-être arriverons-nous un jour à inventer un mécanisme de refroidissement à hélium pas cher et pratique… ou peut-être pas. En attendant on contourne le problème en utilisant la technologie multi-cœurs: les processeurs double voire quadruple cœurs. D’autres types de processeurs sont également à l’étude. Processeurs utilisant un rayon laser au lieu d’électricité (on évite les problèmes de chaleur) ou processeurs quantiques. Mais on est très loin d’une application industrielle.

Et en parlant d’ordinateur, il existe un autre domaine où les prédictions se sont fourvoyées: la programmation. On a eu beau inventer des langages de plus en plus avancés – parfois d’ailleurs trop complexes – la programmation reste fondamentalement la même qu’il y a 60 ans: jongler avec des valeurs numériques et tester ces valeurs. 60 ans plus tard les programmes sont toujours remplis de bugs, les gros projets informatiques sont toujours coûteux et toujours autant en retard. Les espoirs d’intelligence artificielle des années 70, quant à eux, se sont vites évaporés.

Difficulté de prédire l’utilisation

Mais au-delà des performances, l’utilisation que l’on va faire d’une technologie est un autre facteur qui fausse beaucoup de prédictions. Internet existe depuis des décennies, mais ce n’est que depuis l’arrivée du Web que le grand public l’a adopté en masse. Et même lors de l’explosion du Web personne n’a pu prédire la manière dont ce dernier serait utilisé.

Pour ce qui est des fusées, si elles n’ont pas permit à M. tout-le-monde de faire une promenade dans l’espace, elles ont eu des applications inattendues. Qui aurait pu prédire que les fusées seraient utilisées pour mettre en orbite des satellites qui guident les GPS dans nos voitures?

Parfois c’est l’utilisation d’une technologie même qui empêche son adoption. Si la soucoupe volante reste encore de la science fiction, comment se fait-il que nous n’ayons pas tous notre mini-hélicoptère personnel? On aurait pu penser que les hélicoptères se seraient démocratisés au fil des années, devenant de moins en moins cher pour finalement être accessible au grand public. Mais ce qui a bloqué l’hélicoptère est moins son prix que les contraintes qui vont avec. Outre le fait qu’un héliport prend nettement plus d’espace qu’une place de parking, piloter un hélicoptère est autre chose que conduire une voiture! Obtenir une licence coûte cher et demande d’y consacrer beaucoup de temps. Ensuite, imaginez si tout le monde avait un hélicoptère: ce serait le désastre dans les airs! Le trafic routier fait déjà beaucoup de morts sur les routes, un trafic aérien de masse serait un massacre, à la fois dans les airs et pour ceux en dessous.

Pour ce qui est de la programmation informatique, beaucoup des espoirs ont été annihilés par l’utilisation des logiciels. En particulier, l’un des plus grands espoirs de l’informatique a été la réutilisation de code, évitant de constamment réinventer – et débugger – la roue. Dans les années 80-90, l’avènement de la programmation objet a amené beaucoup d’experts à prédire « la fin de la programmation », pensant que l’avenir de la cette dernière ne serait qu’une question d’assemblage de briques. Fin des années 90, le CRM (Customer Relationship Management) était un buzzword à la mode, promettant aux grosses entreprises d’améliorer leurs relations avec leurs clients. A tel point que Nortel Networks a racheté en 1999 l’éditeur de CRM Clarify pour quelques 2,1 milliards de dollars.

Le grain de sable est venu de la manière dont on utilise les programmes. S’il existe de nombreux programmes génériques (de Windows aux navigateurs Web), dés que l’on passe aux besoins d’entreprise on s’aperçoit qu’il y a autant de besoins que d’entreprises. Imaginez que chaque maison ait besoin d’avoir des briques d’épaisseur et de taille différente. Cela compliquerait grandement la construction de briques. C’est un peu ce qui se passe en informatique d’entreprise: les besoins d’une compagnie sont très souvent presque identiques à ceux d’une autre, mais pas tout à fait, les deux compagnies étant organisées de manière différente. Les développeurs se sont aperçus que les « briques » informatiques ne collaient quasiment jamais à leur besoin, et qu’il était toujours plus difficile de réutiliser du code déjà écrit qu’initialement pensé. C’est pour cette raison que la fin de la programmation n’est toujours pas en vue. C’est également pour cette raison que les projets de CRM se sont révélés long et coûteux – chaque entreprise nécessitant de fortement personnaliser les logiciels de CRM. Ah oui, Nortel a revendu Clarify en 2001 pour 200 millions de dollars, soit 1.7 milliards de dollars de pertes. Aie!

Conclusion

Si prédire les performances d’une technologie donnée n’est pas forcément facile, elle est cependant parfois possible. La loi de Moore, tout empirique qu’elle soit, a été (et reste) un puissant outil pour estimer la puissance future des ordinateurs (ainsi que beaucoup d’autres choses). La plus grosse difficulté est celle que notre cerveau a à rationaliser des gains en performance lorsqu’ils sont exponentiels. Même avec du recul, il reste difficile de concevoir qu’un Cray 2 – l’ordinateur le plus puissant au monde de 1985 à 1990 – est moins puissant qu’un PC standard produit 15-20 ans plus tard!

L’arrivée d’un nouveau type de technologie comme les processeurs quantiques est par contre beaucoup plus difficile à évaluer. Des technologies prometteuses restent parfois en laboratoire, alors que d’autres technologies comme le laser ont pris tout le monde par surprise.

L’utilisation d’une technologie, elle, est également très difficile à évaluer. Le GPS par exemple n’a pu se démocratiser que grâce à des avancées technologiques dans plusieurs domaines: le satellite, l’électronique, les écrans LCD, etc.

Autrement dit, les prédictions erronées ont de beaux jours devant elles.