La difficulté de prédire les évolutions technologiques

2007santa_smallsample

« Le père Noël en 2007. » Cette illustration d’un livre pour enfant publié en 1907 peut prêter à la rigolade. Mais même plus proche de nous les prédictions futuristes sont souvent comiques.

Prenez la plupart des descriptions de l’an 2000 datant des années 80. En l’an 2000 nous étions sensés tous avoir notre soucoupe volante personnelle et nous balader en combinaison spatiale. Les robots étaient sensés être intelligents, mais les écrans de télévision tout petit. Bien évidemment, pas d’Internet ni de téléphone cellulaire. Et quand une illustration montre quelqu’un utiliser un téléphone portable c’est bien souvent un gros talkie-walkie.

Autrement dit, des prédictions à 15-20 ans se sont révélées être à la fois beaucoup trop optimistes sur certains points (la soucoupe volante personnelle) et beaucoup trop pessimistes sur d’autres (Internet ou la puissance des ordinateurs).

Et même des experts se fourvoient. Je prendrais pour exemple l’éminent scientifique Lord Kelvin – après qui sont nommés les degrés Kelvin – qui a affirmé « une machine volante plus lourde que l’air est impossible. » Ou Thomas Watson Jr, PDG d’IBM qui en 1943 voyait « un marché mondial de 5 ordinateurs. »

Qu’est-ce qui rend si difficile de prédire les évolutions technologiques?

Difficulté d’estimer les performances

La première raison est que l’évolution d’une technologie est tout sauf linéaire. Un « produit » high-tech, qu’il s’agisse d’une fusée ou d’un ordinateur, dépend en effet de nombreuses technologies. Or toute technologie a une période de croissance mais à un moment où à un autre se heurte à un « mur technologique ».

Prenons l’exemple des fusées spatiales: depuis le lancement de Spoutnik en 1957 les fusées ont fait beaucoup de progrès. Mais la technologie reste fondamentalement la même: la propulsion s’effectue par un engin à réaction et la fusée essaie de se diriger du mieux qu’elle peut. Même après des décennies de progrès technologiques les fusées restent peu fiables et coûteuses (plusieurs milliers d’euros par Kg à envoyer dans l’espace). Avec la Navette Spatiale américaine, la NASA espérait diminuer le coût d’un vol spatial en réutilisant la navette, contrairement aux fusées qui sont perdues à chaque voyage. Mais on s’est vite aperçu que la maintenance nécessaire entre chaque vol était beaucoup plus importante que prévue. Au final, la navette spatiale coûte bien plus cher qu’une fusée traditionnelle.

Prenons maintenant l’exemple des ordinateurs. Inventés pendant la 2e guerre mondiale, ils se sont rapidement développés et étendus à d’autres secteurs au-delà des applications militaires. Les ordinateurs auraient eux aussi pu se heurter à un mur technologique, mais ils ont réussi à le percer grâce à deux inventions salvatrices: le transistor d’une part et le microprocesseur d’autre part. Ce sont ces inventions qui ont permit de se passer des lampes à vide, encombrantes et peu fiables. Sans ces deux inventions pas d’électronique, et sans électronique pas d’ordinateur moderne.

Mais cela ne veut pas dire que les ordinateurs ne vont pas se heurter à un mur eux aussi. La loi de Moore, loi empirique qui dit que la puissance des processeurs double tous les 18 mois, a perduré plus de temps qu’espéré (plus que Gordon Moore lui-même n’ait imaginé). Mais cela ne veut pas dire qu’elle va continuer éternellement. Par exemple, si la fréquence des processeurs de PC a explosé dans les années 90 (de quelques dizaines de MHz pour dépasser le seuil du GHz), elle n’a que très peu augmenté cette décennie pour plafonner vers les 3 GHz. Au-delà, la chaleur fait littéralement fondre le processeur. Peut-être arriverons-nous un jour à inventer un mécanisme de refroidissement à hélium pas cher et pratique… ou peut-être pas. En attendant on contourne le problème en utilisant la technologie multi-cœurs: les processeurs double voire quadruple cœurs. D’autres types de processeurs sont également à l’étude. Processeurs utilisant un rayon laser au lieu d’électricité (on évite les problèmes de chaleur) ou processeurs quantiques. Mais on est très loin d’une application industrielle.

Et en parlant d’ordinateur, il existe un autre domaine où les prédictions se sont fourvoyées: la programmation. On a eu beau inventer des langages de plus en plus avancés – parfois d’ailleurs trop complexes – la programmation reste fondamentalement la même qu’il y a 60 ans: jongler avec des valeurs numériques et tester ces valeurs. 60 ans plus tard les programmes sont toujours remplis de bugs, les gros projets informatiques sont toujours coûteux et toujours autant en retard. Les espoirs d’intelligence artificielle des années 70, quant à eux, se sont vites évaporés.

Difficulté de prédire l’utilisation

Mais au-delà des performances, l’utilisation que l’on va faire d’une technologie est un autre facteur qui fausse beaucoup de prédictions. Internet existe depuis des décennies, mais ce n’est que depuis l’arrivée du Web que le grand public l’a adopté en masse. Et même lors de l’explosion du Web personne n’a pu prédire la manière dont ce dernier serait utilisé.

Pour ce qui est des fusées, si elles n’ont pas permit à M. tout-le-monde de faire une promenade dans l’espace, elles ont eu des applications inattendues. Qui aurait pu prédire que les fusées seraient utilisées pour mettre en orbite des satellites qui guident les GPS dans nos voitures?

Parfois c’est l’utilisation d’une technologie même qui empêche son adoption. Si la soucoupe volante reste encore de la science fiction, comment se fait-il que nous n’ayons pas tous notre mini-hélicoptère personnel? On aurait pu penser que les hélicoptères se seraient démocratisés au fil des années, devenant de moins en moins cher pour finalement être accessible au grand public. Mais ce qui a bloqué l’hélicoptère est moins son prix que les contraintes qui vont avec. Outre le fait qu’un héliport prend nettement plus d’espace qu’une place de parking, piloter un hélicoptère est autre chose que conduire une voiture! Obtenir une licence coûte cher et demande d’y consacrer beaucoup de temps. Ensuite, imaginez si tout le monde avait un hélicoptère: ce serait le désastre dans les airs! Le trafic routier fait déjà beaucoup de morts sur les routes, un trafic aérien de masse serait un massacre, à la fois dans les airs et pour ceux en dessous.

Pour ce qui est de la programmation informatique, beaucoup des espoirs ont été annihilés par l’utilisation des logiciels. En particulier, l’un des plus grands espoirs de l’informatique a été la réutilisation de code, évitant de constamment réinventer – et débugger – la roue. Dans les années 80-90, l’avènement de la programmation objet a amené beaucoup d’experts à prédire « la fin de la programmation », pensant que l’avenir de la cette dernière ne serait qu’une question d’assemblage de briques. Fin des années 90, le CRM (Customer Relationship Management) était un buzzword à la mode, promettant aux grosses entreprises d’améliorer leurs relations avec leurs clients. A tel point que Nortel Networks a racheté en 1999 l’éditeur de CRM Clarify pour quelques 2,1 milliards de dollars.

Le grain de sable est venu de la manière dont on utilise les programmes. S’il existe de nombreux programmes génériques (de Windows aux navigateurs Web), dés que l’on passe aux besoins d’entreprise on s’aperçoit qu’il y a autant de besoins que d’entreprises. Imaginez que chaque maison ait besoin d’avoir des briques d’épaisseur et de taille différente. Cela compliquerait grandement la construction de briques. C’est un peu ce qui se passe en informatique d’entreprise: les besoins d’une compagnie sont très souvent presque identiques à ceux d’une autre, mais pas tout à fait, les deux compagnies étant organisées de manière différente. Les développeurs se sont aperçus que les « briques » informatiques ne collaient quasiment jamais à leur besoin, et qu’il était toujours plus difficile de réutiliser du code déjà écrit qu’initialement pensé. C’est pour cette raison que la fin de la programmation n’est toujours pas en vue. C’est également pour cette raison que les projets de CRM se sont révélés long et coûteux – chaque entreprise nécessitant de fortement personnaliser les logiciels de CRM. Ah oui, Nortel a revendu Clarify en 2001 pour 200 millions de dollars, soit 1.7 milliards de dollars de pertes. Aie!

Conclusion

Si prédire les performances d’une technologie donnée n’est pas forcément facile, elle est cependant parfois possible. La loi de Moore, tout empirique qu’elle soit, a été (et reste) un puissant outil pour estimer la puissance future des ordinateurs (ainsi que beaucoup d’autres choses). La plus grosse difficulté est celle que notre cerveau a à rationaliser des gains en performance lorsqu’ils sont exponentiels. Même avec du recul, il reste difficile de concevoir qu’un Cray 2 – l’ordinateur le plus puissant au monde de 1985 à 1990 – est moins puissant qu’un PC standard produit 15-20 ans plus tard!

L’arrivée d’un nouveau type de technologie comme les processeurs quantiques est par contre beaucoup plus difficile à évaluer. Des technologies prometteuses restent parfois en laboratoire, alors que d’autres technologies comme le laser ont pris tout le monde par surprise.

L’utilisation d’une technologie, elle, est également très difficile à évaluer. Le GPS par exemple n’a pu se démocratiser que grâce à des avancées technologiques dans plusieurs domaines: le satellite, l’électronique, les écrans LCD, etc.

Autrement dit, les prédictions erronées ont de beaux jours devant elles.

Explore posts in the same categories: Prédictions

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s


%d blogueurs aiment cette page :