mardi 30 août 2011

Le boson de Higgs

La physique des particules est un domaine difficile, car il est très compliqué d'observer quelque chose de plus petit qu'un atome, et donc que n'importe quel instrument imaginable.
Les théoriciens ont donc besoin d'imagination afin d'imaginer comment la matière fonctionne à cette échelle. Et il leur arrive d'emprunter des idées à d'autres branches de la physique.

Une médiation technique entre sciences

Vous avez peut-être entendu parler du LHC (Large Hadron Collider, ou grand collisionneur de hadrons), le nouvel accélérateur de particules du CERN (acronyme ancien mais toujours en usage de l'Organisation européenne pour la recherche nucléaire), célèbre laboratoire de physique des particules à cheval entre la France et la Suisse et berceau d'Internet. Ce gigantesque jouet scientifique (27 km de circonférence) a pour vocation de mieux comprendre la physique de la matière à l'échelle la plus petite possible, celle des particules élémentaires, avec des retombées espérées énormes comme par exemple de nouvelles sources d'énergies.
Bien des mystères restent à élucider dans ce domaine. Par exemple, la théorie physique actuelle, très bien validée dans l'ensemble, n'explique pas pourquoi les particules élémentaires ont une masse, et encore moins pourquoi les masses des particules se répartissent comme elles le font : ainsi, l'électron "pèse" environ 1836 fois moins qu'un proton ou qu'un neutron.
Pourquoi alors en parler ici ? Tout simplement parce que l'une des pistes actuelles pour expliquer l'origine de la masse, qu'on appelle le mécanisme de Higgs, est une forme de médiation technique, entre disciplines scientifiques plutôt qu'entre entreprises ; mais, après tout, les laboratoires scientifiques peuvent être considérés comme des entreprises au sens large.
Et que le LHC a comme objectif, entre autres, de tester cette piste en identifiant une nouvelle particule hypothétique, le boson de Higgs. Ainsi, l'un des programmes scientifiques les plus ambitieux du début du XXIe siècle a pour vocation de tester une idée issue d'une médiation technique...

De la matière condensée à la physique des particules

Je ne tenterai pas d'exposer en détails le principe du mécanisme de Higgs, ce qui est de toutes manières largement hors de ma portée. Disons simplement que, dans les années 1960, les théoriciens des particules étaient ennuyés car la théorie physique qu'ils développaient selon des principes relativement généraux et vraisemblables conduisait à prédire une masse nulle pour un certain nombre de particules, qu'ils savaient pourtant massives par l'expérience.
Les principes en questions faisaient notamment appel à une certaine notion de symétrie. Pour prendre un exemple très simple, si vous savez qu'une fonction mathématique comme un polynôme prend les mêmes valeurs pour les nombres opposés x et -x, vous pouvez en déduire qu'il pourra contenir des puissances paires de x comme x^2 ou x^6 mais qu'il ne pourra pas contenir des puissances impaires comme x^3 ou x^9. La symétrie impose des contraintes sur la composition du polynôme.
Dans le même ordre d'idées, la notion de symétrie de la physique des particules (la symétrie de jauge, que je ne tenterai pas d'exposer ici) interdit à certaines particules d'avoir une masse. Ce qui est manifestement en désaccord avec la réalité expérimentale.
C'est là qu'interviennent les spécialistes de la matière condensée. C'est une branche de la physique qui s'intéresse à la matière dense, comme les solides, les liquides, les gels ou encore les cristaux liquides.
La matière condensée est un domaine dans lequel la symétrie intervient de manière essentielle. Ainsi, la majorité des solides se présentent sous forme de cristaux qui respectent un groupe plus ou moins étendu de symétries : translations, rotations, symétries par rapport à un plan, à un axe ou à un point... On dénombre ainsi 230 groupes de cristaux différents.
C'est une manière quelque peu zoologique d'aborder les cristaux, mais ce qui intéresse les physiciens, c'est généralement les transitions de phases : lorsqu'on modifie les conditions extérieures (pression et températures) d'un solide cristallin, il peut changer de groupe de symétrie, tout en gardant la même composition chimique : les atomes du solide se réorganisent alors dans une géométrie différente, une autre phase cristallographique.
La plupart du temps, plus on augmente la température, plus les phases sont symétriques. La phase liquide, généralement atteinte à haute température, peut être considérée comme la plus symétrique possible, car elle est (statistiquement) homogène et invariante par toutes les rotations et translations imaginables.
Au contraire, en baissant la température, chaque transition de phase réduit le nombre de symétries respectées par le solide : on brise des symétries. On peut ainsi passer d'un liquide à un solide cristallin à symétrie cubique (les cristaux sont des cubes), puis à symétrie quadratique (les cristaux sont des pavés droits à base carrée), puis à symétrie orthorhombique (les cristaux sont les pavés droits mais la base est un rectangle quelconque).
Le concept de brisure de symétrie est très courant en matière condensée. La plupart des phénomènes intéressants de ce domaine sont liés à des brisures de symétries diverses, que ce soit les symétries cristallines que je viens d'évoquer ou d'autres symétries plus subtiles.
Par exemple, les matériaux ferromagnétiques constituant les aimants doivent leurs propriétés d'aimantation à une brisure de symétrie. Imaginez des tout petits aimants qui peuvent s'orienter vers le haut ou vers le bas. A haute température, les aimants sont alignés aléatoirement, et en moyenne l'aimantation est nulle car les orientations haute et basse sont symétriques. Mais à basse température, les aimants s'orientent majoritairement dans une direction commune, par exemple, vers le haut : le matériau présente alors une aimantation macroscopique vers le haut, ce qui constitue une brisure de la symétrie haut-bas.
Enfin, pour en venir au mécanisme de Higgs, un grand physicien de la matière condensée, Philip Warren Anderson, avait étudié une autre transition de phase, la supraconductivité.

La supraconductivité
Certains matériaux, à très basse température, deviennent en effet parfaitement conducteurs : ils n'ont plus de résistance électrique ! On les appelle des supraconducteurs.
Ils ont d'autres propriétés, notamment magnétiques, très originales, comme la capacité de repousser un champ magnétique, ce qui leur permet de léviter au dessus d'un aimant : c'est l'effet Meissner.
La supraconductivité est aussi une forme de brisure de symétrie, mais la symétrie en question est une symétrie assez peu intuitive, une symétrie de jauge.
Si les supraconducteurs sont peu utilisés en pratique, c'est que l'énergie à dépenser pour les refroidir est également coûteuse. Mais ils sont indispensables lorsqu'on a besoin de produire des champs magnétiques très élevés, comme par exemple pour faire fonctionner... le LHC.

Pour faire simple, Philip Anderson a observé que la brisure de symétrie de la supraconductivité se traduisait par l'existence d'une "particule" qui pouvait être massive, alors qu'en l'absence de brisure de symétrie cette "particule" aurait été de masse nulle. Et il a suggéré que cela pourrait être une piste pour expliquer la masse des particules élémentaires.
Plusieurs physiciens des particules se sont inspirés de cette idée, et assez rapidement ils ont proposé un mécanisme spécifique aux particules élémentaires mais comparable à l'idée de Philip Anderson. Parmi eux, un certain Peter Higgs, qui a donné son nom à la particule (le boson de Higgs) et au mécanisme. Ce qui est d'ailleurs injuste pour les autres physiciens qui ont aussi trouvé le mécanisme de manière indépendante.

 Et si le boson de Higgs n'existait pas ?

Le succès de cette idée a été telle que la majorité des physiciens des particules attendent avec impatience la découverte du boson de Higgs depuis des dizaines d'années. Paradoxalement, le LHC pourrait prochainement ruiner leurs espoirs, car la particule semble si bien se cacher qu'elle pourrait très bien ne pas exister.
Mais alors, s'agirait-il d'un échec de la médiation technique ?
Non : d'abord, parce que même si le mécanisme de Higgs n'est pas le bon, il est probable qu'il inspirera d'autres théories, dont l'une s'avérera la bonne.
De plus, entre la suggestion de l'idée de Philip Anderson et la proposition du mécanisme de Higgs par les physiciens des particules, il s'est écoulé moins de deux années : un temps relativement court, qui doit beaucoup à la transmission des concepts de la matière condensée à la physique des particules.
Enfin, comme tout projet innovant, une théorie physique nouvelle présente une part de risque, et c'est en acceptant le risque d'échouer plusieurs fois qu'on apprend de ses échecs et qu'on finit par avancer.
Si la médiation technique a permis d'échouer une fois de plus, c'est donc en soi une bonne chose.

lundi 29 août 2011

Un paradoxe technico-scientifique

Ma scolarité a été marquée par les cours de sciences physiques du collège, qui ont orienté mon parcours scolaire puis professionnel. Ce qui m'a attiré vers la science, c'est l'expérience spectaculaire, le côté magique. Le scientifique est un sorcier moderne.
Après de nombreuses années d'études scientifiques, puis plusieurs années d'application professionnelle du savoir accumulé, je ne peux que m'étonner du fait que la plupart des expériences spectaculaires qui m'ont initié à la physique utilisent des phénomènes difficiles à expliquer et à maîtriser, même pour le scientifique le plus compétent.

Phénomènes usuels, explications délicates

Prenons l'initiation à l'électricité. Vous avez sans doute encore le souvenir de ces cours de collège pendant lesquels votre professeur de physique prenait une peau de chat et frottait un bâton de verre ou d'ébonite pour les charger d'électricité statique.
Passons sur le côté glauque de la peau de chat. J'ignore s'il y a un fournisseur officiel de l’Éducation Nationale en peau de chat, et je ne veux pas le savoir. Mais pourquoi une peau de chat ? Pourquoi de l'ébonite ? Il s'est d'ailleurs passé de longues années entre ces expériences et la première fois qu'on m'a reparlé de l'ébonite dans un autre contexte. A croire que l'ébonite ne sert qu'aux expériences de ces cours de physique.
Au lycée, puis en école d'ingénieur, je n'ai essentiellement abordé l'électricité que par ses aspects dynamiques : courant électrique, électronique, induction, ondes électromagnétiques, signal... L'électricité statique, on n'en parle qu'assez peu, somme toute. Parce que c'est très simple ? Non. Parce que ce n'est pas facile à maîtriser.
En effet, l'électricité dynamique a ceci d'agréable qu'on sait assez bien la manipuler. Elle est disponible grâce aux prises électriques qu'on trouve partout, on peut brancher les appareils électriques ou les éteindre à volonté, son action est relativement reproductible et donc prédictible, elle ne dépend pas trop de paramètres extérieurs, on sait faire des calculs dessus sans trop de difficultés... En un mot, c'est facile.
Au contraire, l'électricité statique est sensible à un tas de paramètres environnementaux peu contrôlables ou contrôlés : humidité, frottements entre matériaux, décharges impromptues à l'approche d'un matériau métallique... et cette sensibilité rend le phénomène délicat, voire dangereux.
A ma connaissance, il n'existe aujourd'hui aucun moyen de calculer la charge électrique induite par le frottement de deux matériaux donnés si l'on n'a pas réalisé l'expérience auparavant : seule une grosse base de données permettrait de prédire cette charge dans la plupart des cas usuels.
En quelque sorte, l'électricité statique est bien plus difficile que l'électricité dynamique, même si ses équations sont nettement plus simples sur le papier. C'est pourtant par le phénomène le plus difficile qu'on aborde l'électricité à l'école.
Et il y en a d'autres. Ainsi, le magnétisme est présenté avec des aimants et de la limaille de fer. On place un aimant sous une feuille de papier, on verse de la limaille de fer au-dessus de la feuille, et on observe des "lignes de champ magnétique". C'est vrai, sauf que personne ne prend la peine d'expliquer pourquoi la limaille de fer se place selon les lignes de champ.
L'explication n'est accessible qu'à des étudiants de master en physique, car il faut décrire le comportement magnétique de chaque particule de limaille de fer ainsi que sa tendance au déplacement et à la rotation au milieu de ses voisines. Je n'ai pas de référence bibliographique sur le sujet, mais si quelqu'un en connaît une, je suis preneur. Toujours est-il que le phénomène présenté à l'école pour introduire le magnétisme est loin d'être simple. Et je ne parle même pas de l'explication microscopique du ferromagnétisme.
Autre exemple : les conducteurs de la chaleur. Votre professeur de physique vous aura peut-être expliqué que les matériaux métalliques, qu'on reconnaît généralement parce qu'ils reflètent la lumière, sont de bons conducteurs de chaleur. Mais pourquoi est-ce le cas ?
L'explication physique fait intervenir les électrons : en gros, dans les métaux, les électrons libres peuvent transporter la chaleur alors que dans les isolants électriques il n'y en a pas, ce qui fait qu'un métal conduit relativement bien la chaleur. Mais la compréhension fine nécessite un niveau master ou doctorat en physique des matériaux.
Allez, un dernier exemple. Vous savez verser de l'eau chaude dans une tasse avec une théière et touiller avec une cuillère pour dissoudre un morceau de sucre. Beaucoup de personnes savent nager, et certaines personnes savent manipuler une planche de surf avec assez d'aisance pour se déplacer à l'intérieur un rouleau de vagues. Pourtant, la plupart des mécaniciens des fluides considèrent ces problèmes comme très difficiles, voire inabordables du point de vue théorique. En effet, ces situations font intervenir des surfaces libres, interfaces entre l'eau et l'air dont la position peut varier, et il se trouve que la plupart des logiciels de simulation numérique de mécanique des fluides sont incapables de traiter ces situations, ou seulement dans les cas les plus "simples".
Le professeur du collège vous aura aussi fait observer que la surface d'un verre d'eau n'est pas parfaitement plane mais qu'elle est incurvée à proximité du bord : c'est ce qu'on appelle le ménisque. Même quand la surface libre ne bouge pas, elle reste difficile à appréhender sans l'aide d'outils théoriques compliqués.
C'est bien là un paradoxe : l'école vous présente les phénomènes les plus compliqués à expliquer pour vous introduire aux sciences physiques, avant d'abandonner totalement l'étude ces phénomènes. Est-ce une sorte de marketing pédagogique ?

Le savoir empirique précède le savoir théorique

En fait, la plupart des phénomènes physiques sont abordés d'abord empiriquement. On observe le phénomène, on l'utilise, voire on l'exploite industriellement, et c'est généralement bien plus tard que l'on comprend le phénomène, si seulement on le comprend.
L'école ne fait donc que tenir compte de ce fait relativement général : le savoir empirique, celui obtenu par l'expérience et sans explication élaborée, précède le plus souvent le savoir théorique, qui explique les phénomènes et permet de mieux les maîtriser.
Cela a une conséquence importante pour la médiation technique. Il y a plus de connaissances empiriques que de connaissances théoriques. Il n'est donc pas forcément pertinent de s'orienter vers des laboratoires de recherche lorsqu'on cherche à résoudre un problème technique concret. La solution peut très bien exister dans plusieurs entreprises sans jamais qu'un chercheur n'ait travaillé sur la question.
Cela ne signifie pas que les chercheurs sont inutiles. Bien au contraire, leurs efforts permettent de passer une technique d'une maîtrise empirique approximative à une maîtrise scientifique performante. Mais si l'on est confronté à un problème technique qui bloque l'avancement d'un projet, on ne cherche pas forcément une solution ultra-performante, on cherche une solution tout court. Et il y a plus de chances de trouver une solution parmi les professionnels que parmi les scientifiques.
D'où l'utilité de la médiation technique.

jeudi 25 août 2011

Ne vous trompez pas d'expert !

Lorsque vous voulez faire réparer votre voiture, à moins de connaître un ami bricoleur et passionné de mécanique automobile, vous vous adressez à un garagiste ; il ne vous viendrait pas à l'esprit de prendre contact avec un pilote de rallye. Il s'agit pourtant de deux experts de l'automobile.
Dans l'activité d'une entreprise, il peut également être nécessaire de s'adresser à une entreprise tierce lorsqu'on a besoin d'une expertise particulière que l'on ne maîtrise pas en interne : traitement de surface, automatisme, optique, informatique industrielle, mécanique de précision...
Comment s'assurer alors qu'on ne s'adresse pas au mauvais type d'experts ?

Une typologie transversale d'experts

J'ai essayé de regrouper la variété d'experts que j'ai pu lister en quelques types transversaux.
En effet, chaque expert est spécialiste d'un secteur technique donné, comme l'automobile, qui constitue un premier repère. Mais cette classification, relativement naturelle, ne distingue pas le garagiste du pilote de rallye, alors que ces deux expertises n'ont que peu en commun.
Les classes d'experts que je propose sont les suivantes :
  • les experts de la pratique,
  • les experts de la conception,
  • les experts de la maintenance,
  • les experts de la théorie,
  • et les experts de la formation.
En effet, dans la plupart des domaines techniques, vous pouvez rencontrer ces cinq profils relativement différents, bien que certaines personnes cumulent plusieurs profils.
Les experts de la pratique sont des spécialistes de l'utilisation d'une technique : ils sont performants dans l'usage d'un système qu'ils n'ont pas forcément conçu. Le pilote de rallye est typiquement un expert de la pratique de l'automobile (la conduite).
Les experts de la conception sont au contraire des spécialistes de la création utilisant les connaissances techniques d'une discipline : ils sont performants dans l'utilisation de ces connaissances pour imaginer la manière de réaliser un système technique que d'autres utiliseront. L'archétype en est l'ingénieur de bureau d'étude.
Les experts de la maintenance sont des spécialistes de la protection et la réparation : ils sont performants dans l'entretien de systèmes techniques qu'ils n'utilisent pas et n'ont pas conçu. Le garagiste est un bon exemple de ce type d'experts.
Les experts de la théorie sont des spécialistes des principes de fonctionnement : ils sont performants dans l'explication des connaissances techniques permettant de concevoir ou d'utiliser un système technique, sans pour autant mettre en pratique ce savoir. Le thermodynamicien est ainsi capable d'expliquer comment un moteur thermique de voiture fonctionne et quels sont les paramètres essentiels sur lesquels l'ingénieur automobile peut jouer pour améliorer un moteur.
Enfin, les experts de la formation sont des spécialistes de l'enseignement : ils sont performants dans la transmission du savoir et du savoir-faire technique d'un domaine à des apprentis ou des élèves. Pour l'automobile, c'est le moniteur d'auto-école qui joue ce rôle.
Voici quelques exemples de domaines techniques et des cinq types d'experts de ces domaines.
Domaine Expert de la pratique Expert de la conception Expert de la maintenance Expert de la théorie Expert de la formation
Automobile Pilote Ingénieur automobile Garagiste Thermodynamicien Moniteur d'auto-école
Bois Charpentier Architecte Vernisseur Xylologue Maître ébéniste
Logiciel bureautique Secrétaire Développeur Hot-line Algorithmicien Formateur
Logiciel de calcul Modélisateur Développeur Hot-line Mathématicien Formateur
Mécanique de précision Fabricant de munitions Ingénieur mécanique Horloger Mécanicien Maître horloger
Métallurgie Fondeur Mouliste Galvaniseur Métallurgiste Maître soudeur
Photographie Photographe Opticien Réparateur Physicien Professeur de photo
Presse Journaliste Rédacteur en chef Imprimeur Rhétoricien Professeur de lettres
Santé Nutritionniste Pharmacien Médecin Biologiste Professeur de médecine

Ces exemples ne visent pas à l'exhaustivité : ainsi, dans le domaine du bois, on peut évidemment parler des menuisiers, des scieurs... Les domaines techniques choisis ici pour l'illustration sont donc trop vastes, et il faudra certainement raffiner en pratique lorsqu'on cherche une expertise spécifique.
J'ai l'impression que ces profils recouvrent l'ensemble des experts, mais je reste ouvert à l'addition de classes d'experts que je n'aurais pas identifiés à ce jour.

Médiation technique et typologie d'experts

Il est clair que le médiateur technique doit savoir de quel type d'expert son client a besoin, au risque de présenter Sébastien Loeb à un client intéressé par le meilleur garagiste possible : même s'il peut être en pratique un garagiste convenable, le meilleur pilote de rallye n'est certainement pas le meilleur garagiste que l'on peut trouver.
Plus concrètement, le client peut avoir besoin d'un spécialiste de la manipulation d'un procédé industriel, et il peut être malvenu de lui proposer les services du fabricant de ce procédé.
Il m'est ainsi arrivé plusieurs fois d'observer que les fabricants d'un procédé de dépôt de couches minces sous vide proposaient des nouveautés à un producteur de verre à couches, dont ils pensaient qu'elles amélioreraient la qualité ou la productivité de leur client. A l'usage, la moitié des nouveautés testées s'avéraient néfastes alors qu'elles s'étaient parfois révélées très pertinentes chez d'autres clients d'industries différentes.
De fait, l'industrie verrière s'est dotée de moyens d'évaluer à l'avance la pertinence d'une nouveauté (par simulation numérique) pour ses propres besoins, ce qui montre bien qu'un concepteur n'est pas forcément aussi compétent qu'un utilisateur pour ce qui relève de la pratique.
D'ailleurs, aucun garagiste n'a encore gagné le rallye de Finlande à ma connaissance.

jeudi 18 août 2011

Le knowledge management et l'innovation

Ils ne savaient pas que c'était impossible, alors ils l'ont fait. (Mark Twain)
La gestion des connaissances, ou KM (knowledge management), n'est plus très à la mode, alors que c'était le sujet de prédilection des entreprises de conseil au début des années 2000. J'ignore la raison profonde de cette désaffection, car la discipline a beaucoup d'intérêt à mes yeux. Mais j'imagine que l'une des causes de ce désintérêt est que les experts peuvent être les meilleurs ennemis de l'innovation.

Les experts empêchent parfois d'innover

La gestion des connaissances est une activité consistant à faire en sorte que les connaissances techniques des experts d'une entreprise soient utilisées le plus intelligemment possible : les connaissances explicitables peuvent être formalisées sous une forme exploitable par le plus grand nombre (documents écrits, wikis, vidéos...), et les connaissances non-explicitables (le savoir-faire, typiquement) sont transmises par apprentissage.
Une démarche de gestion des connaissances est utile lorsque l'entreprise a besoin de pérenniser le savoir de ses experts, par exemple lorsqu'ils partent à la retraite prochainement, ou quand ils souhaitent transférer une expérience acquise sur un site de production à d'autres sites.
Mais cette démarche, qui revient à valoriser les experts, peut être un frein à l'innovation. En effet, l'expert typique a acquis ses connaissances par une longue expérience, et cela se traduit généralement par un certain nombre de convictions fortes sur le fonctionnement des choses dans son domaine d'expertise. Or certaines convictions peuvent être infondées, car il est assez naturel de généraliser quelques observations ponctuelles en règle systématique.
J'ai ainsi le souvenir d'un expert croisé dans une usine en Corée qui m'expliquait que la mesure de température que je voulais réaliser dans un four verrier était impossible car il avait déjà essayé et échoué il y a trente ans ; le plus drôle était que je venais précisément de réaliser cette mesure avec succès quelques heures auparavant...
De plus, le fait d'avoir utilisé certaines techniques très couramment dans son activité peut conduire l'expert à se convaincre que ce sont les seules méthodes possibles. Impossible d'innover, puisqu'on fait déjà ce qu'il y a de mieux à faire !
Il est à noter que l'une des recommandations les plus courantes lors d'un brainstorming est d'interdire la critique des idées, en particulier quand elle consiste à signaler que "ça ne peut pas marcher".
L'expert est donc le meilleur ennemi de l'innovation, dans ces cas-là. La gestion des connaissances, qui permet de renforcer les conceptions des experts et de transmettre leur point de vue, présente un fort risque d'entrave à l'initiative des créatifs moins expérimentés.

Le point de vue des algorithmes génétiques

Je voudrais illustrer mon propos à l'aide d'une analogie qui peut paraître cocasse, car elle s'appuie sur les algorithmes génétiques. Mais je vous rappelle que vous êtes sur le blog de la médiation technique, aussi ne soyez pas étonné que j'importe des connaissances de disciplines qui semblent ne rien avoir à faire avec la choucroute.
Vous savez certainement que l'évolution des espèces a pour moteur la sélection naturelle de Charles Darwin. En gros, les espèces évoluent par le fait du hasard (les mutations) et de la nécessité (les mutations utiles sont sélectionnées et les mauvaises éliminées).
La théorie de Darwin n'est toutefois pas la première théorie de l'évolution des espèces, car Jean-Baptiste de Lamarck avait auparavant proposé une théorie basée sur l'hérédité des caractères acquis : pour simplifier, lorsqu'un animal "apprend" quelque chose d'utile, il le transmet à ses petits. La biologie a démontré que Darwin avait raison et Lamarck avait tort.
Plus récemment, les informaticiens se sont inspirés de l'évolution darwinienne, qui agit comme une sorte d'algorithme d'optimisation, pour proposer des techniques numériques d'optimisation mathématique appelées algorithmes génétiques et qui sont une transposition du mécanisme darwinien.
Ce n'est pas forcément la meilleure méthode pour tout optimiser : en gros, si le problème mathématique est "facile", les algorithmes génétiques sont très mauvais par rapport à des algorithmes spécialisés ; mais ils marchent relativement bien pour des situations où il n'existe pas d'algorithme d'optimisation spécifique.
Or dans le domaine informatique, rien n'oblige à utiliser un algorithme darwinien, et on peut parfaitement inventer un algorithme lamarckien. C'est précisément ce qu'ont fait Takahiro Saaki et Mario Tokoro : dans un article de 1999 dans le journal scientifique Artificial Life, ils ont simulé l'évolution de ce qu'on peut assimiler à des "espèces animales numériques" (des réseaux neuronaux artificiels) à l'aide de deux algorithmes génétiques, respectivement darwinien et larmarckien.
Sans rentrer dans le détail de leur étude, leurs conclusions sont les suivantes :
  • l'évolution lamarckienne, basée sur l'apprentissage de connaissances héritées des ancêtres, est plus rapide que l'évolution darwinienne pour atteindre un niveau d'optimisation élevé lorsque l'environnement est stable, et de plus elle conduit à une meilleure optimisation ;
  • a contrario, lorsque l'environnement est instable, l'évolution darwinienne permet de s'adapter aux changements plus rapidement alors que l'évolution lamarckienne perd du temps à faire oublier ce qui a été appris avant le changement.
Si je transpose cela à une entreprise, le savoir des experts est positif lorsque le domaine d'application est mature, car il permet d'être plus performant que si l'on essuie les plâtres, si l'on redécouvre l'eau chaude. C'est le bon sens.
Mais a contrario, ce savoir est un boulet lorsque les conditions changent, dans un environnement technique qui évolue fortement, et il devient plus utile de laisser faire le hasard, c'est-à-dire tester des choses, prendre des risques, innover.
Le KM est donc idéal pour des industries matures, mais inadapté pour des industries en forte évolution. Pour la créativité, c'est le contraire.

Réconcilier experts et innovateurs

Certes, je simplifie à outrance et l'analogie précédente mérite des précautions et des commentaires. Personne ne prétend qu'il faut se passer à tout prix des experts, car il est assez rare d'être dans un environnement complètement instable, ou la vérité d'hier devient une absurdité le lendemain. Le domaine technique est généralement bien plus stable que le domaine commercial et marketing, ne serait-ce que parce que les lois de la nature ne changent pas.
Par contre, il reste pertinent de laisser une place à la créativité et à l'innovation, d'autant plus qu'une industrie est en forte évolution technique ou économique.
Alors, comment faire des experts les alliés des innovateurs ?
Tout simplement, en demandant aux experts de faire ce qu'ils savent faire le mieux : proposer des solutions techniques. Et les empêcher de faire ce qu'ils font de pire : juger les idées.
Il y a le bon chasseur et le mauvais chasseur, disaient les Inconnus. Il y a aussi le bon expert et le mauvais expert. Mais si je ne sais toujours pas ce qui fait un bon chasseur, le bon expert c'est celui qui, lorsqu'on lui soumet une idée, réfléchit à comment faire pour qu'elle se réalise et ne cherche pas à expliquer pourquoi cela ne marchera pas.
Et si les experts d'une entreprise ne sont pas capables de trouver une solution à un nouveau problème apparaissant lors d'un changement important de son marché, rien n'interdit à cette entreprise de s'adresser à d'autres experts d'un secteur différent. La médiation technique est là pour cela.

mardi 16 août 2011

Sélectionner les idées pour innover

Une grande sélection c'est grâce aux films, mais une mauvaise sélection, c'est de la faute du sélectionneur. (Thierry Frémaux)
Avoir de nombreuses idées, c'est bien, mais faire émerger les bonnes idées, c'est mieux. En effet, une entreprise ne peut se disperser à explorer toutes les pistes possibles pour innover, et elle doit nécessairement en choisir un nombre restreint, si possible les meilleures.
La situation paraît claire : il suffit de retenir les bonnes idées, c'est-à-dire celles qui répondent à certains critères bien choisis, pour en faire des projets.
Sauf qu'il n'existe pas de critère parfait pour discriminer les bonnes idées des mauvaises.

De l'absurdité des règles de sélection des idées

Vous pourrez sans doute trouver facilement sur internet un tas de consultants en innovation qui vont vous proposer une méthode de sélection des idées. Certaines méthodes vont laisser l'entière responsabilité de la sélection à un jury, dont l'évaluation subjective est reconnue et acceptée. D'autres méthodes vont proposer des critères divers : financiers (retour sur investissement), stratégiques (impact attendu vis-à-vis de la concurrence, analyse de maturité du marché visé), technologiques (possibilités techniques permises) ou encore marketing (retours des études de marché).
Le problème, c'est qu'aucune méthode ne permet de savoir à l'avance si une idée donnée va rencontrer le succès attendu. Il n'y a qu'à citer quelques exemples d'analyses a priori faites par des gens très sérieux et compétents et qui se sont révélées complètement erronées in fine. J'emprunte les exemples suivants à Bruno Martinaud.
  • Premier exemple : Thomas Watson, président d'IBM en 1943, qui pensait que le marché mondial des ordinateurs était d'environ 5 unités.
  • Deuxième exemple : la Western Union, dans un mémo de 1876, écrivait à propos de l'invention récente du téléphone que cette invention avait de trop nombreuses limites pour être considérée comme un moyen de communication, et qu'il leur serait parfaitement inutile.
  • Troisième exemple : les associés de David Sarnoff dans les années 1920, lorsque celui-ci leur proposait fortement d'investir dans la radio, répondaient que cette "boîte à musique sans fil" n'avait pas de valeur commerciale imaginable, car qui voudrait payer pour un message envoyé à personne en particulier ?
  • Quatrième exemple : lorsque Fred Smith, futur fondateur de Federal Express, soumis son idée de service de livraison nocturne fiable à un professeur de management à Yale, celui-ci reconnut que le concept était original mais que pour avoir une note supérieure à "C" il fallait que l'idée soit faisable.
  • Cinquième exemple : un banquier a refusé de financer la société Mrs. Fields' Cookies de Debbie Fields car, outre qu'il trouvait mauvaise l'idée d'un magasin de cookies, les rapports de recherche marketing dont il disposait affirmaient que les cookies dont l'Amérique raffolait étaient croustillants et non mous et difficiles à mâcher comme ceux qu'elle souhaitait proposer.
Dans les cinq exemples, les raisons d'exclure l'idée étaient parfaitement fondées. Pourtant, elles se sont toutes révélées des succès.
A contrario, d'excellentes idées sur le papier peuvent se révéler de parfaits bides.
  • Premier exemple : Le Newton d'Apple, lancé au début des années 1990, était un assistant digital personnel très en avance sur son temps, et même trop. Personne ne doute aujourd'hui que le produit est bon, vue l'explosion des ventes de smartphones depuis quelques années. Pourtant, le Newton a été un échec commercial.
  • Deuxième exemple : Le minitel, ancêtre populaire de nos tablettes actuelles, n'a pas réussi à trouver un successeur capable d'offrir la même facilité d'accès et le même modèle économique en accédant à internet. Pourtant, le futur (et Steve Jobs...) a démontré à quel point ce successeur était pertinent.
  • Troisième exemple : le CD-i de Philips lancé à la fin des années 1980 était un appareil se branchant sur la télévision et capable de lire des supports multimédias comme des vidéos ou de la musique, ainsi que des jeux et autres applications interactives. Merveille technologique, capable de tout faire à l'époque, le CD-i est un échec commercial, notamment à cause de la concurrence de Windows et des consoles de jeux.
  • Quatrième exemple : le réseau Iridium de téléphonie satellite était une solution évidente au manque des réseaux sans fils de la fin des années 1980 : la couverture limitée. Mais le temps que le projet se réalise, fin 1998, la situation avait changé et la couverture était devenue satisfaisante, ce qui rendait l'intérêt du téléphone par satellite caduque. L'année suivant le projet dépose le bilan.
Faut-il continuer à lister des exemples ? A l'évidence, des gens très capables et plutôt bien informés sont capables de se planter complètement. Il ne s'agit pas de dire que tous les experts sont des incompétents, non. Mais qu'en matière de prédiction et d'évaluation d'une idée, l'erreur est facile et très fréquente.
Certes, accumuler des informations, des indices, des chiffres permet de mieux cerner le potentiel d'une idée. Mais il est illusoire d'espérer qu'une procédure quelconque permette de choisir sans ambiguïté les meilleures idées.
Enfin, la même idée implémentée par deux équipes différentes peut conduire à des résultats très différents, car une idée n'est qu'une graine de projet : selon le terrain dans lequel on plante la graine, le projet poussera comme une plante saine et forte ou comme un végétal misérable et maladif.

L'engagement personnel plutôt que la sélection arbitrale

Alors, si la sélection "rationnelle" est impossible, faut-il s'en remettre à une décision arbitrale, c'est-à-dire à un vote par un jury, constitué par des directeurs ou éventuellement par des collaborateurs ?
Je pense que c'est une erreur similaire à la précédente, car elle présuppose aussi qu'on peut réduire l'évaluation d'une idée donnée à un seul avis, une seule évaluation, un seul point de vue. Or une idée peut parfaitement paraître absurde à certaines personnes , en majorité, et brillante à d'autres. Pourquoi la majorité ferait-elle le bon choix dans un tel cas ? Au contraire, on peut s'attendre à ce que la minorité ait perçu tout le potentiel de l'idée, et il serait alors dommage d'éliminer cette perle. Mais la minorité de convaincus risque de passer énormément de temps à convaincre les autres, et on sait combien il est difficile de retourner l'opinion des gens une fois qu'ils se sont décidés. Aussi, les convaincus auront généralement peu de motivation à le faire.
De plus, il est parfois difficile d'arriver à mettre d'accord tout le monde sur une idée donnée : coup de génie pour certains, idée bancale pour d'autres, que faire des idées qui clivent les opinions ?
Par ailleurs, le classement des idées à partir d'une procédure quelconque (votes d'un jury, tournoi d'idées...) est potentiellement dépendant de la procédure choisie, comme le savent les politiques avisés depuis que Nicolas de Condorcet a présenté son fameux paradoxe démontrant qu'il n'existe pas de "bonne" manière de choisir le meilleur candidat à une élection dès qu'il y en a au moins 3.

Bref, toute tentative de sélection des idées, que ce soit par une méthodologie basée sur des critères objectifs ou par une approche subjective de type arbitrale est nécessairement vouée à l'échec. Plus d'informations, plus de critères ou de règles ne permettent pas forcément de mieux sélectionner.

Inspirons-nous des entrepreneurs, des créateurs d'entreprise, qui ont porté un projet parfois contre vents et marées avant de m'imposer comme une évidence. Ils se sont lancés sur la base de leur conviction, et ont pris eux-mêmes le risque de l'échec. Pourquoi ne pas laisser les gens convaincus par une idée lancer le projet eux-mêmes, sans qu'un jury n'intervienne ?C'est à mon avis la clé du problème : les équipes qui réalisent les projets ne sont pas associés à la sélection.

On peut donc imaginer l'organisation suivante : les idées ne sont pas évaluées mais soumises à l'ensemble des possibles chefs de projets. Ceux-ci choisissent les idées qu'ils vont mettre en œuvre, celles qu'ils pensent être les plus pertinentes et les plus susceptibles d'apporter à l'entreprise un retour sur investissement important. Qu'importe que les autres pensent le contraire, puisque c'est le chef de projet qui s'engage personnellement.
Pour que le chef de projet soit enclin à sélectionner les idées qui lui paraissent les plus intéressantes, il faut qu'il y ait une carotte : par exemple, une prime au succès (promotion, prime financière...). Cette carotte peut être d'autant plus élevée que le retour sur investissement attendu (par le chef de projet) est important et que le projet est difficile (ce qui peut par contre être estimé par un jury).
Mais pour éviter les chefs de projets soient tentés de retenir des projets farfelus pour obtenir une grosse carotte, il faut également prévoir un bâton : par exemple, une absence d'augmentation ou un gèle de sa promotion si le projet n'atteint pas des objectifs minimaux. Bâton d'autant plus fort que l'impact sur l'entreprise est important.
On peut enfin imaginer que l'on affecte à chaque chef de projet un budget annuel indépendamment de tout choix de projet, dont le montant est lié à son expérience et à ses succès ou échecs passés. Un chef de projet ne pourrait alors que chapeauter un projet dont les dépenses évaluées sont inférieures à son budget. La carotte pourrait alors être l'augmentation de son budget (disons, de 10% à 50% selon le risque et le retour attendu) et le bâton une réduction de son budget d'autant.
Une méritocratie, en quelque sorte.

vendredi 12 août 2011

Innover plus efficacement : gérer des milliers d'idées

Le talent a besoin de gestion. (André Siegfried)
Trouver des idées n'est pas difficile. La créativité n'est pas une denrée rare, et de nombreuses techniques existent pour engendrer des idées.
Mais lorsqu'on produit des idées en grand nombre, par exemple pendant un brainstorming, il y a peu d'idées qui vont être effectivement être exploitées immédiatement. On abandonne donc généralement la grande majorité des idées générées au profit de quelques "bonnes idées".
Cette gestion des idées relève du gâchis. En effet, aucune idée n'est mauvaise, dès lors que l'on a compris que chaque idée peut conduire à la production d'autres idées, par combinaison avec d'autres idées, extension et radicalisation de l'idée originelle, renversement de point de vue...
De plus, certaines idées non exploitables immédiatement le seront peut-être dans quelques mois ou années, et il serait dommageable de les oublier.
Enfin, rien n'interdit de proposer des idées non exploitables dans sa propre entreprise à l'extérieur, c'est-à-dire chez un partenaire, un fournisseur, un client.
Alors, comment faire pour gérer mieux ces idées ? Surtout que l'accumulation d'idées au cours de diverses occasions (réunions créatives, idées spontanées des collaborateurs...) conduit vite à disposer d'un nombre gigantesque d'idées, sans même aller forcément jusqu'au record du Thinkathon organisé à Singapour par la société Solution People (huit mille participants ont produit 454 000 idées en une heure !).

Regrouper les idées

Supposons que vous ayez à disposition mille idées, obtenues par un moyen ou un autre. Si vous ne consacrez que 30 secondes à la lecture de chacune d'elles, vous en avez pour plus de huit heures de travail. Si vous souhaitez évaluer chaque idée sérieusement, en passant en moyenne une demi-heure sur chaque idée (comment la mettre en œuvre ? avec quels moyens ? quel retour attendu ?) vous arrivez à environ trois mois d'évaluation à temps plein. Un travail de titan.
Mais parmi ces idées, il y a énormément d'idées voisines. Prenons par exemple les idées : "produisons tel produit en rouge" et "donnons à tel produit un aspect métallique". Clairement, ces deux idées sont similaires : ce sont toutes les deux des idées suggérant la modification de l'aspect d'un produit. Évaluer indépendamment les deux idées revient à faire grosso modo deux fois le même travail. Il serait plus judicieux d'évaluer les deux idées à la fois.
Cela semble trivial sur cet exemple, mais souvenons-nous du travail considérable que représente l'évaluation : il est probable que les tâches d'évaluations ne seront pas toutes confiées à la même personne, et sans méthodologie adéquate, difficile d'éviter l'évaluation indépendantes des idées voisines.
Il faut donc mettre en place une méthode de regroupement d'idées. On peut imaginer plusieurs manières de faire :
  • on peut définir des thèmes : une idée appartient à un thème unique ;
  • on peut définir des caractéristiques : chaque idée possède ou non un certain nombre de caractéristiques ;
  • enfin, on peut définir un réseau d'idées : chaque idée est reliée à plusieurs autres idées.
L'idée des thèmes correspond à une partition des idées en ensembles indépendants. C'est une approche intéressante, car au lieu d'évaluer les idées indépendamment, on peut évaluer chaque thème dans son ensemble. Si on s'autorise environ 20 idées par thème, on divise par autant la charge de travail d'évaluation, ce qui n'est pas négligeable.
Par contre, elle ne favorise pas la mise en relation avec des idées liées mais classées dans d'autres thématiques. Ainsi, si vous avez créé un thème "couleur" et un thème "matière", l'idée "donnons à tel produit un aspect métallique" se classera dans un des deux thèmes mais pas dans l'autre, et ce choix peut avoir une conséquence sur l'utilisation ultérieure des idées. L'approche des caractéristiques vise à traiter le défaut précédent en permettant de d'aborder une idée selon plusieurs points de vue, désignés par des labels : l'idée précédente pourra ainsi être caractérisée par les deux labels "couleur" et "matière".
Toutefois, la multiplication des labels entraîne la perte de la réduction du travail apportée par l'idée du thème, et elle ne garantit pas totalement que toutes les idées analogues soient reliées par une caractéristique commune.
Enfin, le réseau d'idées permet de structurer les idées de manière à ce que les idées voisines puissent être reliées entre elles indépendamment de caractéristiques à définir, mais c'est certainement l'approche la plus lourde de celles évoquées ci-dessus.

Mise en œuvre des regroupements

L'implémentation de l'idée des thèmes est particulièrement facile lorsque les idées arrivent au fur et à mesure : on peut en effet construire progressivement une arborescence de thèmes.
Pour illustrer le principe, on part de zéro avec un thème générique ("toutes les idées"), puis on y ajoute des idées jusqu'à en avoir une vingtaine. A ce moment, des thématiques d'idées devraient se dessiner, comme par exemple une thématique "design", une autre thématique "marketing", et une troisième thématique "R&D". On les définit alors comme des sous-thèmes du thème générique : "idées design", "idées marketing", "idées R&D". Puis on déplace les idées du thème générique dans le sous-thème adéquat.
On continue d'alimenter en idées l'arborescence en les rangeant dans les sous-thèmes (ou en créant un nouveau sous-thème si aucun ne convient), jusqu'à ce que l'un des sous-thèmes comporte une vingtaine d'idées : on doit alors pouvoir regrouper les idées de ce sous-thème en plusieurs thématiques, et créer des sous-sous-thèmes. Et ainsi de suite.
Le travail de construction de l'arborescence est probablement à confier à un nombre réduit de personnes pour rester cohérent, mais comme il s'agit essentiellement de classification, on est plus probablement dans les 30 secondes par idées que dans les 30 minutes.
Avec quel outil informatique peut-on réaliser l'arborescence ? On peut très bien commencer par un logiciel de cartes heuristiques comme FreeMind.
La mise en œuvre de l'idée des caractéristiques nécessite de définir un nombre de labels en nombre raisonnable (pas plus d'une vingtaine). Ces labels ne sont pas forcément évidents à énoncer au démarrage de la collecte d'idées, aussi il semble plus naturel d'attendre de disposer d'un nombre suffisant d'idées (disons une centaine) pour voir si des caractéristiques se dégagent.
On peut aussi utiliser les thèmes et sous-thèmes principaux d'une arborescence déjà réalisée comme des labels : en effet, certaines idées peuvent se classer dans plusieurs branches et la construction de l'arborescence a conduit à faire un choix arbitraire, sans même s'en rendre compte.
Mais cela signifie que les idées doivent être toutes revues pour rajouter d'éventuelles caractéristiques, ce qui représente un travail considérable. Le mieux est alors de demander aux auteurs des idées de proposer l'attribution de caractéristiques supplémentaires à leurs idées. Les personnes chargées de la construction de l'arborescence pourront alors jouer le rôle de modérateurs pour assurer la cohérence de l'attribution des labels.
Enfin, l'idée des réseaux d'idées peut être considérée comme un stade ultime d'organisation qui demande un effort collectif. Les collaborateurs vont être invités à parcourir l'ensemble des idées en navigant dans l'arborescence ou en sélectionnant des caractéristiques pertinentes, ou encore en faisant une recherche par mots clés. Lorsqu'ils identifient des idées qui leurs paraissent voisines et non encore reliées, ils peuvent proposer de créer un lien entre ces idées. Le réseau ainsi crée devient une autre manière de naviguer parmi l'ensemble des idées.
Outre la création du réseau d'idées, la navigation permet de découvrir des idées originales anciennes ou dont on n'a pas connaissance : certaines peuvent être exploitables alors qu'elles ne l'étaient pas lors de leur introduction, et d'autres peuvent être sources d'inspiration pour proposer de nouvelles idées. Les idées "filles" des idées déjà dans la base devraient en toute logique être reliées à leurs idées "mères".
Trois manières d'organiser les idées, qui permettent plusieurs manières de naviguer parmi les idées. Reste les idées que la navigation spontanée des collaborateurs ne parcourt pas ou peu, une Terra Incognita de fait. On peut envisager de compter les passages des collaborateurs sur chaque idée, et de proposer un moteur de recherche aléatoire des idées basée sur le nombre de passages : une idée peu atteinte sera proposée avec une probabilité plus forte qu'une idée très visitée.

Il ne manque plus que le bon logiciel

Voilà un canevas général de l'organisation d'une base d'idées qui me semble performant. Je ne connais hélas pas de logiciel capable de faire tout ça, même s'il existe plusieurs logiciels traitant de l'aspect "réseau social" de soumission des idées, comme Spigit, aspect essentiel pour faciliter la collecte des idées au sein d'une entreprise.
Un tel logiciel de gestion de bases d'idées serait à mon sens utile pour les entreprises qui innovent, aussi bien que pour les médiateurs techniques qui doivent trouver créativement des secteurs d'activités pertinents pour chercher les solutions de leurs clients.

mercredi 10 août 2011

L'éconophysique

Que les bourses soient devenues de véritables casinos, où se jouent de gigantesques parties de poker, ne présenterait guère d'importance après tout, les uns gagnant ce que les autres perdent, si les fluctuations générales des cours n'engendraient pas , par leurs implications, de profondes vagues d'optimisme ou de pessimisme qui influent considérablement sur l'économie réelle. (...). Le système actuel est fondamentalement anti-économique et défavorable à un fonctionnement correct des économies. Il ne peut être avantageux que pour de très petites minorités. (Maurice Allais)

Je vous vois déjà vous gratter la tête en vous demandant ce que j'ai bien pu encore inventer. "Éconophysique", ça ressemble à un mot-valise bricolé à la suite d'un brainstorming, voire d'une soirée particulièrement arrosée.
Pourtant, le terme désigne une approche relativement récente mais tout à fait sérieuse de l'économie avec des outils issus de la physique.

Quand les physiciens s'intéressent à l'économie

L'économie concerne tout le monde, surtout en période de crise. Il n'est donc pas étonnant que des physiciens y prêtent attention. Ce qui est plus étonnant, c'est quand ils s'y intéressent suffisamment pour se dire que leurs idées de physiciens peuvent apporter une contribution importante à cette discipline, pourtant généralement assimilée à une science humaine.
Ce n'est pas une nouveauté en soi : ainsi, le prix Nobel d'économie 1988 Maurice Allais est un économiste autodidacte, qui s'est inspiré de la physique apprise lors de sa formation d'ingénieur pour aborder des problèmes de dynamique monétaire dans les années 1940.
Au passage, notons qu'il a apporté des idées très originales par rapport à la gestion des crises économiques. En effet, très impressionné par la crise de 1929 et ses conséquences désastreuses, il s'est engagé dans l'économie pour comprendre les mécanismes des crises et trouver des remèdes. Je vous invite à lire cet article qui synthétise ses idées. C'est assez éclairant sur la situation économique actuelle : les gouvernements font le contraire de ce qu'il préconise depuis les années 1970, et les crises se succèdent.
On peut citer bien d'autres auteurs isolés qui ont pu apporter des idées de physique (Daniel Bernoulli a introduit les probabilités dans l'économie, Benoît Mandelbrot a montré que les fluctuations des cours de la bourse ne sont pas gaussiens...). Mais on ne peut vraiment parler d'éconophysique qu'à partir du milieu des années 1990, quand des spécialistes de physique statistique se sont intéressés à la description des marchés financiers.
En effet, l'économie classique reposait sur des concepts d'équilibre et d'agents économiques homogènes, alors que les marchés financiers sont fortement hors d'équilibre et constitués d'agents hétérogènes. Précisément ce qu'étudiaient alors ces physiciens, grâce à leurs simulations numériques désormais permises par l'arrivée d'ordinateurs personnels assez puissants. Une communauté de chercheurs s'est formée progressivement, jusqu'à ce que l'on puisse authentiquement parler d'une discipline à part entière.


L'apport des physiciens à l'économie

Les physiciens ont des habitudes propres à leur discipline. Ainsi, plutôt que de bâtir des modèles simplifiés de l'économie, certains physiciens ont privilégié l'analyse empirique des données économiques, comme le ferait un expérimentateur.
Les physiciens ont également un bagage de concepts physiques très variés, dont certains peuvent s'appliquer à l'économie. Ainsi, dans un réseau physique (assemblée d'atomes, par exemple) ou des interactions entre voisins existent, dans certaines conditions le réseau s'auto-organise : on peut alors voir apparaître des phénomènes macroscopiques (à l'échelle de tout le réseau), dont le plus simple est la transition de phase (l'eau se transformant en glace en est l'archétype).
Ce type de phénomène peut avoir des analogues dans l'économie, qu'il est intéressant d'identifier et d'étudier avec les outils du physicien : par exemple, la compétition entre les deux standards Blu-ray et HD-DVD s'est soldée par la victoire de fait du premier, à l'instar d'une cristallisation qui sélectionne une orientation préférentielle des atomes dans l'espace lors de la solidification d'un liquide constitué d'atomes désordonnés.
Enfin, les modèles de physique statistique peuvent s'appliquer à divers domaines économiques comme par exemple la fiscalité : en effet, l'effet d'un type donné d'impôt (sur les revenus, sur le capital...) dans une économie de marché peut être simulé de manière assez similaire à un réseau d'atomes : les interactions entre "atomes" voisins représentent les échanges économiques entre les acteurs économiques (entreprises, particuliers...), et l'imposition correspond l'influence d'un "champ électrique ou magnétique extérieur" dont on peut régler les paramètres.
Vous en doutez ? Alors lisez cet article (en anglais) de deux chercheurs français. Ils introduisent notamment l'impôt sur le capital (cher à Maurice Allais) en plus de l'impôt sur le revenu, ainsi qu'une redistribution partielle de l'impôt collecté à tous les contribuables (une sorte de revenu citoyen). Leur modèle permet d'aborder le problème de l'inégalité de la répartition des richesses et en particulier de comparer différentes doctrines fiscales. A méditer en ces temps de pré-campagne présidentielle...

Une médiation technique ?

Il y a effectivement une démarche transversale très proche de la médiation technique dans l'éconophysique : l'utilisation de connaissances physiques dans un secteur complètement différent est, à n'en pas douter, une approche analogue.
Toutefois, l'initiative de l'éconophysique est celle des physiciens, autrement dit des experts, et non celle des financiers, des économistes ou des politiques, c'est-à-dire des utilisateurs potentiels. Cela a deux conséquences :
  • d'une part, si les financiers ont compris l'intérêt qu'ils avaient à utiliser des techniques dérivées de l'éconophysique, les économistes ne s'y intéressent que peu (et les politiques pas du tout), et la synergie qu'on pourrait attendre n'est pas forcément au rendez-vous ;
  • et d'autre part, certains sujets intéressants pour les économistes, et qui pourraient être abordés par des techniques de physiciens, ne sont aujourd'hui pas étudiés par les physiciens.
On est donc typiquement dans une logique de Technology Push, alors que la médiation technique correspond à une logique de Market Pull. Deux logiques complémentaires.

lundi 8 août 2011

Un peu d'innovation, beaucoup d'imitation

L'écrivain original n'est pas celui qui n'imite personne, mais celui que personne ne peut imiter. (François René de Chateaubriand)
Connaissez-vous la théorie des mèmes ? Cette théorie se veut un cadre explicatif d'un certain nombre de comportements humains. L'idée centrale est que ce qui fait la supériorité de l'espèce humaine, c'est sa capacité à imiter.
Mais pourquoi la théorie mentionne-t-elle le mot "mème", apparemment mal orthographiée ? Et quel rapport avec l'innovation ou la médiation technique ?

De la génétique à la mémétique

L'origine de la théorie se trouve dans l'un des ouvrages de Richard Dawkins, biologiste britannique et fervent pourfendeur des créationnistes. Il a proposé le terme "mème" dans son best-seller Le gène égoïste, dans lequel il explique comment la sélection naturelle opère en tant que réplicateur de gènes.
Un réplicateur est un système qui copie des objets (par exemple, des gènes). Un réplicateur est particulièrement intéressant lorsqu'il réunit trois conditions :
  • il copie les objets relativement fidèlement, 
  • il commet quelques fois des erreurs,
  • et il copie certains objets mieux que d'autres.
Ces trois conditions permettent au réplicateur d'optimiser les objets répliqués. En effet, la troisième condition sélectionne les objets les plus aptes à être copiés, le première assure que les objets sélectionnés ne sont pas dénaturés au cours du processus, et la seconde permet d'introduire de l'innovation pour améliorer encore les objets répliqués. C'est la base de la sélection naturelle de Darwin.
Dawkins a fait remarquer à l'époque dans son livre que le principe du réplicateur n'est pas limité à la génétique, mais qu'on peut l'appliquer à la culture. En effet, nous véhiculons tous les jours des éléments culturels (idées, dessins, sons, attitudes) lors de nos échanges : la plupart de ces éléments culturels ne sont pas purement originaux mais sont des répliques d'éléments culturels que l'on a vus ou entendus auparavant et qui nous paraissent pertinents.
Dawkins a inventé le mot "mème" pour désigner ces éléments culturels qui se propagent. L'étymologie est la suivante : un élément culturel se réplique par une imitation, mimicry en anglais ; un élément d'imitation peut être appelé "mimème" par analogie avec le phonème, élément de phonétique ; enfin "mème" est une abréviation de "mimème" afin de ressembler à "gène".
La théorie des mèmes a été développée par plusieurs auteurs. Je recommande la lecture en particulier de La théorie des mèmes de Susan Blackmore. Comme cela, si vous n'avez pas d'idées pour vos livres de plages, vous voilà servis.
Dans cet ouvrage, l'auteur tente d'expliquer des phénomènes aussi divers que la mode, les croyances religieuses, le langage ou encore la taille exceptionnelle du cerveau humain. Le cœur de son apport tient dans le fait que l'être humain est un réplicateur de mèmes si efficace que son évolution naturelle est désormais guidée en grande partie par les mèmes. Nous sommes tous de brillants imitateurs.
Je suppose que la théorie permet d'expliquer le succès d'un réseau comme Twitter, basé notamment sur la répétition (le "retweet") d'informations.
La théorie des mèmes est même (!) devenue une science, encore à ses balbutiements, la mémétique.

Imitation et innovation

L'innovation et l'imitation sont des concepts opposés. Pourtant, la théorie des mèmes, et en particulier le concept de réplicateur, suggère que c'est en les combinant que l'on obtient un processus d'optimisation.
Considérons en effet un ensemble de technologies (par exemple, les technologies de découpe de matériaux) comme des mèmes. Ce sont bien des éléments culturels qui peuvent se transmettre. Pour que l'évolution des technologies corresponde à une amélioration, il faut que les trois conditions du bon réplicateur cités ci-dessus soient réunis.
Ainsi, il faut :
  • que les technologies soient imitées efficacement,
  • que certaines innovations soient apportées,
  • et que les meilleures technologies soient favorisées.
Comment réaliser ces trois conditions ?
La première condition nécessite la publication des technologies. Lorsque les technologies proviennent de laboratoires publics, ce n'est pas forcément un problème car les scientifiques sont encouragés à publier. Pour les entreprises, dont les secrets de fabrication sont un élément stratégique, le principe du brevet est une réponse intéressante, car il oblige le déposant d'un brevet à publier sa technologie.
Remarquons au passage que les brevets américains contiennent généralement nettement plus de précisions techniques que les brevets européens.
Toutefois, le brevet impose la publication de la technologie mais octroie le droit d'interdire l'usage par les concurrents. Or si la technologie n'est pas utilisée effectivement, la publication n'est qu'un faible substitut car toute l'expérience pratique issue de l'usage est indisponible pour les concurrents : on ne peut pas vraiment parler de copie.
En pratique, un brevet conduit souvent à une licence d'utilisation commercialement négociée, ce qui permet la copie de la technologie. Néanmoins, la copie est ralentie et réduite car certaines entreprises ne sont pas prêtes à payer pour tester une technologie qui pourrait les intéresser.
De facto, le brevet donc est une arme à double tranchant pour l'amélioration des techniques.
Mais il existe une autre option : copier des technologies tombées dans le domaine public mais issues d'un autre secteur d'activité. Vous avez bien entendu reconnu l'un des principes de la médiation technique.
La seconde condition est évidemment d'innover. Je n'en dirais pas plus sur le sujet, que j'aborde régulièrement dans ce blog.
Enfin, la dernière condition nécessite de tester et comparer des meilleures technologies. Ce n'est pas évident pour une entreprise isolée, car tester une technologie nécessite des investissements. Le cas de l'informatique est particulier, car l'investissement de test d'un logiciel est souvent nul (il faut quand même tenir compte des heures passées par les employés pour réaliser le test). Cependant, dans bien des cas une entreprise n'a pas les moyens de réaliser cet investissement.
Quelles solutions s'offrent à ces entreprises ? On peut penser à un financement par les pouvoirs publics. OSEO finance un certain nombre d'initiatives de cet ordre, mais il faut généralement que l'essai corresponde à une innovation technologique. Or la meilleure technologie pour une production donnée n'est pas toujours une technologie récente, et même dans ce cas, seule la plus rapide des entreprises d'un secteur donné pourra bénéficier de cette aide.
Une autre alternative consiste à se tourner vers ses concurrents. Eh oui : les autres entreprises du même secteur se posent probablement le même genre de questions sur la technologie idéale pour une production donnée. Prendre contact avec ces entreprises concurrentes et leur proposer un benchmarking de leurs technologies est une solution intéressante. Toutefois, cela limite la comparaison aux technologies déjà implémentées par les concurrents, et l'entreprise la plus innovante est défavorisée dans l'affaire car elle livre ses secrets. Par ailleurs, un échange entre concurrents est potentiellement l'occasion d'ententes anticoncurrentielles et il faut être très prudent du point de vue juridique.
Enfin, si l'entreprise fait partie d'un pôle de compétitivité, il est possible de fédérer plusieurs autres entreprises autour d'un projet collaboratif relatif à une technologie donnée.
Pour conclure, disons que le progrès, c'est un peu d'innovation et beaucoup d'imitation !