vendredi 29 juillet 2011

Être plus nombreux permet-il d'aller plus vite ?

Comment un projet prend-il un an de retard ? ... Un jour à la fois. (Frederick Phillips Brooks, Jr.)
Dans de nombreux projets, le travail nécessaire pour accomplir une tâche est estimé en hommes-heures, ou dans une unité similaire. Cela laisse supposer que le même travail peut être réalisé plus rapidement en augmentant le nombre de collaborateurs affectés à ce travail. Mais cette logique ne fonctionne.pas toujours. On peut s'en convaincre par divers arguments, mais il me paraît intéressant d'aborder la question par une transposition de connaissances provenant de l'informatique, et plus spécifiquement du calcul parallèle.

Parallelisation et efficacité

Le principe du calcul parallèle consiste en l'utilisation de plusieurs processeurs pour réaliser une tâche de calcul donnée. L'intérêt est évidemment de réaliser cette tâche plus vite, ce qui est particulièrement critique en calcul scientifique lorque le problème à résoudre nécessite de déterminer la valeur d'un nombre gigantesque de variables.
En effet, un problème physique se traduit souvent par la recherche d'au moins une fonction mathématique f(x,y,z) définie sur un domaine spatial à trois dimensions. Mais il est rarement possible de trouver une expression exacte de la solution, et on cherche souvent une approximation de cette fonction sous la forme d'une interpolation : en gros, on cherche la valeur de la fonction en certains points, et la valeur de la fonction en d'autres points est évaluée par une sorte de moyenne des valeurs des points les plus proches.
Or le nombre de points nécessaires augmente vite si vous avez besoin d'une solution précise : si le domaine de calcul est un cube d'un mètre cube, vous aurez besoin de 10^3=1 000 points pour avoir des valeurs tous les décimètres, 100^3=1 000 000 points (un million) si vous en voulez tous les centimètres et un milliard s'il vous faut des valeurs tous les millimètres. Je vous laisse imaginer les besoins informatiques lorsqu'il faut calculer beaucoup de fonctions de ce type, voire quand il faut travailler avec plus de trois dimensions (l'équation de Boltzmann des gaz raréfiés en comporte sept !). Autant dire que les calculs peuvent être extrêmement longs.
C'est pourquoi les scientifiques ayant ce genre de calculs à réaliser ont développé des solutions pour accélérer les calculs, et notamment des solutions de calcul parallèle. Le calcul parallèle, sur le papier, c'est une solution évidente : plus vous pouvez affecter d'ordinateurs sur un même calcul, plus vous devriez aller vite. Idéalement, si vous utilisez 100 ordinateurs, vous pouvez espérer une accélération du calcul de 100 fois. Un calcul pouvant nécessiter un an sur un seul ordinateur est ramené alors à moins de quatre jours.
Mais dans la pratique, les spécialistes du calcul à haute performance (HPC pour High Performance Computation) se sont vite rendus compte que ce n'était pas si simple.La loi d'Amdahl exprime une limite à cette accélération infinie.
Que dit cette loi ? Tout simplement que, dans la mesure où il existe toujours des sous-tâches non traitables en parallèle, non fractionnables, il y a toujours besoin du temps nécessaire pour réaliser ces sous-tâches. Ne seraient-ce que les opérations consistant à envoyer les instructions à réaliser à chaque processeur.
Par exemple, si vous avez 10% de telles tâches non fractionnables, l'accélération attendue avec deux processeurs est de 1,8, avec dix processeurs de 5,3, avec cent processeurs de 9,2 et avec mille processeurs de 9,9. Autrement dit, inutile d'espérer mieux qu'une accélération supérieure à dix ici, et l'utilisation de plus d'une dizaine de processeurs n'est pas très utile.
Notons toutefois que moins il y a d'opérations non fractionnables, plus la parallélisation est intéressante.
Enfin, une autre manière d'envisager la parallelisation existe. Si, au lieu de considérer la résolution d'un problème donné et de chercher à le faire le plus rapidement possible, vous supposez que vous disposez d'une durée donnée (le temps d'un projet, par exemple) et que vous chercher à réaliser le calcul le plus précis ou complexe possible, les choses changent. En effet, souvent le temps à consacrer aux opérations non fractionnables n'augmente que lentement avec la taille du problème à traiter, et leur part diminue alors lorque la taille du problème augmente.
Reprenons l'exemple précédent, et supposons que le calcul sur un processeur dure dix heures, dont une consacrée à des opérations non fractionnables, indépendamment de la taille du problème. Avec deux processeurs, on peut doubler le nombres d'opérations des neuf heures fractionnables, soit une augmentation de charge de 1,9 ; avec dix processeurs, on arrive à 9,1, pour cent processeurs à 90,1 et pour mille processeurs à 900,1. Il est donc plus intéressant de paralléliser massivement dans cette optique-là.

Analogie avec la gestion de projets 

Transposons les observations précédentes à la gestion d'un projet et de ses ressources humaines.
La loi d'Amdahl se traduit par le fait que, comme le savent bien les chefs de projet expérimentés, lorsqu'une tâche a pris du retard, le rattrapage du temps perdu en affectant des ressources humaines supplémentaires à cette tâche est inefficace : il faut affecter plus de ressources humaines que ne le laisse penser le nombre d'hommes-heures restant, et parfois le respect du timing prévu est impossible. Voilà pourquoi tant de projets qui prennent du retard ne le rattrapent jamais.
Autre leçon de la loi d'Amdahl : pour réduire le temps nécessaire à la réalisation d'une tâche, il est possible d'augmenter le nombre de collaborateurs qui y sont affectés, mais ce ne sera efficace que si la part des opérations non fractionnables est réduite. Or le temps consacré au management est souvent essentiellement non fractionnable : explications à donner à l'équipe, contrôle des opérations...
Cela signifie que la clé de la réduction des délais par l'apport de collaborateurs est l'efficacité du management. Celui-ci est d'autant plus efficace que les collaborateurs sont formés et autonomes. Ainsi, les entreprises faisant face à des problématiques d'intervention très rapide auront intérêt à former leurs employés et â les rendre autonomes afin que les équipes constituées pour l'occasion, qu'on appelle parfois des task forces, soient véritablement efficaces. Mais quoi qu'il en soit, une task force ne peut pas multiplier indéfiniment la vitesse d'intervention, et il n'est probablement jamais utile de multiplier par 10 ou plus les effectifs consacrés ordinairement à une tâche.
Par contre, il est pertinent de multiplier les effectifs pour réaliser des projets très ambitieux. Pour peu que le surcoût économique dû aux tâches non fractionnables comme le management soit plus que compensé par des économies d'échelle, on comprend qu'une grande entreprise soit capable de faire travailler un grand nombre d'employés sur des projets ambitieux, mais qu'elle ne sera pas forcément plus performante qu'une PME pour de plus petits projets.

Parallélisme et médiation technique 

Une mission de médiation technique est sensiblement constituée de tâches non fractionnables : la définition du besoin se fractionne difficilement, la créativité s'assimile a une task force mais ne requiert pas forcément plus qu'un médiateur et deux ou trois employés de l'entreprise cliente, la recherche peut se paralléliser si le nombre d'entreprises à sonder est important, la négociation aussi mais c'est plus délicat, enfin les tâches d'élicitation, de modélisation et de formalisation des connaissances s'y prêtent assez peu car l'entreprise sélectionnée ne peut généralement pas mettre un nombre élevé d'experts à disposition.
Par conséquent, il n'est pas pertinent de mettre plusieurs médiateurs techniques sur la même mission dans la plupart des cas. Rien n'empêche, toutefois, de faire intervenir plusieurs médiateurs techniques uniquement pour la prospection. Mais cela ne se justifie que pour des missions particulièrement ouvertes et très exploratoires.

lundi 25 juillet 2011

Trouver des idées grâce aux jeux de mots

Il y a bien des situations professionnelles où l'on a besoin d'idées. Lorsqu'on innove, par exemple. Ou encore, lorsqu'on tient un blog. Mais aussi lorsqu'on recherche une solution toute faite à son problème technique : l'idée recherchée est alors le secteur d'activité dans lequel on peut espérer trouver la solution toute faite. C'est donc dans l'intérêt d'un médiateur technique de savoir trouver des idées.
Voici une technique parmi d'autres, qui plaira particulièrement aux amateurs de mots croisés et autres jeux de mots.

Alimenter la créativité

Un créatif a besoin de germes d'idées, c'est-à-dire de quelques mots, d'expressions, d'images, à partir desquels il va utiliser sa capacité à associer des idées. Si vous laissez le créatif sans germes d'idées, il va puiser dans ses pensées du moment, mais il est peu probable que ces pensées aient un minimum de synergie avec la thématique de la recherche d'idées. Il faut donc alimenter le créatif en germes d'idées pour que sa créativité s'exprime au mieux.Où trouver ces germes d'idées ? Il y a plusieurs possibilités. Si vous êtes amateur de jeux de mots, voici quelques étapes simples, à adapter à chaque thématique :
  1. Prenez quelques mots caractéristiques de la thématique sur laquelle il faut trouver des idées. Appelons cela des points de départ.
    Par exemple, si la thématique concerne les moyens de transport écologiques, écrivez les mots "transport", et "écologie".
  2. A partir de ces points de départ, générez d'autres mots. Cherchez des mots qui sont dans le même champ sémantique (synonymes, paronymes, antonymes, termes plus généraux ou plus spécifiques), en vous servant d'outils comme un dictionnaire ou un site spécialisé (voir celui de l'université de Caen ici).
    Par exemple, pour "transport", le site de l'université de Caen propose :
    "acheminement", "admiration", "agitation", "air", "alacrité", "allégresse", "ardeur", "attendrissement", "aviation", "avion", "bateau", "bouillon", "camionnage", "cession", "chaleur", "charriage", "charroi", "circulation", "commerce", "communication", "crise", "déchaînement", "délégation", "délire", "déménagement", "démonstration", "descente", "échange", "effusion", "élan", "emballement", "émotion", "emportement", "enivrement", "enthousiasme", "exaltation", "excitation", "expansion", "expédition", "exportation", "extase", "exultation", "factage", "fièvre", "flamme", "fougue", "fureur", "impétuosité", "importation", "ivresse", "joie", "locomotion", "logistique", "manifestation", "manutention", "messagerie", "mouvement", "passage", "passion", "port", "portage", "poste", "rage", "ravissement", "route", "soulèvement", "surexcitation", "trafic", "train", "traite", "transbordement", "transe", "transfèrement", "transfert", "transit", "translation", "transmission", "vertige", "visite", "voiture", "voyage".
    Notons qu'on peut réitérer cette génération de mots à partir des mots que l'on a trouvés ainsi.
    Des idées peuvent spontanément être engendrées par ces mots seuls. Par exemple, le mot "vertige" peut faire réfléchir à un transport écologique qui utilise la hauteur et la chute, puis faire penser à la tyrolienne.
  3. Cela ne suffit pas toujours. Aussi, on peut penser à combiner des mots deux-à-deux. Si vous aviez au départ 20 mots, vous pouvez obtenir 190 doublets. La plupart ne donneront rien, mais quelques associations originales pourront être fertiles.
    Ainsi, à partir de "messagerie" et "écologie", vous pouvez ainsi réfléchir à ce que serait une messagerie écologique.
  4. Vous pouvez aussi trouver d'autres mots par des techniques de jeu de mots : anagramme, paronymie, changement d'une lettre... On pourra par exemple utiliser ce site. Là, on sort du champ sémantique initial, c'est plus hasardeux mais probablement plus créatif.
    Par exemple :à partir du mot "écologie", on peut obtenir "école" ou "liège" en retirant quelques lettres. Vous pouvez alors réfléchir à ce que pourrait être un moyen de transport utilisant du liège, comme des emballages en liège pour faire des colis flottants qui dériveraient le long de canaux aménagés, sans dépense d'énergie lorsqu'on descend un fleuve. Comme pour le flottage des troncs.
  5. Enfin, on peut encore ajouter des mots au hasard, par exemple avec ce site.
    Ainsi, si vous incorporez le mot "indéchirable", tiré au hasard, vous pouvez imaginer que vous remplacez tous les éléments que l'on déchire dans le transport (les emballages notamment) par une solution indéchirable, et aboutir à des emballages réutilisables. Ma grand-mère avait d'ailleurs l'habitude de garder les papiers-cadeaux des cadeaux qu'elle recevait ; comme quoi les idées écologiques ne datent pas d'hier.
Faire germer

Il est ainsi facile de produire un tas de germes d'idées diverses et variées. Le plus difficile n'est pas d'avoir des germes d'idées, mais d'en faire une idée concrétisable, un prototype de projet. La créativité doit rester présente, mais il faut commencer à intégrer des connaissances techniques, afin de schématiser comment le germe d'idée peut se transposer dans la vie réelle.
Les experts, convoqués a posteriori de la germination d'idées, doivent être briefés : leur objectif n'est pas de dire si ça peut marcher (car l'expert a naturellement tendance à dire qu'une idée neuve n'a aucune chance de marcher), mais bien comment ça peut marcher. On passe donc du brainstorming à la résolution de problèmes.
Et rien n'empêche de faire appel à la médiation technique pour trouver des solutions !

vendredi 22 juillet 2011

R&D Project managing

Au cours de mes activités professionnelles, j'ai été amené à découvrir la société R&D Project Managing, qui a retenu mon attention. En effet, c'est une PME alsacienne, basée à proximité de Saverne, et que je trouve exemplaire dans son approche de l'innovation industrielle.

L'entreprise en deux mots

R&D Project Managing est une PME d'ingénieurs et de techniciens, qui offre des services de conseil en industrialisation, de conception de solutions de production sur mesure, et de réalisation de cellules robotisées et de machines d''assemblage automatisées.
Voir leur site ici.

Ce qui m'a plu

D'abord, une attitude ouverte vis-à-vis des demandes originales. Ainsi, lorsque un inventeur contacte R&D Project Managing pour industrialiser un prototype, ses dirigeants l'accueillent avec intérêt.
Il n'est évidemment pas question de travailler sur la première idée saugrenue venue, mais si l'invention semble répondre à un besoin et se prête à une industrialisation, la société est prête à en discuter.
Ensuite, une capacité à trouver des solutions originales, créatives, et concrètes. Cela se traduit notamment par le dépôt de quelques brevets.

Enfin, l'entreprise a développé une cellule d'assemblage flexible, dénommée Evolubox.
Cette cellule permet à une entreprise qui développe des produits à assembler mécaniquement de disposer d'un poste d'assemblage modulaire. Cela peut être utile :
  • lorsqu'on est amené à changer souvent de produit à réaliser : il n'est pas nécessaire d'investir à chaque fois que l'on doit fabriquer un nouveau produit ;
  • ou lorsqu'on développe un produit complexe : on peut réaliser le prototype dans la cellule de manière totalement manuelle, puis semi-automatique, et enfin de manière quasi-industrielle en ajoutant progressivement des modules.

jeudi 21 juillet 2011

Les logiciels gratuits : une innovation de business model

L'industrie du logiciel utilise traditionnellement deux modèles d'affaires : l'achat d'un logiciel ou sa location.
Le premier modèle est encore assez répandu pour le grand public ou les logiciels les plus classiques (bureautique, notamment). Mais il souffre du piratage, et depuis l'essor d'internet il est devenu relativement facile de trouver un numéro de licence de son logiciel préféré, qu'on aura copié au préalable à partir d'un CD-ROM du boulot ou d'un ami, pour le débloquer. Et je ne parle même pas du peer-to-peer.
Personnellement, cela fait bien longtemps que je n'achète plus de logiciels comme ça. Je vous arrête tout de suite : je ne suis pas un pirate, j'utilise des solutions gratuites (Linux, OpenOffice...).
Le second modèle, déjà connu des entreprises depuis bien longtemps pour des logiciels spécifiques (logiciels de calculs scientifiques ou d'ingénierie, par exemple), est devenu très courant depuis l'apparition des solutions basées sur internet.
Le Cloud Computing, très à la mode, n'est rien d'autre que l'industrialisation de ce modèle. Il est d'ailleurs stupéfiant de voir à quel point certains acteurs majeurs du domaine font l'apologie du Cloud. Est-ce pour le bien des utilisateurs ? Non, bien entendu : c'est un moyen d'éviter le piratage de logiciels, qui n'est plus basé sur l'ordinateur de l'utilisateur, et de forcer un client à rester captif de son fournisseur de logiciels car le transfert des données vers une autre solution (Cloud ou pas) devient délicat voire coûteux.
Depuis quelques années se développe pourtant une offre alternative, celle des logiciels gratuits. Il y a bien sûr de gentils développeurs qui proposent gratuitement le fruit de leur travail à la communauté. Mais il existe aussi des entreprises qui proposent ces solutions gratuites. Or une entreprise n'est pas une société philanthropique : elle doit gagner de l'argent, ne serait-ce que pour payer ses salariés. Alors, pourquoi diable proposent-elles des logiciels gratuits ?

Qui paye quoi ?

Puisqu'il y a forcément quelqu'un qui paye l'entreprise, il est utile de se poser les deux questions : qui paye ? et que paye-t-il ?
La réponse à la première question est simple : soit c'est l'utilisateur qui paye, soit c'est un tiers. Si c'est l'utilisateur, sachant qu'il ne paye pas le logiciel gratuit, il doit nécessairement payer autre chose :
  • il peut être invité à contribuer financièrement au développement du logiciel s'il le souhaite : c'est le principe du pourboire ;
  • il peut vouloir acheter des produits dérivés : l'entreprise commercialise alors des T-shirts et autres accessoires ;
  • il peut être amené à payer une version améliorée du logiciel : le logiciel gratuit est une sorte d'appas pour proposer un logiciel payant ;
  • il peut aussi avoir besoin de formation à ce logiciel : l'entreprise vend alors des offres de formation à ce logiciel ;
  • il peut également avoir besoin d'assistance technique : l'entreprise vend donc une offre d'assistance en cas de difficulté d'utilisation, ou d'installation et de maintenance ;
  • il peut avoir besoin de développements spécifiques : l'entreprise développe alors des modules complémentaires payants ;
  • enfin, et c'est plus subtil, il peut être amené à acheter d'autres produits ou services de l'entreprise : l'entreprise se sert du logiciel gratuit comme outil publicitaire à son propre bénéfice pour augmenter sa notoriété.
Le pourboire et les produits dérivés sont plutôt réservés à une catégorie de fanatiques du monde numérique(les geeks) qui font du logiciel libre une profession de foi. Ce type de revenus est donc d'intérêt assez limité pour une entreprise. Notons que Wikipédia est financé (au moins en partie) par des dons d'utilisateurs.
Par contre, la version améliorée payante est le business model de bon nombre de logiciels gratuits. Par exemple, on peut citer SugarCRM dans les logiciels de gestion de la relation clients à destination essentiellement des commerciaux d'une entreprise : il existe une version gratuite avec moins de fonctionnalités qui permet de tester le logiciel ; si l'on a besoin d'un outil plus performant, on passe à la version payante. C'est aussi le cas des réseaux sociaux professionnels comme Viadeo ou LinkedIn, l'usage gratuit étant limité.
Enfin, IBM fait partie de la fondation Eclipse dont la vocation est de développer des logiciels libres autour de l'environnement de développement libre Eclipse ; il est clair que c'est une façon pour IBM de se doter d'une image sympathique et ouverte, à l'opposé de son image traditionnelle de fournisseur de solutions propriétaires, même si ce n'est certainement pas la seule raison.
La simulation numérique avec OpenFOAM
Si vous êtes ingénieur et que vous faîtes du calcul ou de la simulation numérique (calcul de structures, mécanique des fluides, thermiques...) vous utilisez probablement un logiciel professionnel coûteux : Fluent, Abaqus...
Il existe aujourd'hui des codes de calculs gratuits, mais bien souvent il s'agit de codes développés par des thésards dans des laboratoires et très spécifiques à un problème donné. Toutefois, certaines solutions gratuites relativement flexibles commence à se diffuser, comme par exemple OpenFOAM
Dans sa dernière version, ce logiciel permet d'aborder en standard des domaines aussi variés que la mécanique des fluides (parfaits ou visqueux, turbulents ou laminaires, incompressibles ou compressibles, monophasiques ou multiphasiques, avec ou sans réaction chimique, avec ou sans gravité), de la dynamique moléculaire, de la thermoélasticité, de l'électrostatique ou de la magnétostatique. De plus, OpenFOAM est conçu pour pouvoir développer ses propres solveurs d'équations aux dérivées partielles sans avoir à tout réinventer, même ce type de développement est à réserver à des spécialistes. Les performances d'OpenFOAM sont comparables à celles de codes payants.
Ce logiciel est maintenu par la société OpenCFD. Il est gratuit et téléchargeable librement. OpenCFD assure la fiabilité des algorithmes codés en standard, corrige les bugs qui lui sont signalés, et développe de nouveaux modules. Comment gagne-t-elle de l'argent ? Par de la formation, du support technique et du développement spécifique.
Il existe également d'autres sociétés qui interviennent sur OpenFOAM, comme Wikki, fondée par un fondateur d'OpenFOAM dissident, qui maintient des extensions d'OpenFOAM non maintenues par OpenCFD, et qui se rémunère sur des développements spécifiques.

Si ce n'est pas l'utilisateur qui paye, c'est donc un tiers :
  • ce peut être une entreprise qui se sert du logiciel comme support de publicité : le logiciel gratuit impose à l'utilisateur de voir des messages publicitaires ;
  • ce peut aussi être une entreprise qui veut communiquer une image : elle se présente comme mécène d'un projet de logiciel gratuit ;
  • ce peut aussi être une entreprise qui vend un produit ayant besoin de ce logiciel pour fonctionner : elle investit alors dans un logiciel pour gagner des clients.
La publicité est familière à tout utilisateur du moteur de recherche de Google. Il y a une quantité gigantesque de sites internet, ou même de blogs, dont la rémunération est assurée par la publicité.
Le mécénat de logiciels libres est encore rare, mais on peut citer par exemple le cas de Wecena qui recherche des mécènes pour développer des projets informatiques.
Enfin, l'investissement dans les logiciels libres prend par exemple la forme d'un financement de systèmes d'exploitation comme Android par des fabricants de smartphones afin que leur produit soit exploitable. Le consommateur ne paye donc pas directement le logiciel mais il le fait par l'intermédiaire du fabricant.

On peut aussi innover dans le business model

Les logiciels gratuits prouvent qu'il n'est pas nécessaire de révolutionner la technologie pour innover : changer le mode de financement de son activité est également une solution.
Quel intérêt y a-t-il à changer son business model ? Dans le cas des logiciels libres, il est intéressant de voir que ces nouveaux modèles d'affaires apportent une possibilité de développer rapidement une communauté d'utilisateurs dans un marché parfois dominé par quelques grosses entreprises.
Le cas des logiciels de mécanique des fluides est intéressant, car le marché est aujourd'hui concentré autour des logiciels Fluent, CFX et Star-CD, les deux premiers appartenant à la même compagnie, ANSYS. Un logiciel payant nouveau, n'ayant pas l'intégralité des fonctionnalités de ces concurrents, ne pourrait voir le jour sans un énorme effort de développement initial, alors qu'un logiciel gratuit comme OpenFOAM, même initialement limité à quelques fonctionnalités essentielles, peut facilement se diffuser, être progressivement enrichi de fonctionnalités, et faire son trou dans ce marché. La gratuité permet de contourner l'obstacle à l'entrée sur le marché que constitue le niveau avancé de développement des solutions dominantes.
Dans le domaine du logiciel, ce type de stratégie est permis par le coût marginal virtuellement nul de la copie du logiciel. C'est très spécifique à l'industrie du logiciel, mais il existe des secteurs présentant des similarités, comme celui de la pharmacie. En effet, le coût essentiel d'un médicament vient de son développement avant l'autorisation de mise sur le marché, comme le coût de développement d'un logiciel avant sa mise sur le marché, alors que chaque nouvelle pilule produite ne coûte que très peu, comme le montrent les entreprises produisant des médicaments génériques.
Le business model de l'industrie pharmaceutique, basée sur le brevet, est aujourd'hui annoncé comme en perte de vitesse : le développement des médicaments nouveaux est de plus en plus difficile et coûte de plus en plus cher, avec des conséquences évidentes sur les dépenses publiques de santé. Peut-être est-il possible de s'inspirer du logiciel gratuit pour proposer d'autres business models à l'industrie pharmaceutique.
A coup sûr, un nouveau modèle de "médicament libre" nécessiterait d'ébranler le dogme du brevet comme seule solution pour garantir l'innovation en matière de santé publique. Sans nécessairement que l'on n'y perde en sécurité. Peut-être avez-vous des idées ?

Pourquoi s'intéresser aux logiciels gratuits ?

La réponse est dans la question : parce que c'est gratuit. Et ce n'est pas parce que c'est gratuit que c'est forcément de mauvaise qualité, car il y a souvent des professionnels qualifiés derrière ces solutions gratuites.
Un médiateur technique peut très bien être amené à rechercher pour une entreprise industrielle un substitut à un logiciel professionnel onéreux, et il se peut qu'une solution gratuite existe.
Ainsi, pour visualiser des données numériques, on pourra substituer au coûteux logiciel Ensight le logiciel gratuit ParaView. On pourra remplacer Fluent par OpenFOAM pour simuler des écoulements de fluides. On pourra utiliser Octave pour ses calculs numériques à la place de Matlab. Et il en existe bien d'autres pour tout un tas d'applications technique : R pour les statistiques, SPICE pour l'électronique, Modelica pour toute modélisation basée sur des composants élémentaires décrits par un jeu d'équations...
Bref, l'utilisation de logiciels payants peut souvent être remise en question au profit d'une solution payante.
Le médiateur technique peut aussi avoir à trouver des experts dans l'utilisation d'un tel logiciel gratuit : dans la mesure où les entreprises qui gravitent autour d'un logiciel gratuit ne sont pas toujours capables de traiter toutes les demandes, il peut être utile d'identifier un utilisateur expert de ce logiciel qui dispose des compétences nécessaires, et qui ne travaille pas pour l'une de ces entreprises.
Les développements spécifiques permis par les logiciels gratuits sont d'ailleurs souvent bien supérieurs aux développement des logiciels payants, car leur code source est généralement disponible et un informaticien qualifié pourra faire les modifications souhaitées par un client mais interdites en pratiques avec un logiciel propriétaire.
Et qui sait, peut-être que l'un des modèles d'affaires du logiciel libre peut apporter une solution d'organisation technique à une entreprise industrielle ? Il sera alors utile de faire appel à de la médiation technique pour transposer le savoir organisationnel d'une société développant des logiciels gratuits dans l'organisation de l'entreprise industrielle. Sérendipité !

mercredi 20 juillet 2011

La rhéologie est partout

Vous connaissez la rhéologie ? Non ? Pourtant, cette discipline scientifique aborde un tas de problématiques très concrètes comme il y en a tant dans l'industrie.
C'est en effet la science des écoulements de la matière. Elle touche aussi bien aux fluides qu'aux solides, et ses champs d'applications sont étonnamment variés, depuis la géologie jusqu'à l'agroalimentaire en passant par la biologie.

Les solides sont des fluides comme les autres

Par définition, un solide est un matériau dont la forme de varie quasiment pas lorsqu'on le soumet à une contrainte mécanique. Une table ne s'effondre pas sous le poids des plats que l'on pose dessus, ce qui est quand même plus pratique pour déjeuner.
Pourtant, tout objet solide soumis à une force se déforme.
Si la force est légère et maintenue suffisamment peu de temps, le solide reprend sa forme initiale lorsqu'on arrête d'appliquer la force. C'est ce qu'on appelle en mécanique l'élasticité. De plus, la déformation est en général légère, sauf pour des matériaux spécifiques comme les élastomères comme le caoutchouc.
Mais si la force est plus forte, on peut déformer durablement l'objet. C'est par exemple le cas lorsqu'on voile une roue de vélo ou lorsqu'on froisse la carrosserie de sa voiture : on parle de plasticité du métal. Allez savoir pourquoi les mécaniciens utilisent les termes "plastique" et "élastique" pour parler de comportements mécaniques très courants des métaux ; toujours est-il qu'il s'agit d'un écoulement : une partie au moins de la matière du solide s'est déplacée et ne revient pas à sa position initiale. Dans l'industrie des métaux, c'est la base de l'emboutissage ou du cintrage.
Au-delà d'une certaine force, la plasticité laisse place à la rupture. Des fissures se propagent dans le solide, et la matière solide perd sa continuité. C'est une situation qu'on retrouve également dans les liquides, par exemple lorsqu'une goutte quitte un volume d'eau.
De même, si la force reste faible mais que la durée d'application de la force s'allonge, un autre type d'écoulement intervient : le fluage. Cet écoulement, assez similaire à un écoulement visqueux, est généralement très sensible à la température : plus le solide est chaud, plus rapidement il flue.
Le verre est un matériau particulièrement intéressant à cet égard, car il ne fond pas à une température précise (comme la glace) mais il change simplement de temps de réponse visqueuse en fonction de la température, ce qui fait qu'en-deçà de 450°C, il peut être généralement considéré comme un solide, alors qu'au-delà de 650°C on peut le considérer comme un liquide très visqueux. Entre ces deux températures, le verre a un comportement intermédiaire entre un fluide et un solide, qu'on qualifie de viscoélastique : selon la durée d'application de la force, le verre aura alors un comportement plutôt solide (durée courte) ou plutôt liquide (durée longue).
A température ambiante, le phénomène est souvent négligeable, sauf à se placer sur une échelle de temps élevée. C'est le cas des glaciers si l'on parle de dizaines d'années, ou de la croûte terrestre si l'on se place à l'échelle du million d'années.
L'amateur d'analyse dimensionnelle notera qu'en divisant le temps caractéristique de réponse du matériau à cette température par le temps d'application de la force, on obtient un nombre adimensionné, le nombre de Deborah, en référence à la prophétesse biblique du même nom et à l'une des citations que lui attribue la Bible : "Les montagnes coulèrent devant le Seigneur". Les solides sont donc des fluides comme les autres, il suffit d'attendre suffisamment longtemps !
Enfin, pour clore ce panorama de la rhéologie des solides, parlons de la matière granulaire comme le sable. Bien que chaque grain peut être considéré comme un solide indéformable, il est relativement intuitif que le sable est plutôt une sorte de fluide, puisque le sable s'écoule dans un sablier.
Pourtant, il s'agit d'un fluide un peu particulier, puisqu'on peut en faire des tas qui ne s'étalent pas totalement à plat. Tantôt fluide, tantôt solide, la rhéologie du sable est bien plus complexe que celle de l'eau ou de liquides simples.

Des fluides au comportement exotique

Mais les solides ne sont pas les seuls matières à s'écouler de manière originale. De nombreuses substances que l'on peut qualifier de fluide ont un comportement qui s'écarte de celui des fluides simples, ceux qu'on appelle les fluides newtoniens. Rappelons que ceux-ci ont un comportement mécanique linéaire : leur vitesse de déformation est proportionnelle à la contrainte mécanique, et le coefficient de proportionnalité est la viscosité du fluide.
Dans un fluide non-newtonien, la viscosité n'est pas constante, et dépend des conditions de l'écoulement. Cette variabilité peut s'exprimer de différentes manières :
  • Le fluide peut avoir un seuil d'écoulement, c'est-à-dire qu'il ne s'écoule que si l'on remue fort. On parle de fluide à seuil. La viscosité peut donc être considérée comme infinie si la contrainte est faible.
  • La viscosité peut dépendre de la contrainte. Si elle baisse lorsqu'on remue fort, on parle de fluide rhéofluidifiant ; dans le cas inverse, c'est un fluide rhéoépaississant.
  • La viscosité peut dépendre du temps. Par exemple, plus on remue longtemps (sans changer l'intensité de l'agitation), plus la viscosité diminue : on a alors affaire à un fluide thixotrope ; si la viscosité augmente au cours du temps, on parle de fluide antithixotrope.
  • Enfin, on a déjà parlé du fluide viscoélastique, dont le comportement mécanique est intermédiaire entre le solide élastique et le fluide visqueux. On peut considérer que c'est une variante du fluide thixotrope pour lequel la viscosité initiale est infinie.
Exotiques, ces fluides ? Pas du tout, ils sont plus que courants.
Ainsi, le sang est rhéofluidifiant, mais également le ciment ou la pâte à papier, alors que la crème fouettée est rhéoépaississante.
Le dentifrice est l'archétype du fluide à seuil, et le yaourt est thixotrope. Enfin, beaucoup de plastiques sont viscoélastiques à leur température de travail (injection dans un moule, notamment).
Ces fluides sont donc extrêmement communs, mais leurs écoulements sont nettement plus compliqués que ceux d'un fluide ordinaire, ce qui rend leur étude plus difficile. De fait, ils sont assez peu étudiés par rapport aux fluides newtoniens, ce qui les rend quelque peu "exotiques" pour l'ingénieur. Mais leur ubiquité dans la vie de tout les jours, en particulier dans l'agro-alimentaire, suffit à justifier de s'y intéresser.

La rhéologie, discipline transversale

On l'a vu, toutes les substances s'écoulent, y compris les solides, et certaines substances s'écoulent de manière originale. Ceci a des conséquences importantes pour les applications industrielles : vous devez fournir un effort minimal pour faire s'écouler un fluide à seuil, ce qui n'est pas le cas pour un fluide simple ; vous devez aussi tenir compte du temps de malaxage d'un fluide thixotrope ou viscoélastique.
Les comportements non-newtoniens donnent également lieu à des effets spécifiques qui n'ont pas d"équivalent chez les liquides simples, comme par exemple l'effet Weissenberg : un liquide viscoélastique remonte le long d'un axe en rotation plongé dans ce liquide si la vitesse de rotation est bien choisie.
Pour le médiateur technique, il est utile d'être familier avec la rhéologie, car la solution d'un problème technique dans un secteur d'activité donné passe parfois par la maîtrise d'une problématique d'écoulement a priori spécifique à une substance donnée.
Mais si cette problématique est typique d'une classe rhéologique de fluide, il sera intéressant de chercher quels autres industries manipulent des fluides de la même classe, car ces industries ont peut-être déjà résolu le problème en question. Il ne reste alors plus qu'à l'adapter.
De manière générale, le médiateur technique a intérêt à connaître chaque discipline transversale, car elle peut être une passerelle entre divers secteurs d'activité.

mardi 12 juillet 2011

Les statistiques ne se résument pas à l'écart-type

Il y a trois sortes de mensonges : les mensonges, les sacrés mensonges et les statistiques.(Mark Twain)
Vous avez peut-être une vision des statistiques qui date de la terminale : on remplit des tableaux, on fait des moyennes, on calcule des écarts-type... Bref, ça sert à résumer des tonnes de chiffres en quelques valeurs synthétiques et quelques histogrammes.
Bien sûr, tout ça en fait partie, mais les statistiques sont bien plus riches que ces outils élémentaires. Petit tour d'horizon.

Des outils pour décrire les données

D'abord, les statistiques servent à décrire les données que l'on a pu accumuler par différents moyens : mesures expérimentales, sondages, extraction de bases de données...
Sans revenir sur les calculs classiques (moyenne, médiane, quartiles, écart-type...) et des graphiques qui les représentent (histogrammes, effectifs cumulés) qui permettent de décrire une série de données correspondant à une seul variable aléatoire, il me paraît déjà plus intéressant de parler des statistiques relatives à deux variables.
D'abord, du point de vue graphique : si vous avez des données concernant deux variables X et Y qui ont été plusieurs fois mesurées simultanément, il est possible de représenter chaque mesure sur un plan. On construit ainsi un nuage de points. L'intérêt d'un nuage de point est double :
  • il permet de savoir intuitivement si les deux variables sont corrélées : le nuage de deux variables très corrélées est proche d'une courbe, alors que le nuage de deux variables indépendantes présente une forte dispersion sans motif évident ;
  • et dans le cas d'une forte corrélation, on peut chercher à déterminer la courbe qui s'approche le plus des données, la meilleure interpolation ; si la courbe est une droite, on parle de droite moyenne.
La corrélation entre deux variables peut aussi s'estimer de manière calculatoire, mais il n'est pas utile de rentrer dans les détails ici. L'important est de souligner une erreur d'interprétation courante : corrélation n'est pas synonyme de causalité.
Par exemple, si vous constatez dans un supermarché que les ventes de couches et les ventes de bières sont corrélées (elles sont fortes en même temps), n'en déduisez pas que les jeunes parents sont alcooliques, ou que les bébés consomment de la bière.
Simplement, les gens font leurs courses en dehors de leurs heures de travail, qu'ils soient amateurs de bière ou parents d'enfants en bas age. Il y a ici une cause commune à l'augmentation des ventes de chaque produit à certains moments, mais il n'y a pas de causalité directe entre les deux achats.
Quand il y a plus que deux variables, les choses se compliquent. On peut toujours regarder les variables individuellement ou deux par deux, mais les statisticiens ont développés d'autres outils pour analyser ce type de données riches.
Par exemple, l'analyse en composantes principales permet de combiner les diverses variables pour former de nouvelles variables, indépendantes entre elles, qui sont appelées les composantes principales. Les premières composantes principales sont en quelques sortes les variables qui résument le mieux la diversité des données.
Une application de cette méthode sur des données génétiques d'Européens a conduit le généticien des populations Luigi Luca Cavalli-Sforza à représenter sur une carte de l'Europe la valeur de la première composante principale. Voici ce qu'il a obtenu :
La valeur de la première composante principale présente un gradient très marqué entre le nord-ouest et le sud-est de l'Europe, qu'il a attribué (avec d'autres indices) à la diffusion de l'agriculture depuis le Proche-Orient entre 8 000 et 4 000 ans av. JC. Je recommande la lecture de son ouvrage La génétique des populations : histoire d'une découverte à ce sujet.

Des outils pour déterminer des probabilités

La description est utile, mais parfois il faut aller au-delà de la description et chercher à faire des prédictions. Si l'on dispose d'une masse suffisamment importante de données (d'autant plus importante qu'il y a de variables ou qu'on veut être précis), il est possible de déterminer une loi de probabilité pour un jeu de variables données. Par exemple, à partir de l'histogramme des valeurs mesurées de la longueur précise de pièces produites par un procédé industriel, on peut constater que cette longueur peut se représenter par une loi de probabilité convenable (loi uniforme, loi gaussienne, loi de Poisson, loi log-normale...) car l'histogramme a une forme très proche de l'histogramme théorique de ladite loi.
Mais que faire quand on n'a pas assez de données pour que l'identification soit aisée ? C'est là que les statisticiens ont un arsenal redoutable.
Par exemple, ils ont développé des tests statistiques : si l'on soupçonne que telle variable aléatoire suit une loi de probabilité donnée (disons, une loi gaussienne de moyenne nulle et d'écart-type égal à 1), ils peuvent appliquer un test comme le test du khi carré sur l'échantillon et vérifier s'il est vraisemblable que la loi soupçonnée soit la bonne. Vraisemblable, car il n'y a aucune certitude à attendre d'un échantillon de taille réduite, mais la vraisemblance est d'autant plus forte que le nombre de données est élevé.
La plupart des lois de probabilités étant caractérisées par quelques paramètres (pour la loi gaussienne, c'est la moyenne et l'écart-type), il est nécessaire d'estimer ces paramètres. Là encore, les statisticiens ont élaboré des outils pour estimer au plus juste les paramètres usuels ; et si l'estimateur intuitif de la moyenne de la loi de probabilité est bien la moyenne des valeurs de l'échantillon statistique, ce n'est pas le cas de l'estimateur intuitif de l'écart-type, qui est égal à l'écart-type de l'échantillon. Il faut le multiplier par un facteur numérique précis, sensiblement différent de 1 pour de petits échantillons. L'estimateur intuitif est dit biaisé, et c'est une part importante de l'apport des statisticiens que d'obtenir des estimateurs non biaisés.

Des outils pour interpréter les données

Certaines disciplines scientifiques ou techniques font un usage important des statistiques. Par exemple, la physique statistique utilise les statistiques pour décrire des systèmes macroscopiques (solides, liquides, gaz...), composés d'un nombre colossal de particules simples (électrons, atomes, molécules...), et dont on peut déduire des propriétés macroscopiques à partir de la théorie microscopique des particules et de calculs statistiques. Ainsi, dans un gaz, la température est une sorte d'écart-type de l'énergie cinétique des molécules du gaz. De même, la pression ou la densité du gaz ont une interprétation statistique.
En marketing, les sondages sont des statistiques basées sur des échantillons, qui peuvent servir à appréhender l'opinion de tout un marché à partir d'une quantité modeste de sondés. Il est amusant d'ailleurs de savoir que la taille pertinente de l'échantillon n'est pas vraiment liée à la taille de la population étudiée : qu'on s'intéresse à un marché de 10 000 personnes ou d'un milliard, l'échantillon nécessaire est généralement voisin de 1 000 personnes, du moment que leur sélection est faite selon les règles de l'art.
Enfin, signalons une approche intéressante, et qui se développe notamment en intelligence artificielle : l'approche bayésienne. Lorsqu'on ne dispose d'aucune connaissance préalable sur un phénomène aléatoire observé, on ne peut que deviner une loi de probabilité de manière totalement subjective. Cette loi peut être corrigée lorsqu'un jeu de données devient disponible, grâce à un théorème de probabilité, le théorème de Bayes.
Sans rentrer dans les détails (que vous pouvez trouver ici), cette approche des probabilité est particulièrement originale par rapport à l'approche classique où la loi de probabilité est une caractéristique fixée à l'avance de l'expérience aléatoire et qui se laisse reconstruire lorsqu'on a une infinité de données. L'approche bayésienne correspond à une vision plus intuitive des probabilités, qui traduit notre ignorance initiale  et la manière dont, progressivement, donnée après donnée, on se fait une idée de la vraie loi : la loi subjective, progressivement améliorée par les données supplémentaires, doit finir par converger vers la loi objective. En quelque sorte, elle traduit l'apprentissage d'un phénomène aléatoire.
Cette notion d'apprentissage bayésien n'est pas qu'une simple idée philosophique, et elle se traduit notamment par des applications comme les filtres anti-spam : voir ici.

Médiation technique et statistiques

Un médiateur technique, dont le client peut disposer de données abondantes mais qu'il ne sait pas traiter, peut être amené à rechercher un expert capable de manipuler statistiquement ces données. Encore faut-il que le client sache qu'on peut faire mieux que des écarts-type !
Le médiateur technique a donc un rôle d'apporteur d'idées, particulièrement utile dans la phase de créativité d'une mission.
Plus généralement, la culture technique et scientifique du médiateur technique, comme celle des employés du client qui participent, est un atout pour trouver la ressource technique recherchée par le client.

lundi 11 juillet 2011

Les freins à l'innovation

L'innovation systématique requiert la volonté de considérer le changement comme une opportunité. (Peter Drucker)
D'après des chiffres de l'INSEE, il y a en France plus de 3 millions d'entreprises, dont plus de 500 qui dépassent les 2 000 employés. Si chaque grande entreprise innovait ne serait-ce qu'une fois par an, sans même compter les contributions des autres, on devrait voir déferler chaque jour une ou deux innovations sur le marché.
Pourtant, je doute que vous ayez rencontré cette année un grand nombre d'innovations provenant de nos entreprises, à part peut-être dans l'agro-alimentaire, et encore s'agit-il souvent de nouvelles présentations. Les innovations dont on entend le plus parler proviennent souvent des Etats-Unis (iPad, Twitter par exemple), y compris les innovations les plus décriées (gaz de schiste). Il semble loin, le temps de l'introduction d'Ariane, du TGV ou du Concorde.
Pourquoi les entreprises françaises innovent-elles si peu ? Quels sont les freins à l'innovation ?

Les freins stratégiques

Une entreprise peut avoir des raisons stratégiques pour ne pas innover.
En effet, la position de suiveur est souvent confortable : vous laissez une entreprise prendre un risque en innovant en la surveillant de près, vous voyez si cela fonctionne, et si c'est le cas, vous lui emboîtez le pas en évitant les erreurs qu'elle a nécessairement commise en défrichant un nouveau marché.
La parade classique est le brevet. Sa vocation est de permettre à une entreprise innovante d'interdire à d'autres entreprises de la copier dans son accord explicite. Une entreprise innovante disposant d'un brevet sur son innovation est donc en principe protégée d'éventuels suiveurs.
Malheureusement, le brevet se révèle souvent être une parade inadéquate :
  • certaines innovations ne peuvent pas être protégées par un brevet, en particulier les innovations de service ;
  • les suiveurs peuvent souvent contourner le brevet par des astuces technologiques ;
  • le brevet coûte cher et certaines petites entreprises ne peuvent pas se le permettre, sans compter le temps nécessaire à sa gestion ;
  • un brevet peut empêcher toute les autres entreprises de travailler dans un domaine, et donc empêcher d'innover dans celui-ci ;
  • et enfin, le brevet finit par devenir dans les grands groupes un actif financier à valoriser indépendamment de l'intérêt technologique sous-jacent.
Il existe toutefois une autre parade : l'achat public. De nombreuses innovations technologiques sont issues de grands programmes publics. Ainsi, le programme spatial de la NASA a permis à des entreprises américaines d'innover en ayant la garantie de l'achat par le gouvernement américain ; les suiveurs n'ayant pas ce marché public, ils sont désavantagés par rapport aux pionniers. Les grands programmes français (TGV) ou européens (Ariane) sont également des exemples significatifs. A quand le prochain grand programme industriel français ou européen ?
Par ailleurs, d'autres freins stratégiques sont plus spécifiques à certaines activités. Ainsi, certains types d'innovation peut être extrêmement mal vu par certains partis politiques (OGM, taser...).
Le cas des OGM est un exemple frappant : il s'agit d'une innovation dans l'agro-alimentaire, issu de recherches biologiques à la pointe, et dont le potentiel est immense : réduction des pesticides, amélioration des rendements, production de plantations adaptées aux milieux peu fertiles... Mais dans la mesure où des risques pour la santé sont possibles, la technologie OGM doit encore faire ses preuves en laboratoire : il semble donc raisonnable d'interdire provisoirement leur utilisation commerciale, le temps d'approfondir nos connaissances.
Or des écologistes extrémistes vont jusqu'à empêcher la recherche de faire son travail d'analyse et de compréhension en fauchant des plantations OGM expérimentales.
Conclusion : non seulement on risque de passer à côté d'une innovation française (nous n'aurons pas la récompense), mais en plus cette action médiatique n'est qu'un écran de fumée car nous avons déjà dans nos assiettes des OGM provenant de l'étranger (nous avons quand même le risque). On peut comprendre dans ce contexte pourquoi une entreprise française ne souhaite pas innover.
Le principe de précaution, aussi légitime qu'il soit, ne doit pas être employé à l'extrême. Il est bon de protéger les citoyens, il n'est pas bon d'empêcher la recherche de progresser. Et ce n'est pas une question d'orientation politique, mais d'attitude politique responsable.

Les freins financiers

Il se peut que l'entreprise voulant innover n'ait pas les moyens de ses ambitions. En effet, innover peut coûter cher.
Il faut en effet au moins consacrer du temps à l'innovation, temps qui ne sera pas productif dans l'immédiat. De plus, il se peut que l'innovation nécessite un investissement matériel important. Enfin, le retour sur investissement n'est pas garanti.
Comment aider les entreprises ? Il y a bien sûr les subventions : Crédit Impôt Recherche (CIR), aides régionales diverses. Néanmoins, il est facile de détourner ces subventions à des fins autres que l'innovation.
Ainsi, supposons qu'un procédé industriel nécessite, lors d'un changement de produit fabriqué, de perdre une partie de la production car les produits auront des défauts. En prétendant réaliser un essai de production pendant cette transition (par exemple, on ajoute une lampe infrarouge inutile mais dont on prétend tester l'effet), on peut faire passer une partie de la production perdue sur le CIR, car il n'y a aucune obligation de succès. Cela exige essentiellement une capacité à "justifier" l'intérêt de l'essai avec des "arguments".
Mais il y a aussi d'autres moyens, plus efficaces. La médiation technique (quelle surprise !) permet de réduire les coûts en évitant de redécouvrir des choses bien connues dans d'autres secteurs d'activité. L'achat public a déjà été évoqué plus haut : une garantie d'achat par les pouvoirs publics est une aide financière appréciable. Enfin, on peut aussi citer OSEO, qui peut notamment apporter une avance remboursable en cas de succès.

Les freins organiques

Mais admettons que les freins stratégiques et financiers soient écartés. Nous voici donc dans une entreprise qui pense qu'il est utile d'innover, mais qui n'y arrive pas. Quelles en sont les raisons ?
Elles sont nombreuses et il peut y en avoir plusieurs en même temps. En voici quelques unes :
  • la réservation de l'innovation : certaines entreprises réservent les initiatives à leur maison-mère, à certains services précis (R&D, marketing), voire à la direction générale, et on se prive de l'essentiel des cerveaux de l'enteprise ;
  • la subordination de l'innovation : les personnes en charge de l'innovation sont subordonnées à des services divers et non à la direction générale, et les problématiques opérationnelles passent avant l'innovation ;
  • la survalorisation de l'expertise : la parole de l'expert prime sur celle du créatif, et on élimine les idées que l'expert refuse car "ça ne marchera jamais" ;
  • la collecte inefficace des idées : les idées des collaborateurs n'arrivent jamais à la direction générale, ou alors dénaturées par le management dans une variante du téléphone arabe ;
  • la sélection excessive des idées : les idées les plus audacieuses sont éliminées au profit des idées les moins risquées, au détriment de toute considération de potentiel ;
  • la culture d'entreprise : une entreprise n'ayant pas l'habitude d'innover a encré dans les esprits de ses employés un attachement à l'habitude et une méfiance envers la nouveauté ;
  • le renfermement : la conviction que l'innovation ne peut venir que de l'intérieur empêche d'aller voir à l'extérieur qui peut participer à l'innovation (clients, fournisseurs...) ;
  • l'absence de curiosité : les observations étranges des collaborateurs ne sont pas prises en compte par le management, alors qu'il s'agit d'une source de sérendipité ;
  • la peur des essais : l'entreprise ne produit que comme elle sait le faire, et ne tente pas des expériences sur son outil de production sans avoir justifié l'intérêt par une démarche théorique ;
  • la réduction des coûts : la chasse au coûts entrave toute initiative des collaborateurs qui n'ait un intérêt économique immédiat ;
  • la peur d'aborder un nouveau marché : si l'innovation oblige à changer de type de clients, de produits ou de services, les employés peuvent craindre de ne pas savoir faire, et préférer le status quo ;
  • ou encore, le cloisonnement : la rencontre entre employés de services complètement différents est rendue peu probable car chacun travaille dans une zone spécifique.
J'en oublie certainement.
Les remèdes à chaque frein sont souvent immédiats : le renfermement peut se soigner par médiation technique, par exemple. C'est généralement le diagnostic qui manque. Ou le courage de changer. Car les freins organiques sont constitutifs de l'organisation de l'entreprise, ils participent à son identité, et le changement nécessaire est fort. Improviser un tel changement est voué à l'échec. Il se prépare et se gère spécifiquement ; un consultant en conduite du changement peut être particulièrement utile.

vendredi 8 juillet 2011

Comptabilité et innovation

Il y a trois sortes d'êtres au langage mystérieux : Les plus aisés à comprendre sont les fous. Puis viennent les polytechniciens. Et enfin les comptables. (Auguste Detoeuf)
Quoi de plus austère que la comptabilité ? Des chiffres, des chiffres et encore des chiffres. Des règles à suivre scrupuleusement. Une obligation de présenter des justificatifs pour toute transaction. Ce n'est pas forcément là qu'on s'attend à trouver de l'inspiration pour innover.
Pourtant, l'histoire de la comptabilité montre que la comptabilité a plusieurs fois introduit des innovations dont les scientifiques ou les ingénieurs ont su s'inspirer.

L'écriture est une invention de comptable

D'abord, rappelons-nous que l'écriture est apparue en Mésopotamie, vers 3250 av. JC, et que les premiers textes sont en grande majorité des textes comptables. C'est donc vraisemblablement à des fins de comptabilité que l'écriture a été inventée. Inutile d'insister sur le caractère extrêmement séminal de cette invention de comptable.
Les comptables ont également introduit la notion de comptabilité en partie double, qui part du principe que toute modification d'un compte (crédit ou débit) doit nécessairement s'accompagner d'une modification opposée d'un autre compte. Celle-ci a été codifiée à Venise par Luca Pacioli en 1494, mais il n'a fait que compiler un savoir empirique de marchands, et l'origine du principe remonterait à l’Égypte antique.
Comment ne pas voir le parallèle entre l'idée de transfert sans perte d'une somme d'argent d'un compte à un autre et la découverte de Lavoisier en 1777 que la masse totale se conserve lors de transformations chimiques ? Lavoisier n'a ni plus ni moins que recherché si l'on pouvait appliquer une idée comptable à la nature, et s'est aperçu que la masse des substances joue un rôle équivalent à celui de l'argent.
Depuis, plusieurs lois de conservation ont été identifiées en physique et en chimie : conservation de la charge électrique, de l'énergie, de la quantité de mouvement... Beaucoup d'équations en physique (les équations de Navier-Stokes par exemple) traduisent d'une certaine manière cette idée de conservation d'une certaine quantité. L'idée des comptables est devenue un principe scientifique.

Taxonomie et comptabilité

La comptabilité n'est pas seulement source d'innovation, mais elle a innové également en s'inspirant d'idées venues d'ailleurs.
L'introduction de règles comptables communes à toutes les entreprises en France en 1947 a conduit à la définition d'un Plan Comptable Général et d'une nomenclature des comptes.
Il s'agit, de fait, d'une taxonomie : les comptes sont classés en 8 classes principales (numérotées de 1 à 8), de sous-classes (numérotées avec deux chiffres dont le premier correspond à la classe principale à laquelle la sous-classe appartient), de sous-sous-classes (on rajoute encore un chiffre), et ainsi de suite jusqu'au cinquième niveau (numéroté avec 5 chiffres).
Ainsi, le numéro de compte 63511 correspond à la taxe professionnelle ; ce compte fait partie des comptes d'impôts indirects (6351), qui sont des comptes d'une sous-sous-classe 635 (impôts, taxes et versements assimilés prélevés par l'administration des impôts et qui ne sont pas relatifs à des rémunérations), incluse dans la sous-classe 63 (impôts, taxes et versements assimilés) faisant partie de la classe 6 (comptes de charges).
Le principe de la taxonomie est avant tout une idée de naturalistes, friands de classification d'animaux. Toutefois, on peut signaler un précédent au système de numérotation des comptes évoqué ci-dessus : la classification décimale de Dewey. C'est un système de classification bibliothécaire inventé par Melvil Dewey en 1876 pour classer les ouvrages selon leurs thématiques.
Ainsi, les livres traitant de cuisine pour les collectivités sont classés à la division 641.57 : le 6 désigne les ouvrages sur des techniques, 64 désigne des livres sur la vie domestique, 641 rassemble les livres sur l'alimentation, et 641.5 sur la cuisine. L'analogie avec la numérotation comptable est flagrante.
Je m'étonne qu'une autre innovation n'ait pas encore intéressé les comptables : l'usage des unités de mesure. Ainsi, la seule unité utilisée par les comptables est l'unité monétaire (l'euro par exemple). Mais on manipule aussi bien des sommes d'argent "statiques" (le capital) que des flux (le chiffre d'affaire annuel) avec la même unité ; or si le capital doit bien se mesurer en euros, pourquoi le chiffre d'affaires annuel ne se mesure-t-il pas en €/an ?
L'intérêt, à mon sens, est de savoir intuitivement que lorsqu'on divise par exemple un capital par un chiffre d'affaires, on obtient une durée ("€ divisé par €/an = an"). L'exemple est de peu d'intérêt (et encore, j'imagine qu'il existe des financiers qui utilisent ce ratio), mais lorsqu'un débutant en comptabilité, comme peut l'être un jeune entrepreneur, doit calculer un besoin en fonds de roulement (qui s'exprime en jours, en euros ou en pourcentage du chiffre d'affaire selon le cas), il est vite dérouté par les opérations à faire et peut facilement se tromper dans les calculs à réaliser en additionnant des euros avec des jours. L'usage d'unités permettrait sans doute de faciliter l'apprentissage de la comptabilité.

Quelle leçon pour un médiateur technique ?

Il n'est pas de métier qui n'utilise pas de technique : un comptable, un vendeur et un clown utilisent chacun des techniques spécifiques, qui résolvent une difficulté rencontrée parfois il y a bien longtemps. Peut-être ont-ils la solution à un problème technique que rencontre un ingénieur ?
La seule chose qui empêche cet ingénieur de consulter un comptable pour discuter de méthodes de classification est qu'il n'y pense pas spontanément. C'est donc au médiateur technique de permettre à cet ingénieur de penser à se mettre en relation avec un comptable.
Plus généralement, le médiateur technique joue son rôle quand il permet des rencontres improbables entre des gens de métier différent. Se limiter à son réseau professionnel pour chercher une solution est une tendance naturelle pour un chef d'entreprise ou l'un de ses collaborateurs, car chacun manque de temps et de méthode pour aller voir ailleurs. Mais rien ne garantit que la solution se trouve dans ce réseau immédiat, et il serait dommage de passer à côté d'une solution toute faite parce qu'elle se trouve dans une entreprise d'un autre secteur d'activité.

jeudi 7 juillet 2011

L'homéostasie : une approche des systèmes complexes

Mobilité et stabilité ne sont pas antinomiques : un cycliste n'est stable sur sa bicyclette qu'en avançant. (Jacques Chirac)
Avez-vous entendu parler du concept d'homéostasie ? Il y a encore quelques mois, j'ignorais tout de cette notion, si ce n'est que cela me rappelait, peut-être, de vieux cours de biologie du collège.
Pourtant, l'ouvrage qui me l'a fait découvrir traitait de management. Et en creusant un peu, j'ai découvert une autre façon d'aborder les problèmes techniques complexes.

Une notion issue de la médecine

Le concept d'homéostasie a été introduit vers 1850 par le célèbre médecin Claude Bernard. Il s'applique d'abord au corps humain : c'est la capacité du corps à conserver son état de fonctionnement, c'est-à-dire de rester en vie.
Ce n'est en effet pas trivial de maintenir le corps pendant des années à température quasiment fixe (37°C), ni de maintenir les concentrations chimiques de divers constituants du corps (sels, sucres, acidité, oxygène...). Il faut donc que le corps humain ait développé tout un tas de mécanismes de régulation pour en être capable.
L'homéostasie n'est évidemment pas propre à l'être humain, et il est naturel d'étendre le concept à tout organisme vivant. Ce n'est toutefois qu'à partir du milieu du XXe siècle que le concept sera intégré à une réflexion bien plus générale.
En effet, c'est dans l'après-guerre que se développent des sciences abordant les systèmes complexes. Auparavant, l'approche quasi-unique des scientifiques était le réductionnisme : tout système complexe étant composé d'éléments simples, il semble évident que la compréhension du système global passe par la compréhension de ces éléments. Désormais, une autre approche, complémentaire, apparaît : la systémique.
L'idée principale de la systémique est qu'un tout est plus que la somme de ses parties, et les propriétés d'un système complexe sont parfois difficilement prédictibles par la seule connaissance des propriétés de ses constituants élémentaires.
Ainsi, certaines propriétés des substances à l'échelle macroscopique, comme le fait d'être solide ou liquide à une température donnée, est difficile à prédire à partir de la connaissance même fine des propriétés des molécules qui la constituent. A ma connaissance, il est encore aujourd'hui impossible de prédire le point de fusion de l'eau (0°C à pression ambiante) à partir des principes généraux de la mécanique quantique à l'échelle moléculaire, pourtant très bien compris. La nature solide ou liquide de l'eau est ainsi ce qu'on appelle une propriété émergente : c'est la complexité du système (ici, le nombre gigantesque de molécules, de l'ordre du nombre d'Avogadro, soit typiquement 10^24 molécules) qui rend imprédictible la propriété du système.

Compliqué ou complexe ?
Il existe des systèmes avec de nombreux constituants différents qui sont compréhensibles à partir d'une approche réductionniste. Ainsi, un avion moderne est composé d'un tas de composants divers, parfois eux-mêmes composés d'éléments plus simples. Toutefois, la compréhension de chaque élément d'un composant permet de prévoir le comportement de ce composant, et la compréhension de chaque composant permet de prévoir le comportement de l'avion. Un tel système est compliqué, mais n'est pas complexe.
Un métal pur comme l'or est, à l'inverse, un système peu compliqué : il n'y a qu'un seul type d'atome (Au). Pourtant il est très difficile de prévoir précisément les propriétés macroscopiques de l'or (sa température de fusion, par exemple), et la théorie nécessaire pour comprendre qualitativement certaines de ses propriétés comme sa ductilité n'est pas à la portée du premier venu. Il s'agit donc d'un système complexe, mais pas compliqué.

La systémique est donc une approche qui abandonne la recherche de la compréhension des composants d'un système pour se focaliser sur son fonctionnement global.
Le corps humain est certainement un système complexe (et compliqué), et l'homéostasie est typiquement un phénomène de système complexe. Il a donc intéressé les pionniers de la systémique comme William Ross Ashby ou Ludwig von Bertalanffy. L'homéostasie est une caractéristique générique des systèmes parmi les plus intéressants, ceux qui conservent durablement une structure stable. Il peut s'agir d'un organisme vivant, mais aussi d'une entreprise, d'un procédé industriel, ou encore d'une économie. On est déjà loin de la médecine !

Un modèle de système complexe

L'homéostasie biologique est intéressante car elle permet de comprendre un système complexe stable par analogie avec un organisme vivant.
D'abord, pour qu'il y ait homéostasie, il faut des mécanismes de régulation. Ce sont des mécanismes permettant le retour à un état stable, faisant typiquement appel à un rétroaction négative : lorsque l'on perturbe le système, il s'en suit alors un effet qui va avoir tendance à ramener le système vers son état stable initial.
Les mécanismes de régulation sont en principe efficaces pour des petites perturbations. Par contre, dès qu'une perturbation est trop importante, il se peut que la rétroaction devienne positive :le mécanisme de régulation éloigne alors le système de son état stable initial. Il se peut alors que :
  • le système se détruise : c'est le cas de l'organisme vivant qui meurt ;
  • ou que le système se stabilise dans un autre état stable.
La seconde situation est la plus intéressante, car elle est assez fréquente dans un système très complexe. Ainsi, une même personne peut stabiliser sa corpulence à divers niveaux : un petit régime n'a probablement guère d'effet à long terme du fait de la régulation de l'organisme, mais une perte de poids liée à une longue maladie peut modifier durablement la corpulence à une valeur nettement plus faible. Attention, je ne prétends en aucun cas préconiser une méthode de régime à quiconque : adressez-vous à un médecin.
Ainsi, l'homéostasie empêche de changer d'état en cas de petite perturbation, mais cet état stable n'est pas forcément unique pour un système complexe donné. Ce serait même l'exception.
D'où l'idée d'appliquer cette notion au management, par exemple : une entreprise étant un système complexe plutôt stable, elle est probablement en homéostasie. Pour changer le fonctionnement de l'entreprise, il est inutile de tenter des petites modifications progressives, car par les mécanismes de régulation qui assurent la pérennité de l'entreprise, son personnel s'opposera spontanément au changement. Il faut donc perturber fortement et habilement l'entreprise en se servant des mécanismes de régulation pour aboutir à un nouvel état stable.
Voilà peut-être pourquoi certaines entreprises n'innovent pas, malgré un discours incitatif du management : l'homéostasie s'oppose à cette petite perturbation, et l'entreprise reste dans un état stable peu innovant. Devenir une entreprise innovante n'est pourtant pas inaccessible, mais cela nécessite un changement fort et habile, qui se sert des forces de l'entreprise pour la changer.

Systémique et médiation technique

La systémique est une approche particulièrement intéressante pour le médiateur technique, car elle invite à ne pas seulement s'intéresser aux détails lorsque l'on aborde un nouveau système technique, mais aussi, et même avant tout, à son fonctionnement global.
En effet, lorsqu'il s'agit de transposer chez le client un système technique d'un autre secteur d'activité très différent, il est probable que de nombreuses adaptations techniques soit nécessaires. Ce qu'il est important de transposer, c'est le fonctionnement global du système, notamment les mécanismes de rétro-action, et pas forcément tous les choix techniques dans le détail, car ils sont souvent spécifiques à un secteur.
Par exemple, si l'on veut transposer le principe d'une pompe à eau au pompage d'un fluide très différent comme un métal liquide, il sera intéressant d'identifier les mécanismes qui assurent le bon fonctionnement de la pompe (sécurités, astuces permettant la maintenance) et pas forcément de retenir la nature des matériaux employés qui risquent fortement de ne pas être adaptés à ce liquide métallique.
La sélection astucieuse des savoirs et savoir-faire pertinents à transmettre, suggérée par la systémique, peut ainsi faire gagner fortement en efficacité.