decoration
Nous ne sommes pas en train d'inventer une nouvelle pâte dentifrice. Nous tentons d'appréhender la naissance, l'évolution et le destin de notre Univers. Sheldon Glashow conférence du 30 novembre 1984 à l'Université de Chicago

Qu’est-ce que la recherche scientifique ? (5/6)

Les erreurs courantes concernant la recherche scientifique

Lundi 7 décembre 2009 (mise à jour mardi 2 août 2011)

La recherche scientifique n’est pas un monde facile à pénétrer sans efforts préalables. Il n’est donc pas étonnant de découvrir à son sujet de nombreuses conceptions erronées. Il est dommage de mal juger cette activité difficile parce qu’on n’en connaît pas les ressorts intimes. Les articles précédents ont peut-être permis de mieux en cerner les contours. Cet article expose quelques unes des erreurs qu’il est courant d’entendre à son sujet.

Dans cet article, le plus long de la série, je me propose de recenser quelques erreurs courantes à propos de la science. L’image de la recherche et de ses acteurs auprès du citoyen qui les finance souffre de certains jugements incorrects. Plus important encore, relayées jusqu’aux hautes sphères du pouvoir, ces erreurs sont trop souvent à l’origine de politiques publiques de recherche inappropriées, voire préjudiciables.

Avant cela, il est utile de rappeler une nouvelle fois quelques faits simples et importants déjà développés dans les articles précédents. Ils permettront de mieux cerner la nature des propos qui vont suivre.

La recherche scientifique n’est pas une démarche d’amélioration de la vie, de création de richesses, de mise en place de produits innovants. Elle n’a pour objet que la connaissance scientifique telle que définie au tout début de ces textes. C’est certainement le message le plus important de cette série d’articles.

La recherche fondamentale est l’un des trois sommets d’un triangle dont les deux autres sommets sont d’une part la recherche appliquée, voire l’ingénierie, et d’autre part la diffusion de la connaissance, sous toutes ses formes. Personne n’est jamais exactement sur un des sommets. Au contraire, chacun se promène au gré de ses motivations, à l’intérieur même de ce triangle, s’approchant plus ou moins de tel ou tel sommet, pour lequel il a le plus d’affinités. Mais on ne peut ni interdire à quiconque de se positionner sur l’un de ces sommets, ni obliger quiconque à quitter l’un de ces sommets pour en rejoindre un autre. Bien que proches, ces trois métiers sont différents, même si certains cumulent plusieurs de ces activités avec compétence. Un bon boulanger peut être un piètre pâtissier. Personne ne songerait à le lui reprocher.

Cette mise au point est un préambule nécessaire pour mieux comprendre l’argumentaire exposé dans ce qui suit.

La science omnipotente

Puisque la Nature ne produit pas de miracles, la science n’en produira pas non plus, et la technologie certainement pas d’avantage. Chacune doit rester dans le cadre stricte des possibles que la Nature impose et que nous nous efforçons de découvrir dans ses lois.

Le mouvement perpétuel est aujourd’hui interdit à l’Académie des Sciences : tout mémoire qui lui est soumis et qui prétend décrire un mécanisme produisant un mouvement perpétuel est rejeté sans même être lu. Le problème du mouvement perpétuel consiste à construire une machine munie d’un système en mouvement qui peut durer de façon indéfinie sans avoir besoin d’apport extérieur en énergie ou en matière. Pourquoi un tel ostracisme de la part d’une institution qui se veut ouverte à toute découverte ? Parce que les lois de la Nature montrent que le mouvement perpétuel est impossible (premier principe de la thermodynamique). Cette loi fut découverte au XIXe siècle. Depuis on sait que ce mouvement perpétuel n’est qu’une utopie technologique sans issue.

De la même façon, tout mémoire prétendant avoir résolu la quadrature du cercle est rejeté sans être lu lui aussi. La quadrature du cercle est un problème de mathématique qui consiste à essayer de construire géométriquement, avec comme seuls instruments une règle et un compas, un carré dont l’aire est la même que celle d’un cercle donné. Il a été démontré en mathématique que cette construction est impossible.

Dans les deux cas, il n’est pas nécessaire que les académiciens perdent leur temps en étudiant des mémoires voués à être rejetés in fine. On notera que ces rejets se fondent sur deux raisons distinctes. Le mouvement perpétuel est impossible compte-tenu d’un principe constaté en physique (la conservation de l’énergie), principe qui pourrait se révéler être faux un jour, bien qu’il ait résisté jusqu’à présent à de nombreux assauts expérimentaux. L’impossibilité de la quadrature du cercle repose sur une démonstration mathématique. Elle est et restera toujours vraie.

La société est demandeuse de nombreuses technologies quasi-miraculeuses, qu’on croit trop souvent à portée de tournevis. Ne serait-il pas formidable de vaincre la mort ? de trouver une énergie propre ? de mettre au point une méthode de téléportation comme dans Star-Trek ? de guérir enfin le cancer ? de donner à manger à tout le monde sans dégrader nos sols ?

Bien qu’un peu extravagant, l’exemple de la téléportation n’est pas anodin. Elle a fait l’objet ces derniers temps de quelques articles accrocheurs dans des revues de vulgarisation scientifique. Malheureusement, la téléportation évoquée dans ces articles de presse (et réalisée dans des laboratoires) ne concerne pour l’instant que des situations extrêmement simplifiées : il s’agit d’états quantiques bien préparés et non de corps humains en chair, en os et en vie.

L’exemple de la mort est plus ancien. C’est une mythologie humaine récurrente depuis la nuit des temps, présente dans (presque) toutes les civilisations, reprise dans d’innombrables fables, contes et légendes. La science pourra certainement mieux comprendre les mécanismes derrière le vieillissement de nos cellules et de nos organes, et donc derrière la mort. Mais saura-t-elle un jour arrêter définitivement ces processus ? C’est une autre histoire ! La physique nous apprend, par ses lois de la thermodynamique, que le désordre est le pendant nécessaire à l’organisation. La mort semble être la phase extrême du désordre chez les êtres vivants. À ce titre, elle risque de rester incontournable.

Depuis presque 40 ans, un effort financier et humain indéniable a été consenti pour la recherche contre le cancer. Les progrès peuvent sembler lents : après ces décennies d’actives recherches, la solution miracle n’a pas (encore ?) été trouvée. Pourtant, des solutions miracles en médecine ont déjà été découvertes par le passé : les vaccins et les antibiotiques ont éradiqué des maladies autrefois fort répandues et pour certaines fatales.

Au final, ce n’est pas tellement du côté de la guérison elle-même qu’on a observé les succès les plus frappants qui ont fait reculer la mortalité due aux cancers, mais plutôt du côté des dépistages de plus en plus précoces qui ont permis de traiter les tumeurs avant qu’il ne soit trop tard. La guérison se heurte toujours à des problèmes fondamentaux auxquels on n’a pas encore apporté de réponse. Peut-être qu’il n’y en a pas d’ailleurs. La chimiothérapie s’est considérablement améliorée, le traitement par les « rayons » a accru son efficacité. Mais ces méthodes sont fondamentalement les mêmes que celles utilisées il y a plus de 30 ans. L’espoir pourrait venir de la thérapie génique ou d’une forme de vaccination sans qu’on puisse encore en être certain.

Par contre, l’imagerie médicale a connu un extraordinaire progrès ces 40 dernières années, à la fois grâce à l’informatique et grâce à des techniques d’imagerie très innovantes (scanner, RMN, IRM…) reposant sur des découvertes fondamentales faites au XXe siècle. Elle a permis des analyses plus fines et plus précises des tumeurs, ce qui a permis de mieux cibler leur traitements thérapeutiques. Ainsi, les obstacles fondamentaux purement médicaux ont été compensés en partie par une percée technologique sur laquelle peu de chercheurs auraient parié lors de la mise en place de cet effort financier de recherche contre le cancer.

La science et la technologie sont souvent capricieuses : elles refusent de nous proposer une solution là où on les espèrent, alors qu’elles nous surprennent là où on ne les attend pas.

Dans le domaine des énergies propres, les idées ne manquent pas. On sait ainsi convertir l’énergie des marées ou de la houle en énergie électrique. L’usine marée-motrice de la Rance a été l’une des toutes premières installations industrielles à convertir le flux et le reflux de la marée en électricité. Aujourd’hui, des petites stations sont immergées au large de la mer du Nord pour récupérer l’énergie des vagues. Pourra-t-on un jour envisager que cette énergie non polluante alimente toute notre consommation d’électricité ? Peut-être pas, compte-tenu des échelles différentes entre la production et la consommation. De plus, cette technologie se heurte à l’éternel problème de la salinité des océans (qui demande un entretien coûteux des mécanismes immergés) et à la faible quantité d’énergie produite par unité d’installation.

Il est souvent souligné que cette forme de production d’électricité est propre : pas de déchet, pas de rejets… Pourtant, cette énergie provient bien de quelque part. Il n’y a pas de miracle, je l’ai rappelé ci-dessus. Pour des installations du type de l’usine marée-motrice de la Rance, cette énergie est puisée dans la rotation de la Terre sur elle-même. Par un mécanisme subtil de transfert d’énergie, ce que nous récupérons dans les marées se répercute sur le couple Terre-Lune (après tout, c’est la Lune qui est à l’origine des marées) : la vitesse de rotation de la Terre ralentit et la Lune s’éloigne de nous. Ne nous affolons pas : ce ralentissement est extrêmement faible et la Lune n’est pas prête de faire faux bon aux poètes !

Ce fait anodin (ici) nous rappelle qu’il faut toujours s’intéresser aux tenants et aboutissants d’une technologie. Parfois les effets produits ne sont pas aussi négligeables.

L’énergie solaire semble plus prometteuse, puisqu’il s’agit de capter de l’énergie solaire avant qu’elle ne réchauffe le sol. Cette énergie est diffusée dans l’espace par le Soleil, que nous soyons là ou non pour la récupérer. En ces temps de réchauffement planétaire, intercepter un peu de cette énergie pour la transformer en électricité ne peut donc pas faire de mal… Le problème qui réclame un miracle est dans la conversion de cette énergie lumineuse en une énergie électrique (à travers des cellules photo-voltaïques, des capteurs thermiques directs, ou une technologie qui n’a pas encore vu le jour). Avec les technologies d’aujourd’hui le rendement est encore assez faible, ce qui implique que ces installations solaires représentent encore un lourd investissement financier pas nécessairement rentable. D’un point de vue technique, il est cependant possible dès aujourd’hui de produire l’énergie utile à l’humanité toute entière de cette façon si on couvre presque tous les déserts ensoleillés de la planète… C’est donc bien plus une question pratique (financière et géopolitique) que technique : installer et entretenir de telles surfaces a un coût. Il faut aussi penser à acheminer cette électricité partout sur Terre : on n’a pas tous un désert ensoleillé à porté de ligne à haute tension.

L’énergie nucléaire, sous forme de fission contrôlée, a atteint un stade de maturité il y a une quarantaine d’années maintenant. La maîtrise de la production d’électricité nucléaire n’a pas rencontré de difficultés technologiques majeures. Les risques associés ont plus ou moins été repérés et délimités. La catastrophe de Tchernobyl en 1986 n’a pas réussi à stopper l’intérêt pour cette énergie abondante et relativement peu coûteuse. En fait, ce constat optimiste cache une réalité à laquelle il faudra bien faire face un jour, et qui commence déjà a atteindre le stade du débat publique : la gestion des déchets nucléaires à long terme n’a pas suffisamment été prise en compte par les industriels lors de la mise en place de cette technologie, et le démantèlement des infrastructures hautement contaminées commence seulement à être envisagé, avec le coût énorme que cela risque d’occasionner. Depuis 40 ans que cette politique énergétique a été mise en place, aucune solution fiable et viable n’a été trouvé pour les déchets nucléaires. Ce n’est pas faute de recherches, à la fois industrielle et de nature plus fondamentale. Mais le problème est irréductible, car les lois de la radioactivité sont incontournables : les déchets instables produits ont des durées de vie très longues (ça se compte en milliers d’années, voire en centaines de milliers d’années), et cela requerrait une énergie que nous n’avons pas à notre disposition pour les amener plus rapidement à un état plus stable. Ce fait risque d’empoisonner encore longtemps à la fois le débat publique et la Terre. Avoir si longtemps écarté le problème, en espérant une solution toujours remise à plus tard, semble nous mener tout droit à une impasse. Le miracle technologique et scientifique tant espéré (et financé) n’a pas eu lieu.

La Terre est traversée en permanence par des particules qui n’interagissent quasiment pas avec la matière. Il s’agit des neutrinos. La science les connaît bien. Un calcul assez simple montre que la quantité d’énergie transportée par ces innombrables neutrinos est gigantesque. Il serait donc souhaitable de pouvoir la récupérer, un peu comme on le fait des photons émis par le soleil. Même si nos dirigeants s’entendaient pour lancer un tel projet au niveau international, même si des industriels étaient prêts à y mettre des sommes fabuleuses, il semble bien que ce projet serait voué à l’échec. Le problème n’est pas technique, il est dû à la nature même de ces particules. Si ces particules traversent la Terre sans presque jamais y être absorbées, c’est justement parce qu’elles n’interagissent que très peu avec leur environnement. Aussi futés que soient les ingénieurs, aussi riches que soient les laboratoires à qui on assignerait un tel but, la Nature s’opposerait tout bonnement à ce qu’on puisse en récupérer un grand nombre. Les chercheurs en physique des particules ont dû rivaliser d’ingéniosité et surtout de gigantisme pour en capturer régulièrement quelques uns à des fins d’études… Passer à l’échelle industrielle est inimaginable.

J’ai déjà eu l’occasion d’évoquer le problème de la fusion nucléaire comme source d’énergie, et de l’énorme effort financier consenti à cet effet. Les succès se font encore attendre, car le problème est ardu. Confiner de la matière en fusion requiert une technologie que nous ne maîtrisons pas encore. Espérons qu’il ne sera pas tout bonnement insurmontable puisque la source du problème provient d’instabilités dues à des phénomènes non linéaires (de même nature que ceux qui empêchent les prévisions météorologiques à moyen terme).

Depuis deux siècles, la démographie humaine est galopante, voire explosive. Il faut nourrir cette population. Le cap du premier milliard d’individus a été franchi dans les années 1850. Songez à l’état de l’agriculture à cette époque. Malgré quelques aléas localisés dans l’espace et dans le temps, elle parvenait à donner à manger à tout ce monde. En 1975, le cap des 4 milliards d’individus est atteint. En un siècle, les progrès en agriculture ont à peu près permis de suivre cette cadence. Mais à quel prix ? L’agriculture intensive détruit les sols qu’elle utilise, parce qu’elle en tire le maximum, parce qu’elle ne les ménage pas physiquement, et surtout parce qu’elle les inonde de pesticides et d’engrais qui finissent par en modifier leur composition et les rendre stériles (sans parler de la pollution que cela engendre par ailleurs). Les prévisions démographiques actuelles tablent sur une population de 8 milliards d’individus en 2030. Cela représente un doublement de la population mondiale en moins de 60 ans. Reprenons ces chiffres calmement. En 125 ans, de 1850 à 1975, la population aura été multipliée par 4, puis en 60 ans à nouveau par 2. Ces chiffres sont comparables : 120 pour 4, 60 ans pour 2… Doubler le nombre de personnes à nourrir requiert bien sûr de pouvoir doubler la production agricole. Nous sommes parvenus à multiplier par 4 en 120 ans la production agricole. Il faudra de nouveau la multiplier par 2 en 60 ans. Le bilan est donc que par rapport à 1850, il faudra multiplier par 8 cette production. En résumé : il faut réaliser en 60 ans des progrès agricoles 2 fois plus efficaces que ceux réalisés en 120 ans !

Deux fois moins de temps pour faire deux fois plus.

Même si nous parvenons à réaliser ce miracle (la multiplication des pains était bien un miracle sous d’autres cieux…), le problème se présentera à nouveau dans quelques décennies si la population humaine ne se stabilise pas. En réalité, compte-tenu de ce qu’on sait actuellement de notre pauvre planète et de l’état dans laquelle nous la mettons, il n’est même pas certain que nous parvenions à réaliser ce doublement de façon durable. On peut certainement en appeler aux progrès de la biologie, qui peut explorer quelques pistes en ce domaine : amélioration des rendements, plantes transgéniques (pour cultiver des sols plus ingrats), meilleure gestion des additifs (pesticides et engrais)… Mais ne rêvons pas, la biologie est une science expérimentale qui ne pourra nous fournir que ce que la Nature à en son sein. Pour les miracles, c’est un autre guichet.


Nous demandons sans cesse à la science, et peut-être plus encore à sa compagne la technologie, de nous fournir sans relâche des réponses pratiques à nos maux et à nos problèmes. Les quelques exemples exposés ci-dessus montrent que ce n’est pas nécessairement l’argent le nerf de cette guerre mais bien plutôt les lois de la Nature. L’impossible est in-atteignable, qu’on le veuille ou non. Même nos hommes politiques ne peuvent rien contre ça.

Vouloir et pouvoir : deux verbes à ne pas confondre en matière de politique de recherche et d’innovations. Dans le monde des applications de la science, il ne suffit pas d’avoir des ambitions, il faut encore qu’elles soient réalisables. Tout au long de ces textes, de nombreux exemples concrets ont démontré et démontreront ce fait incontournable.

D’un côté, nous aurons toujours des domaines de la connaissance fondamentale qui n’auront jamais d’applications pratiques, ni d’utilisations concrètes. De l’autre, nous aurons des problèmes (parfois essentiels) qui ne trouveront pas de solution satisfaisante. Une fois de plus, il est bon de rappeler que la science fondamentale, et la connaissance qu’elle produit, ne sont pas là pour servir l’Homme. Au demeurant, même si elle le voulait, elle ne le pourrait pas dans toutes les circonstances où on le lui demanderait. Car la science n’est pas omnipotente. On ne doit pas lui réclamer, et pire encore exiger d’elle, des solutions à tous nos problèmes.

Il se trouve que de temps en temps nous avons droit à une percée technologique formidable : voler ne serait-il pas perçu comme un miracle aux yeux d’un de nos ancêtres de l’an 1000 ? le réseaux Internet, fruit de nombreux assemblages technologiques innovants, ne serait-il pas déjà un miracle pour Jules Verne ? la pénicilline n’aurait-elle pas eu des vertus plus miraculeuses que les reliques tant convoitées au Moyen-Âge ?

Le citoyen doit prendre en compte cette dimension lorsqu’il raisonne sur notre futur, que ce soit dans le cadre d’une politique à mener à brève échéance ou dans le cadre plus lointain de notre avenir sur cette petite planète. S’éblouir des découvertes passées de la science et de leurs retombées technologiques, c’est trop souvent se leurrer sur les possibles à venir. Combien de fois a-t-on entendu que la science résoudrait « un jour » les problèmes majeurs que nous posons à notre propre survie ? Comment pouvons-nous être certain que les progrès technologiques d’hier, qui nous ont permis d’obtenir le confort relatif dont nous profitons, se perpétueront sans obstacle infranchissable demain ? Qui peut être certain que nous trouverons de quoi nourrir une population mondiale toujours croissante ? Qui sait où puiser cette quantité d’énergie dont nous aurons alors besoin ? Qui connaît des solutions viables pour endiguer le réchauffement climatique ou limiter ses effets ?

La Nature nous tient dans le carcan de ses lois. Ne la provoquons pas en nous plaçant sottement dans une situation inextricable : c’est elle qui aura toujours le dernier mot.

La finalité de la science

Si les applications concrètes et palpables ne sont pas sa finalité, à quoi peut alors se mesurer l’utilité de la recherche fondamentale ?

À rien de bien précis, et surtout à rien de vraiment quantifiable, malheureusement pour les chercheurs.

C’est une des erreurs les plus navrantes de questionner un chercheur sur la finalité concrète de ses travaux. Comme il est rappelé plus haut, ce chercheur s’engage dans un long et patient processus de création de connaissance, d’accumulation d’explications et de faits vérifiés. Sa mission première n’est donc pas de produire, au sens quasi industriel du terme, un quelconque profit immédiat dont le commun des mortels pourrait bénéficier et que son employeur pourrait chiffrer.

Si la finalité de la science se mesurait à son utilité, la situation serait à la fois dramatique et réconfortante.

Dramatique, parce que des découvertes fondamentales restent parfois des décennies sans qu’aucun rôle majeur ne leur soit trouvées dans notre société. Certaines n’auront même pas cette chance ! Au risque de ressembler à Hertz (voir plus loin) dans une centaine d’années, je me hasarde à dire aujourd’hui que certains aspects du modèle standard des particules élémentaires (la chromodynamique quantique par exemple) ne sont pas prêts à servir dans quelque projet industriel que ce soit avant bien longtemps.

Réconfortante, car il se trouve que lorsque des utilisations concrètes de la connaissance scientifique sont trouvées, on assiste souvent à des révolutions majeures : la machine à vapeur à profondément modifié la société industrielle au XIXe siècle, la maîtrise de l’électricité, l’invention des modes de transports aériens, la mise en place des réseaux d’ordinateurs ont prolongé cette mutation en profondeur. Toutes ces technologies sont issues in fine de recherches très académiques et sont le reflet de la domestication de lois de la Nature bien comprises.

Mais l’activité de recherche scientifique ne doit pas se motiver dans cette utilité attestée. La science n’a pas de finalité, elle a une cause.

Cette cause réside en nous, dans notre appétence à vouloir comprendre toujours plus de choses, dans notre émerveillement spontané devant la beauté. Après tout, est-ce que ça a un sens de demander à Rodin à quoi sert le Penseur ? Est-ce que ça a un sens de réclamer à Léonard de Vinci une utilité au sourire de la Joconde ? Tous les ans, la Fête de la Science le prouve : le désir de connaissance est partagé par un grand nombre de nos concitoyens qui viennent dans les laboratoires pour rencontrer ceux qui la produise et pour s’enthousiasmer des découvertes les plus récentes. Bien sûr, il y a malgré tout une préférence pour les sciences qui parlent de notre quotidien. Mais la science la plus fondamentale, celle par exemple qui s’occupe de l’infiniment grand (l’Univers) ou de l’infiniment petit (les particules élémentaires) est loin d’être délaissée.

La connaissance est une finalité en soi. Elle vaut la peine qu’on lui consacre du temps et de l’argent. Replacer l’Homme dans une histoire mieux comprise, vis à vis des constituants ultimes qui le composent, vis à vis de la planète qui l’héberge, vis à vis des espèces vivantes qui le côtoient, vis à vis du temps cosmique qui meut l’Univers dans lequel il n’est qu’une poussière infime, voilà la victoire première de la connaissance scientifique.

Si en plus elle apporte la pénicilline, la télévision et l’avion à réaction, il faut s’en féliciter. Mais il ne faut pas les lui exiger. Laissons la nous surprendre.

La dangerosité de la science

Il est souvent reproché à la science d’être dangereuse.

C’est vrai que certaine découvertes scientifiques ont un potentiel (et trop souvent déjà une réalité) effrayant. La synthèse chimique des gaz de combat, l’invention de la bombe thermonucléaire ou la création d’organismes génétiquement modifiés ont de quoi inquiéter le citoyen très justement soucieux de l’avenir de l’humanité. Faut-il cesser la recherche sur la synthèse de molécules chimiques ? Faut-il blâmer la recherche scientifique d’avoir compris des processus aussi fondamentaux que la fission nucléaire ? Faut-il interdire dès aujourd’hui toute étude sur la génétique ?

Il est essentiel de bien séparer une connaissance brute de toutes les applications qui peuvent en être faites, applications dont bien souvent un chercheur en science fondamentale n’a aucune idée lors de ses travaux.

Ce n’est pas parce que des recherches sur le clônage du vivant sont réalisées (ou le seront) que l’être humain doit nécessairement en faire une technique de reproduction. Ces recherches n’ont pas pour vocation une utilisation immédiate concernant une quelconque amélioration de la procréation médicalement assistée. Elles visent avant tout à comprendre beaucoup plus finement les mécanismes de fonctionnement des cellules, à en connaître les ressorts les plus subtils. Ensuite seulement des applications possibles (mais non nécessairement souhaitables…) verront le jour.

C’est en dernier recours au citoyen de réclamer telle ou telle application de la connaissance scientifique ou au contraire d’en stopper une autre. Il faut qu’il prenne ses responsabilités. Le pouvoir de créer quelque chose d’utile ou de préjudiciable n’est pas dans les mains des scientifiques, en tout cas pas dans les mains de la majorité des scientifiques. Les « savants fous » qu’on nous présente dans la littérature ou au cinéma relèvent plus de la pure fiction que de la réalité.

La synthèse de certains gaz de combat est assez proche de celle de certains pesticides. L’agriculture était-elle prête à se passer d’insecticides pendant des décennies ? L’humanité le pouvait-elle ? L’énergie nucléaire est la version contrôlée de l’énergie libérée de façon explosive dans une bombe atomique. L’humanité peut-elle réellement, dans l’immédiat, se passer de cette énergie ? Certaines bactéries transgéniques produisent depuis 1983 de l’insuline en grande quantité. Les diabétiques doivent-ils être sacrifiés ?

Jusqu’à présent, une bonne partie de mon discours a montré qu’il ne fallait pas confondre la connaissance scientifique avec les applications technologiques qui pouvaient en être tirées. Je mets en garde maintenant sur le fait qu’il ne faut pas confondre une technologie souhaitable et une technologie terrifiante. La même découverte scientifique peut servir au meilleur comme au pire. Comprendre et maîtriser le côté du « bien », c’est aussi très souvent comprendre et maîtriser le côté du « mal ». Et réciproquement, comme le montre l’exemple des fusées, dont la première utilisation a terrorisé Londres pendant la Seconde Guerre Mondiale (les fusées V2), et qui a par la suite permis d’envoyer des hommes sur la Lune (le programme Apollo).

La connaissance scientifique n’est pas dangereuse intrinsèquement : ce sont ceux qui l’utilisent et qui en tirent des applications qui créent d’éventuelles menaces. C’est au citoyen d’être vigilant, comme il l’a été par le passé sur le nucléaire, comme il l’est aujourd’hui sur les OGM, comme il ne l’a pas été concernant la destruction de la planète par diverses activités humaines (déforestation, utilisation massive d’énergies fossiles, dispersion irréfléchie de composés chimiques nocifs à des fins agro-alimentaires…). En l’occurrence, les deux problèmes les plus emblématiques de l’actualité, c’est à dire le nucléaire et les OGM, ont plus pour origine des lobbies technico-financiers que des chercheurs dans des laboratoires de recherche !

La connaissance donne du pouvoir, pour le meilleur ou pour le pire. La créer non.

La recherche sur projets

Avant de parler de la recherche sur projets, je voudrais revenir une fois de plus sur la recherche appliquée et la recherche fondamentale, ainsi que sur les liens qu’elles entretiennent. En effet, la recherche sur projets repose sur un a priori qui confond ces deux types de recherche. Il est donc essentiel de clarifier le paysage en ce domaine.

Comme je l’ai déjà évoqué, il n’est pas toujours facile de faire la différence entre la recherche fondamentale et la recherche appliquée. Toutes les deux utilisent la méthodologie de la science (expériences, hypothèses, modèles, vérifications…) : la mise au point des écrans plat à cristaux liquides de nos ordinateurs a procédé par essais, erreurs et tâtonnements dans une série de réflexions et d’ajustements qui ont permis de passer du concept fondamental au prototype industriel. La recherche fondamentale ne procède pas autrement au quotidien dans sa démarche.

La différence essentielle sur laquelle je voudrais insister ici réside dans leurs sujets d’étude et par conséquent dans leurs finalités.

La science fondamentale trouve son inspiration dans la Nature, à travers les phénomènes très divers qu’elle nous propose, dans une très large gamme : physique, chimie, astronomie, biologie, géologie, paléontologie… Elle ne cherche pas à produire plus que de la connaissance. J’ai déjà longuement insisté sur ce fait.

La science appliquée se focalise sur des problèmes issus de l’Homme lui-même, qu’il s’agisse d’améliorer ses conditions de vie, d’inventer de nouvelles technologies ou d’en optimiser d’autres. On peut dire que la science appliquée est une représentation concrète, dans notre vie de tous les jours, de ce qu’est la connaissance scientifique en général. Mais ce n’est qu’une illustration très partielle de toute notre connaissance, tout comme la surface de l’océan ne nous en montre pas les grands fonds.

La recherche appliquée concrétise bien souvent des découvertes issues de recherches fondamentales, et souvent la recherche fondamentale ne peut progresser que parce qu’elle profite des avancées technologiques de la recherche appliquée (je reviendrai sur ce point plus loin). Il y a bien sûr un continuum entre ces deux démarches. Il n’est donc pas condamnable de confondre ces deux activités en première approximation. Mais fondamentalement, il s’agit bien de deux démarches très distinctes.

J’ai déjà eu l’occasion de développer quelques uns de ces points précédemment, et en particulier de montrer combien la recherche appliquée et la recherche fondamentale peuvent s’inspirer l’une de l’autre, sans ordre de préférence.

L’étude du vol (dans les airs, et non dans les commissariats) est en soi un exemple intéressant de recherche appliquée ayant débuté avant les recherches plus théoriques. Certes, des recherches fondamentales sur la mécanique et la dynamique des fluides avaient déjà été entreprises dès le début du XIXe siècle. Elles auraient pu mener à la construction d’avions, ou du moins à des prototypes encore grossiers. Mais l’histoire s’est présentée autrement. La compréhension profonde et fondamentale de ce qui permet la portance d’une aile n’a réellement décollé qu’avec les premiers avions et les expérimentations annexes. En fait, avant la maturité de la théorie des fluides, des arguments théoriques avaient « démontré » l’impossibilité du vol, ce qui, à la toute fin du XIXe siècle, conduisait encore à penser que le vol des oiseaux était un paradoxe !

La thermodynamique est l’étude de la production, des transferts, et de la transformation de la chaleur. Le XIXe siècle est en technologie et en science celui de la thermodynamique. Bien sûr, d’autres domaines des sciences ont largement profité de ce siècle, comme l’électromagnétisme, la chimie organique ou la biologie. Mais la technologie du XIXe siècle est bien celle des machines à vapeur. Le problème du rendement de ces machines à vapeur a initié des travaux sur certaines lois fondamentales de la thermodynamique, ce qui a permis en retour de cerner les limites de ce type de machines et de ne pas essayer inutilement de dépasser ces contraintes constitutives.

Dans ce cas, la recherche appliquée et la recherche fondamentale ont fonctionné main dans la main pendant des décennies. Aujourd’hui, la physique statistique, directe héritière de ces recherches en thermodynamique grâce en particulier aux travaux fondateurs de Ludwig Boltzmann, est un domaine de recherche très actif en physique théorique qui a ouvert la voie à de nombreuses applications technologiques.

La fin du XIXe siècle a vu l’apparition des premières applications de l’électromagnétisme, principalement par l’utilisation des ondes radio. Aujourd’hui, ces ondes sont omniprésentes dans notre technologie, que ce soit pour écouter la radio(phonie), pour téléphoner dans la rue, pour partager en WiFi une connexion internet chez soi ou pour réchauffer son café le matin dans le four à micro-ondes.

Mais à l’origine, les ondes électromagnétiques (c’est le nom vernaculaire des ondes radio) sont issues de travaux complètement théoriques, et sont une conséquence assez inattendues des équations de Maxwell publiées en 1873. C’est Heinrich Hertz qui en montra pour la première fois la réalité en 1888. À cette occasion, il aurait répondu à un étudiant lui demandant à quoi cela allait servir, que ça n’aurait jamais d’utilisation pratique… C’est à Guglielmo Marconi qu’on doit la première utilisation en 1895, sous forme de transmission de messages (codés en morse) sans le support d’un fil. C’est ce qui permit au Titanic, quinze ans plus tard, d’envoyer un message de détresse. Dans ce cas, c’est donc la théorie pure, la connaissance fondamentale, qui a engendré des utilisations technologiques.

Plus récemment, en 1955 fut découvert un phénomène inattendu par une équipe de chercheurs dirigée par André Bernanose (aujourd’hui tombé dans l’oubli) : certains matériaux organiques soumis à un courant électrique peuvent émettre de la lumière. Les écrans OLED (Organic Light-Emitting Diodes) basés sur cette découverte ont d’abord envahi les appareils numériques de petites tailles (téléphone mobiles et baladeurs audio-vidéos) dès 1997 et ont ensuite commencé à pénétrer, à partir de 2007, le marché des téléviseurs. Une quarantaine d’années se sont écoulées entre la découverte et les applications grand public.

On pourrait citer comme autre exemple la mécanique quantique, qui est à la base de nombreuses avancées (ou plutôt ruptures) technologiques, comme les semi-conducteurs et les lasers pour ne citer que les plus connus. Aucun des fondateurs de cette merveilleuse théorie n’a participé à son utilisation pratique. Ce furent des chercheurs en science appliquée (et des ingénieurs de talent) qui imaginèrent les transistors et les lasers. Dans le cas du laser il s’agissait même, avant tout, de prouver la faisabilité puisque la théorie prévoyait le phénomène. Quant aux applications, elles furent largement plus nombreuses que n’importe qui aurait pu l’imaginer dans les années 1950.


Les exemples décrits ci-dessus montrent à quel point la recherche fondamentale et la recherche appliquée sont imbriquées historiquement. Ils permettent aussi de mieux cerner ce qui relève de l’une et de l’autre de ces activités.

Plus important encore, ces exemples historiques permettent de tirer les leçons suivantes :

  • Le temps qui s’écoule entre une découverte fondamentale et les premières idées et les premières concrétisations techniques peuvent prendre des décennies.
  • L’inattendu est souvent au rendez-vous, comme les ondes radio l’ont montré.
  • Les utilisations d’une technologie scientifique nouvelle sont rarement celles pour laquelle elle a été envisagée au départ (si une telle intention existait d’ailleurs dès le départ). On ne sait que rarement ce qui sera mis au point et comment. Alors qu’il n’était encore qu’une curiosité, le téléphone a été détourné en un « théâtrophone », qui permettait d’écouter chez soi les opéras joués dans quelque salle de Paris. Les lasers sont connus aujourd’hui entre autres pour leur utilité dans le domaine médical, où il permettent par exemple des interventions chirurgicales fines sur les yeux. Or, la première utilisation envisagée consistait à découper des plaques de métaux de quelques millimètres d’épaisseur…
  • Le temps qui s’écoule entre un concept technologique et ses premières véritables applications concrètes se compte elles aussi en décennies. Les ondes radio ont eu presque immédiatement une utilité pratique, mais l’aviation a mûri une bonne dizaine d’année avant d’aider les militaires pendant la Première Guerre Mondiale, et le laser n’est sorti réellement des laboratoires qu’une vingtaine d’années après sa mise au point.
  • La recherche appliquée répond à des besoins de société (en thermodynamique par exemple), mais aussi très souvent à de simples envies d’aventure (l’aviation) voire à de la pure curiosité (les ondes radio et les lasers).

Compte-tenu de ces leçons historiques, il est évident qu’il ne faut rien demander de précis à la technologie sur une échelle de quelques décennies. On ne sait jamais ce qui sortira des laboratoires sur de telles durées. Pire encore, il faut laisser à une technologie naissante le soin de mûrir, car les utilisations que la société en fera ne seront probablement pas celles que ses initiateurs auront imaginées.

Les ruptures technologiques dont nous avons été témoins n’ont absolument pas suivi un chemin tout tracé entre une volonté initiale et un réalisation finale. Au contraire, elles puisent leurs origines dans des découvertes souvent imprévues, et n’ont abouti à des technologies viables qu’après des méandres compliqués à travers la pensée humaine.

La radiographie à usage médicale n’est pas née parce qu’on voulait voir à travers le corps humain, mais parce qu’on le pouvait. Il ne faut pas inverser cette logique fondamentale.

Il serait donc absurde de conduire un potentiel de recherche dans une direction donnée, vers une finalité pré-déterminée. C’est pourtant ce que propose la recherche sur projets.


La recherche sur projets est un détournement subtil de la participation des états à la grande aventure du partage de la connaissance évoqué dans l’article précédent. En effet, c’est une façon qu’ont trouvé les décideurs de tenter de récupérer l’investissement financier qu’ils font l’effort d’accorder pour la recherche. Dans leur terminologie comptable, la connaissance semble chiffrable.

Dans les faits, la recherche sur projets consiste à canaliser les chercheurs sur des projets précisément définis en jouant sur les crédits accordés. Un chercheur qui souhaite vivre un quotidien plus agréable (rencontres plus fréquentes avec des collègues, organisations de colloques, achat de matériels divers…) sera tenté de répondre à des appels d’offre pour financer ses recherches, quitte à ce qu’il sacrifie une bonne partie de la maîtrise de son activité de recherche. En contrepartie d’un financement intéressant, il devra souvent travailler différemment et sur des sujets qui lui sont imposés.

Cette notion de recherche sur projets repose sur les postulats suivants :

  • Toute forme de recherche doit avoir une utilité.
  • Il suffit de demander à des chercheurs d’explorer dans une direction pour obtenir un résultat.
  • On connaît par avance ce qu’on va trouver et ce qu’on va mettre en place en termes de percées technologiques ou fondamentales.
  • On connaît par avance l’utilité du fruit de la recherche mise en œuvre.
  • Il est rentable de ne financer que certains sujets de recherche, ceux dont on souhaite profiter des retombées.

Le premier postulat peut concerner la recherche appliquée, qui se donne bien pour finalité de tenter d’apporter des réponses utiles et concrètes à certains problèmes. L’erreur derrière ce postulat est de réduire toute la recherche scientifique à la recherche appliquée uniquement, ignorant de fait l’existence et les spécificités de la recherche fondamentale, qui répond à ses propres critères de fonctionnement.

Aussi, la première conséquence de cette grossière erreur est que la politique de recherche sur projets est mise en place aussi pour la recherche fondamentale, considérée au mieux comme une recherche appliquée très en amont. C’est à mon avis l’une des erreurs les plus graves de cette démarche. Qu’on souhaite favoriser telle ou telle direction de la recherche appliquée, pour des raisons d’intérêts économiques par exemple, ou parce que la société est demandeuse sur un point précis, c’est justifiable, à la condition bien sûr que cet effort financier n’ampute pas les crédit alloués aux autres sujets de recherche. Mais qu’on l’applique aussi brutalement à la recherche fondamentale est inadmissible et cela prouve que ceux qui mettent en place ces politiques ne connaissent pas le mode de fonctionnement de la recherche en général.

Le second postulat est lui aussi assez surprenant. Une bonne partie des exemples que j’ai pu développer tout au long de ces articles montre à quel point cette conception des choses est absurde. On ne peut jamais être certain qu’un programme de recherche donnera ce qu’on attend de lui. Pire encore, c’est bien souvent ce qui n’est pas attendu et « prévu » qui se révèle le plus intéressant, comme la pénicilline et les ondes radio le démontrent crûment.

La littérature et le cinéma ont souvent présenté des chercheurs contraints de travailler pour une quelconque organisation plus ou moins malhonnête. Jamais l’histoire ne nous a fourni un exemple où la recherche pouvait se faire le couteau sous la gorge. On se demande donc d’où vient cette idée extravagante… Le cerveau n’est pas capable de donner son plein potentiel lorsqu’il est stressé de cette façon. L’effet serait même plutôt le contraire de celui souhaité. À la place du bâton, la recherche sur projets utilise la carotte. Je ne suis pas certain que ça change grand chose à l’efficacité finale.

Sans le second postulat, la recherche sur projets n’aurait pas de sens. En effet, il faut bien poser comme credo initial que l’argent investi dans certaines recherches donnera les résultats qu’on attend, sinon pourquoi se compliquer la vie à mettre en place une telle politique ? Ce serait un véritable gaspillage d’argent que de pratiquer cette politique (dont il ne faut pas oublier le coût de fonctionnement) en acceptant par avance comme règle du jeu que les recherches financées ne produisent pas ce qu’on espère d’elles. Ce serait bien plus simple et économique de laisser les acteurs de la recherche décider eux-mêmes des voies à explorer, sans rien leur réclamer de précis. Le résultat serait le même, voire meilleur.

Derrière ces postulats on découvre aussi un grand mystère : qui décide des sujets de recherche prioritaires ? Qui détient cette intelligence innée qui permet de juger par avance que tel ou tel domaine de recherche produira des retombées pratiques exploitables (pensons au retour sur investissement), ou au moins des résultats de type académique dignes d’intérêts. Je serais ravi de rencontrer cette intelligence.

Bien sûr, certains domaines de recherche ont besoin d’un effort financier à un certain moment pour se développer. Les nanotechnologies promettent monts et merveilles. Pour leur donner leur chance, des instituts entiers leurs sont dédiés de par le monde, regroupant des théoriciens, des expérimentateurs et des ingénieurs. À eux de nous prouver que l’investissement consenti en vaut la peine.

Par le passé, dans les années 1950 et 1960, la physique nucléaire a elle aussi bénéficié d’une telle attention de la part des pouvoirs publics. Le retour sur investissement est de taille, avec une énergie électrique nucléaire peu chère, abondante, et qui nous assure une certaine indépendance vis à vis de la raréfaction du pétrole (même si certains problèmes ont été un peu oubliés en cours de route…).

Ces financements ciblés et conséquents ne doivent cependant en aucune manière tarir le financement des autres activités de recherche. Les nanotechnologies d’aujourd’hui ne sont que le fruit d’une science purement académique d’hier. Les grands projets de demain ne doivent donc pas être étouffés aujourd’hui sous prétexte de priorité urgente. En matière de politique de recherche, il est préférable de ne pas mettre tous ses œufs dans le même panier.

Au quotidien, la recherche sur projets ne prend pas la forme de ces programmes quasi-industriels qui réclament des budgets gigantesques et bien souvent spécifiques. Ce sont au contraire une multitude de petits contrats de quelques années, qui drainent des sommes d’argent modestes sur chaque contrat, mais qui prises globalement représente une somme totale assez conséquente. Du coup, comme le crédit alloué à la recherche n’augmente pas considérablement, ces projets remplacent petit à petit les budgets récurrents des laboratoires. Ils laissent donc dans une certaine précarité bon nombre de sujets de recherches qui n’ont pas retenu l’attention de ces intelligences supérieures capables de juger par avance l’intérêt d’un projet…

Car l’intérêt de ces projets est explicitement revendiqué, comme le prouve la terminologie utilisée : cette recherche sur projets n’envisage de ne financer que des projets scientifiques « porteurs », « visibles », « aux retombées sociétales certaines ». Ce sont les mots exacts utilisés dans les appels à projets et sur lesquels ils sont sensés être jugés et retenus.

Sous cette forme, la recherche sur projets est une véritable entrave. Elle transforme les chercheurs en une armée d’abeilles toutes prêtes à butiner les mêmes champs de fleurs pour produire le même miel, au final certainement insipide. C’est une erreur monumentale que de canaliser et de focaliser la recherche académique sur des thématiques pré-établis par des experts auto-proclamés. En plus d’établir et de favoriser des modes stérilisantes, c’est intrinsèquement une démarche contraire à une activité de recherche utile et de qualité, qui, comme je l’ai déjà dit, a besoin avant tout de liberté, de diversité, de temps et de hasard. Tout le contraire des postulats de cette politique…

Certes l’argent est nécessaire pour faire de la bonne recherche, mais l’intelligence et la liberté le sont plus encore. Elles ne s’achètent pas : elles se respectent et elles s’entretiennent… Aussi, un chercheur qui se lève le matin pour remplir un contrat de recherche à court terme n’est plus un véritable penseur autonome. Au delà d’une idée fixée et financée dans laquelle sa pensée doit se contenir, son cerveau ne juge plus, ne se délivre plus des cadres conceptuels qui ont toujours été les freins aux découvertes les plus fructueuses de l’humanité.

On peut prendre l’histoire à témoin. Les exemples donnés ci-dessus montrent à quel point une recherche sur projets est une absurdité d’un point de vue pratique. La thermodynamique n’est pas née d’un projet, elle est née d’une nécessité en pleine industrialisation des sociétés occidentales. L’aviation n’est avant tout qu’une conquête humaine réalisée par des « fous volants », plus proches de l’esprit des explorateurs que celle des industriels. Les ondes radios ont d’abord été un jouet de laboratoire, une curiosité amusante. Quant à la mécanique quantique, elle est le fruit de chercheurs pinailleurs et insatisfaits qui s’occupaient de jouer dans leurs laboratoires avec des spectres atomiques. Aucun projet n’avait été lancé en 1910 pour des applications révolutionnaires qui sont venues… à partir de 1950 !

Une blague circule dans le milieu scientifique qui caricature cette approche de la recherche. Si dans les années 1880 un projet de recherche avait été lancé pour transmettre à distance la parole sans infrastructure terrestre (sans fil par exemple), les ingénieurs auraient cherché à croiser des pigeons voyageurs (les médiateurs) avec des aras (pour le contenu oral)… Heureusement, Marconi a ouvert une autre voie pour la voix.

On peut douter aussi de l’approche purement comptable de cette démarche. Les marchés ouverts par les ruptures technologiques décrites ci-dessus sont assez gigantesques : radio et télévision (transistors, ondes radio), musique (laser pour les CD audio), micro-informatique pour ne citer que les plus visibles. En terme financier, la découverte de la mécanique quantique et la mise au point des prototypes de ses applications n’ont pas coûté grand chose comparé à ce que ces marchés ont brassé comme argent depuis. Un retour sur investissement très intéressant… Laisser la recherche suivre son cours, c’est probablement la solution la plus économique dans un premier temps, et la plus rentable à long terme.

La recherche financée sur projets est non seulement nuisible à la recherche elle-même, mais elle peut se révéler dangereuse pour le citoyen lorsque ceux qui tiennent les cordons de la bourse la bride et la dirige. Qui finance les recherches sur la nocivité potentielle des téléphones cellulaires ou des OGM ? Ne serait-ce pas les mêmes qui les vendent ? Que penser de l’objectivité de ces études ?

De plus, des tentations à la facilité se font jour parmi les acteurs de la recherche : mener des recherches souvent inintéressantes et objectivement sans ampleur sur des sujets et des problématiques relativement faciles à résoudre est monnaie courante pour montrer son aptitude et obtenir ainsi des financements récurrents. La mise en place des projets de recherche multiplie les exemples qui vont dans cette direction. Dans le jargon de la recherche, ça s’appelle « faire de l’alimentaire ».

Au contraire, aborder et affronter des problèmes ardus, conceptuellement plus compliqués, aux enjeux plus profonds, demande beaucoup de courage aux chercheurs qui s’affranchissent de cette forme pernicieuse de paresse, qui acceptent l’échec comme règle du jeu, et qui revendiquent la connaissance comme objectif et l’indépendance comme moyen d’y parvenir plutôt qu’un confort somme toute relatif. La recherche sur projets les anéantit. La recherche de demain, une fois stérilisée, en pâtira.

Les grandes découvertes qui ont jalonnées l’histoire de la science ne sont pas le fruit de recherches sur projets. Ou alors il faudra me dire qui a passé commande pour la gravitation de Newton, pour les lois de conservation de Lavoisier, pour les équations de Maxwell, pour les trois principes de la thermodynamique, pour l’équation de Schrödinger de la mécanique quantique, pour la relativité générale d’Einstein, pour la théorie de l’évolution de Darwin, pour la théorie génétique de Mendel, pour le tableau périodique des éléments de Mendeleïev, pour la technonique des plaques de Wegener, pour la fusion nucléaire…

La connaissance est buissonnante. Tout ce que la recherche nous dévoile est intriqué, chaque composante n’est qu’une facette qui n’a de sens et d’intérêt (intellectuel et pratique) que dans le tout. Mettre en place une politique de recherche sur projet qui ne cherche à en développer qu’une partie au détriment du reste ne fonctionnera pas à long terme. Au final, c’est le buisson dans son entier qui dépérira.

Science et ingénierie

Qu’est-ce qui différencie un chercheur (en recherche fondamentale ou appliquée) d’un ingénieur de recherche ?

Le discours précédent a insisté sur la différence entre recherche fondamentale et recherche appliquée. Qu’est-ce qui distingue la recherche appliquée de l’ingénierie de recherche ? La question est pertinente car sa réponse n’est pas évidente pour qui ne connaît pas réellement bien ces métiers.

Le critère judicieux à utiliser cette fois repose sur la méthodologie utilisée, en particulier sur la mise en œuvre de technologies nouvelles ou de technologies éprouvées. Cette notion de méthodologie doit être comprise en un sens général : il peut s’agir de méthodes mathématiques, de processus expérimentaux, de cadres conceptuels, de modèles…

Selon ce critère, un chercheur devra toujours essayer d’apporter des solutions nouvelles si possible innovantes pour résoudre un problème considéré. Un ingénieur n’a pas été nécessairement formé pour concevoir de lui-même de nouvelles démarches et pour étudier des nouveaux processus fondamentaux : son métier consiste à utiliser, de façon optimale et performante, des méthodes reconnues et validées. Le cahier des charges qu’il doit remplir l’oblige à une certaine forme de pragmatisme. Il se contentera donc de ce qui marche, sans que cette terminologie ne soit péjorative. En revanche, un chercheur trouvera souvent qu’il est possible de faire mieux, selon ses propres critères. Sa démarche s’inscrit en effet dans un processus de compréhension des phénomènes, avec comme corollaire une analyse plus profonde des questions soulevées. Il ne saurait s’arrêter à une simple description ou à une simple reproduction fidèle des faits, même si cela pourrait suffire à trouver des solutions pratiques aux problèmes posées.

Il est évident que la frontière entre ces deux pôles est floue et perméable. Nombre d’innovations techniques et de ruptures technologiques ont eu lieu parce que des ingénieurs ont eu l’audace de se comporter comme de véritables chercheurs. Réciproquement, il est facile de trouver dans des laboratoires de recherche des chercheurs dont le métier est au quotidien celui d’un bon ingénieur, répétant jours après jours des gestes éprouvés…

La carte à puce n’a fait appel à aucune avancée technologique notable. Lorsqu’elle a été conçue, tous les ingrédients étaient déjà sur le marché, et le génie a consisté à réunir des composants de façon adéquate pour leur donner une finalité nouvelle et très innovante. Il ne s’agit en aucun cas de recherche scientifique.

Le transfert de technologie, si cher à nos hommes politiques, peut se concevoir comme la mise en place, au sein du monde industriel, d’idées et de concepts nouveaux issues de la recherche sous la forme de technologies ou de processus éprouvés. C’est un relais qui est transmis entre les chercheurs et ceux qui ont pour vocation d’innover techniquement. C’est la première étape de la diffusion de la connaissance nouvelle vers les applications concrètes que la société pourra éventuellement en tirer. C’est le segment qui relie deux des sommets du triangle évoqué au début de cet article.

Bien sûr, ce transfert n’est réalisable que dans un monde où les cloisons sont perméables. Cela demande que les acteurs d’un côté comme de l’autre soient capables de se parler. Mais cela ne signifie en aucune façon que les uns doivent faire le métier des autres.

Si le métier des chercheurs en science fondamentale ou appliquée est bien de mettre en place ces méthodes innovantes, ce n’est certainement pas dans leurs attributions et dans leurs compétences d’en tirer des « finalités sociales », sous forme de technologies nouvelles par exemple. Certains le font, et ils doivent en être félicités, mais il faut bien comprendre qu’un chercheur, de par son cursus, et plus encore de par ses goûts personnels vis-à-vis de la connaissance en général, n’est absolument pas formé, préparé et motivé dans cette démarche.

Aussi, la solution la plus réaliste consiste à s’assurer que le dialogue est possible entre ces deux mondes. Ce n’est pas facile pour plusieurs raisons :

  • les contacts concrets sont difficiles à établir ;
  • la culture professionnelle des deux côtés n’est pas la même ;
  • la façon de travailler et d’envisager les problèmes n’est pas la même.

Il serait trop facile de blâmer les chercheurs en leur reprochant de ne pas s’ouvrir à l’entreprise. C’est vrai que le monde de l’entreprise est assez peu connu du côté de la recherche. Mais la réciproque est non seulement vraie, mais en plus c’est elle qui est la source de ce cloisonnement excessif. Les dirigeants de nos grandes entreprises ne connaissent presque rien du monde de la recherche et de ses spécificités. En tout cas, c’est le cas des dirigeants formés par le système français, où malheureusement ces deux mondes se séparent très tôt au niveau des formations, par des cursus universitaires d’un côté et des cursus dans des grandes écoles de l’autre.

Comment une entreprise peut-elle se nourrir des dernières percées de la recherche si elle ne s’y intéresse même pas ? En France, très peu de jeunes diplômés issus du monde de la recherche trouvent un emploi dans le monde industriel. Pourtant, c’est bien là la meilleure façon de transférer un savoir-faire et surtout une culture.

Ce n’est pas le rôle des chercheurs de faire le travail que le monde industriel n’assume pas.

Dans d’autres pays, ce problème est beaucoup moins criant. Les grandes universités américaines forment à la fois aux métiers de la recherche et de l’ingénierie. Les étudiants se côtoient presque jusqu’au bout de leur scolarité, créant à la fois des liens personnels, mais aussi et surtout des ponts culturels qui perdureront une fois ces jeunes diplômés en poste. Les entreprises américaines embauchent un grand nombre de docteurs en science, non pas pour qu’ils prolongent d’une façon ou d’une autre leur travail de thèse, mais parce que ces jeunes ont une formation très spécifique qui bénéficie à l’entreprise. Leur démarche intellectuelle les poussent à innover plutôt qu’à répéter des méthodes certes éprouvées mais qui risquent de vieillir vite. La formation par la recherche permet une adaptabilité extraordinaire à nombres de situations professionnelles. Aussi, un jeune diplômé sorti du monde de la recherche peut assez rapidement occuper différents types de postes dans une entreprise, y compris dans les sphères de décision. Il ne semble pas que les entreprises américaines soient moins performantes que les autres…

Ceci résout du coup les problèmes soulevés par le second et le troisième point. Parce que la culture de la recherche pénètre le monde de l’entreprise, le contact et les échanges sont beaucoup plus faciles dans les deux sens. Même si les méthodes de travail restent différentes, le dialogue est possible.

On pourrait objecter que la réciproque pourrait se mettre en place : faire pénétrer le monde industriel dans celui de la recherche. Mais, autant un chercheur peut, de par son cursus (et s’il en a le goût), apprendre assez rapidement les métiers de l’ingénierie, autant un ingénieur aura beaucoup plus de difficultés à s’adapter au monde de la recherche. La formation d’un ingénieur ne prépare pas à la pratique d’une recherche performante.

On pourrait aussi demander aux entreprises de s’intéresser à la recherche, en participant par exemple à son financement. De fait, des thèses de recherches appliquées sont souvent financées par des grands groupes industriels. Mais on ne peut guère faire plus et mieux compte-tenu du mode de fonctionnement très particulier de la recherche sur lequel j’ai insisté jusqu’à présent. Demander aux entreprises de s’intéresser à la recherche, c’est risquer de tomber dans le piège de la recherche sur projets, dont j’ai déjà montré l’absurdité à long terme.

Qu’on l’accepte ou non, la réalité s’impose dans un seul sens. C’est le monde industriel qui a besoin d’aller puiser à la source de la nouvelle connaissance pour innover. Comme sa compétence n’est pas de participer à la création de cette connaissance, il faut que ses acteurs se donnent les moyens d’accueillir les nouvelles idées que la recherche génère et les nouvelles méthodologies qu’elle conçoit.

Si les décideurs le souhaitent, ils peuvent créer une structure facilitant ces transferts de technologie. On peut imaginer un organisme qui établisse l’interface nécessaire entre les deux mondes. Mais cet organisme ne doit en aucune façon piloter la recherche, et pire encore, la remplacer. Il serait désastreux que la recherche scientifique se transforme en simple exécutant des commandes précises et rigides de l’industrie incapable de prendre en charge sa propre innovation. Or, c’est bien dans cette dernière direction que les pouvoirs publics poussent leur politique aujourd’hui, en transformant les grandes structures de recherche en organismes de moyens.

À long terme, un tel asservissement de la recherche supprimerait toute réelle innovation et toute nouvelle création de connaissances nouvelles. Il faudra alors se demander où les ruptures technologiques de demain trouveront leur substrat, et à quelle source cette même industrie puisera ses idées et ses méthodes. Le transfert de technologie ne peut se faire que s’il y a une source et une destination. La source est et restera la connaissance nouvelle, fruit d’une recherche scientifique libre et indépendante.


Dans la réalité, la situation n’est pas aussi dramatique que ce qui est parfois présenté pour justifier des grandes réformes… Le monde de la recherche n’est pas si hermétique qu’il n’y parait aux besoins de la société.

Les chercheurs en sciences appliquées entretiennent souvent des relations très étroites avec des industriels à la pointe de l’innovation, que ce soit sur des contrats de financement, des thèses, ou la création et l’utilisation de brevets.

Chose plus surprenante, il n’est pas rare de voir aussi des chercheurs en science fondamentale s’impliquer avec succès dans des problèmes très appliqués. Ainsi, dans les dernières décennies, des recherches ont été menées, dans des laboratoires à vocation fondamentale, sur le mouvement des robots (ceci fait appel à des mathématiques très poussées, comme les « réductions symplectiques »), le réseau Internet (en comprendre le fonctionnement de façon statistique), la cryptographie, le traitement de l’image, la propagation des maladies contagieuses…

Trois sortes de motivations sont à l’appui de ces travaux :

  • La première provient de l’intérêt du chercheur pour un problème particulier qui parfois peut déborder sur un champs plus vaste.

    C’est le cas par exemple de la mobilité des robots. Le problème de nature mathématique qui est derrière concerne (en « mécanique analytique ») la transformation d’un mouvement interne en un mouvement externe. Par exemple, la mobilité des serpents entre dans ce cadre : ces reptiles ont la capacité de transformer un mouvement ondulatoire de leur corps en un mouvement de translation dans l’espace (grâce aux frottements). De la même façon, le skate-board tranforme un mouvement interne de basculement en un mouvement de rotation. Les robots à pattes répondent eux-aussi de cette problématique.

    Ce type de situations n’est pas rare : un problème purement académique peut être de même nature que des problèmes plus « concrets ».

  • La seconde raison repose sur la compétence des chercheurs, en particulier leur familiarité avec certaines méthodologies qui leur permettent d’étudier et de résoudre certaines questions fondamentales. Des méthodes mises en place pour résoudre certains types de problèmes se révèlent souvent utiles pour considérer d’autres problèmes très différents. On peut le constater déjà au cœur des sciences : la « théorie des champs » est un outil de base pour comprendre la physique des particules élémentaires, et elle se révèle très féconde aussi en physique statistique.

    La compréhension du réseau Internet ou la propagation des maladies infectieuses sont aujourd’hui étudiés en utilisant des méthodes mises au point dans des contextes purement académiques.

  • La troisième voie, la plus visible dans notre quotidien, est issue de recherches de nature technologique dans des laboratoires expérimentaux, où il faut constamment améliorer et concevoir de nouveaux instruments pour les mesures, l’acquisition des données, l’analyse, ou pour créer des conditions expérimentales extrêmes…

    La cryogénie a largement bénéficiée ces dernières années de la mise au point des grands accélérateurs où des aimants gigantesques sont placés à des températures extrêmement basses. Les appareils photographiques numériques sont directement issus de caméras électroniques installées sur les télescopes des astronomes. La radiothérapie est issue de l’une des premières expériences sur la radioactivité (et des rayons X). Le Web est né au CERN pour permettre aux chercheurs du monde entier d’accéder à l’information produite dans les grands accélérateurs situés près de Genève…

    Des dizaines d’exemples récents montreraient l’implication des chercheurs dans des technologies qui font partie aujourd’hui de notre vie courante.

Il n’en reste pas moins que dans leur grande majorité, ces études n’ont pas eu pour but premier de résoudre des problèmes concrets sur lesquels elles apportent aujourd’hui un regard pertinent et une utilité indéniable. Certaines ruptures technologiques majeures du XXe siècles sont le fruit de recherches fondamentales et de résolutions de problèmes techniques complètement académiques : les semi-conducteurs à l’origine de toute l’électronique d’aujourd’hui, le laser, les cristaux liquides de nos écrans plats… Parfois, la question se pose de savoir à quel type de problème on a affaire : expliquer comment on tient en équilibre sur une bicyclette relève-t-il encore de la science fondamentale ou déjà de l’ingénierie ? Y répondre ne produira peut-être pas une rupture technologique.

La société y gagne à voir des chercheurs éclairer de leurs lumières nouvelles les problèmes qu’elle rencontre. Mais la recherche peut s’y perdre un peu. De nombreux exemples montrent que certains chercheurs, grisés par le succès des applications pratiques qu’ils ont pu apporter, emportés par la facilité avec laquelle ils peuvent traiter des problèmes qui ne sont in fine pas toujours très difficiles conceptuellement si on dispose de méthodes adaptées encore inexploitées, s’investissent trop lourdement dans ce type de démarche. Il est aisé de se laisser aller à la paresse intellectuelle, en faisant tourner une manivelle assez bien huilée pour produire des études en grand nombre, portant sur des déclinaisons subtiles du même sujet. Mais parce qu’ils sont très peu stimulés intellectuellement par la nature même de ces problèmes dont ils font rapidement le tour, cette manivelle tourne rapidement dans le vide.

Plutôt que de multiplier ainsi sans fin et sans finalité des études sans envergure (mais souvent gratifiées de financements sur projets), ces chercheurs, pour éviter de devenir des ingénieurs de l’inutile, devraient retourner à leurs études fondamentales et contribuer à nouveau à la production de connaissances. Le transfert de technologie sert à décharger la recherche scientifique des problèmes pratiques qu’elle a traité avec succès, et sur lesquelles elle n’aura plus rien de pertinent à dire dans son langage à elle. Elle ne doit pas s’encombrer de questions que des ingénieurs de talent peuvent désormais prendre en charge.

L’écosystème scientifico-technologique

Depuis que la science a commencé à fonctionner sous sa forme moderne, exigeant elle-même de se confronter aux données mesurées de la Nature, un véritable écosystème s’est instauré, combinant connaissances brutes, avancées théoriques pures, technologies innovantes et techniques de pointes. Cet écosystème est le fondement même de nos sociétés dites modernes.

En connaître les ramifications permet de mieux replacer la recherche scientifique dans la société, et d’éviter ainsi l’erreur courante qui voudrait qu’elle constitue un monde à part dont on pourrait à la rigueur fort bien se passer…

Il y a des aller-retours incessants entre les découvertes théoriques pures et les développements technologiques, sans ordre précis d’ailleurs quant à celui qui apporte le premier sa pierre. Ce qui est sûr, c’est que le citoyen ordinaire profite très largement des retombées de ce mouvement incessant : imagerie médicale et médecine en général, ordinateurs et réseaux les reliant (banque, réservations de billets, téléphonie et visio-conférences inter-continentales…). Dans le travail et les loisirs, de nombreux objets de la vie courante sont des retombées indirectes de cette grande aventure.

Lorsque Galilée souhaite donner une loi à la chute des corps, il a besoin de mesurer des durées de façon fiable et précise. En remarquant que le balancement d’un objet attaché au bout d’une corde ne dépend que de la longueur de la corde (et pas de la masse de l’objet ni de l’élongation du balancement), il lance les prémisses de l’horlogerie à balancier. Les progrès techniques dans ce domaine permirent de modifier la société en profondeur, en donnant à tous l’accès à un temps précis et commun. En retour, munies d’horloges précises et des lois de la gravitation de Newton, l’astronomie devint l’une des sciences les plus exactes pendant plusieurs siècles. Elle se porta garant du temps dans sa définition et dans ses méthodes de mesures, se référant aux mouvements supposé régulier des astres. Mais bientôt des déviations minimes et erratiques du mouvement de ces astres de référence se révélèrent, entravant toute possibilité d’améliorer la précision temporelle avec ces méthodes. Heureusement, entre temps la physique théorique avait exploré l’atome, et de nouvelles horloges, les horloges atomiques, bien plus précises, devinrent l’étalon de référence de la mesure des durées. Aujourd’hui, nos GPS quotidiens utilisent ce temps précis pour nous localiser à quelques mètres près sur Terre (en données corrigées des variations dues à la relativité générale). L’astronomie vient de récupérer à nouveau ce temps si fin pour mettre au point de nouveaux types de télescopes basés sur l’interférométrie, capable de voir littéralement la surface d’étoiles éloignées… Tout le monde est gagnant.

Le transistor, issu de la théorie des semi-conducteurs, elle-même directement héritée de la compréhension quantique des matériaux cristallins, est aujourd’hui présent dans notre quotidien le plus proche, du radio-réveil matinal au téléviseur allumé en soirée, en passant par la voiture, l’ordinateur et notre carte bancaire. L’électronique en générale, relayée par l’informatique, ont profondément reconstruit notre société depuis une cinquantaine d’années. La recherche la plus théorique et la plus fondamentale a largement bénéficié elle aussi de cette mutation. Les ordinateurs pilotent les expériences les plus courantes ou les plus osées, des programmes simulent notre monde et testent les lois de la Nature, des données en quantités gigantesques sont traitées par des assemblages d’ordinateurs achetés à bas coût.

Le noyau atomique a révélé une grande part de ses secrets il y a plus de cinquante ans maintenant. La résonance magnétique nucléaire (RMN), directement inspirée de cette compréhension de l’intimité de la matière, a déjà sauvé de nombreuses vies en produisant des images internes de notre corps d’une précision remarquable et d’une inocuité bienvenue. Aujourd’hui, la recherche s’empare elle aussi de ces méthodes d’imagerie pour explorer plus avant le fonctionnement de notre corps, ouvrant là un champs de recherche que même Jules Verne n’aurait jamais imaginé : voir le cerveau fonctionner et raisonner en direct.

Parce qu’un jour des physiciens comme Einstein ont questionné la mécanique quantique, les physiciens de ces dernières décennies se sont efforcés de mettre au point des techniques nouvelles d’étude de l’atome. Ainsi les « atomes froids » sont en passe aujourd’hui d’être des objets de la vie courante (dans certains laboratoires), ouvrant là des perspectives technologiques insoupçonnées. Il y a 150 ans, les atomes n’étaient qu’une hypothèse, aujourd’hui on les manipule un à un, au bout d’un faisceau laser pour les étudier, ou en les déposant où bon nous semble à l’aide de microscopes « à effet tunnel » transformés en grues à atomes. Les ingénieurs se permettent aujourd’hui d’écrire des textes publicitaires dont chaque lettre n’est constituée que de quelques atomes… La technologie saura tôt ou tard s’emparer de ces inimaginables exploits.

Les mathématiques, pourtant considérées comme très à part dans le paysage de la recherche, ont elle aussi leur place dans cette toile tissée depuis des millénaires. Indirectement, elles se cachent derrière toutes les grandes percées scientifiques, puisque c’est souvent dans ce langage qu’on décrit la Nature. Mais on en retrouve des contributions directes et remarquables dans la technologie d’aujourd’hui. La notion de langage de programmation a été introduite par le mathématicien Alan Turing avant même que les premiers ordinateurs aient réellement vus le jour. Le paiement sécurisé sur l’Internet repose sur des méthodes de cryptographie issues de travaux sur la théorie des nombres, le domaine des mathématiques qui jusqu’à présent avait toujours été considéré comme le plus éloigné de toutes considérations utilitaires (aucune science expérimentale n’utilise réellement cette théorie pour elle même). En retour, les mathématiques profitent elles aussi de cette société remodelée. Les ordinateurs sont une aide précieuse dans la recherche mathématique d’aujourd’hui car il sont désormais capables de calculer formellement, à la manière des mathématiciens.

La technologie que la science a permis de fonder et de mettre en place profite pleinement à la recherche. L’imagerie médicale aide à guérir des maladies, elle permet aussi d’effectuer des recherches plus approfondies sur le fonctionnement de notre corps. Les ordinateurs nous ont tous rapprochés virtuellement, par l’instantanéité des communications interplanétaires. Ils permettent aussi le séquençage de l’ADN, à partir duquel, entre autre, on espère comprendre et soigner certaines maladies. La technologie des radars, que les militaires ont demandé aux ingénieurs de concevoir pendant la Seconde Guerre Mondiale, a pris place dans notre cuisine sous forme de fours à micro-ondes. Elle a aussi permis de faire éclore, juste après guerre, une nouvelle discipline de recherche, la radioastronomie, dont les découvertes ont révolutionné notre connaissance de l’Univers.

Le plaisir de voir notre Terre d’en haut est maintenant à la portée de tous, gratuitement, grâce à des logiciels comme Google Earth. Par ce moyen, les archéologues peuvent eux aussi s’approprier des images précises du sol que nous foulons. Sans grever leurs budgets, derrière leur écran d’ordinateur, ils sont à la recherche des traces de civilisations perdues : les vestiges de bâtisses et les restes des grands chemins impriment leur régularité dans le sol de nos campagnes. Ces traits sont parfaitement visibles sur les images prises par satellites.

S’il est possible d’offrir gracieusement cette technologie à l’humanité, c’est parce que la science a elle même donné ce qu’elle avait appris, et que la technologie qui en est issue, sur laquelle repose toutes ces prouesses, s’est largement démocratisée : de l’envoi de satellites à l’écran de l’ordinateur, en passant par la photographie spatiale, le traitement d’images, l’analyse des données, le stockage de l’information, le réseau Internet, tout cet écosystème complexe est devenu notre quotidien.

Mais personne n’avait imaginé, en concevant chaque morceau de ce puzzle, ce que le tout représenterait et signifierait. Cet écosystème, largement dépendant de la société en général, ne pourrait plus fonctionner si l’une de ses composantes venait à disparaître.

Arrêter aujourd’hui la recherche la plus théorique, celle accusée de n’avoir aucune utilité immédiatement rentable, serait comme supprimer les abeilles de notre écosystème réel. Qui fertiliserait alors la technologie ?

Même si la connaissance qui se construit est en soi sans application envisageable à moyen terme, c’est souvent la façon dont on l’acquière qui produit des retombées surprenantes à laquelle la société n’aurait peut-être jamais pensé. Le réseau Internet est né militaire, mais sa diffusion n’a été fulgurante qu’après l’ajout d’une couche logicielle finalement anodine, imaginée au CERN au milieu des années 1980 pour aider à la collaboration entre chercheurs dispersés dans le monde entier : le Web. Cette idée a été testée en grandeur nature dans un milieu exigent et aventureux avant de sortir de son cocon et d’inonder les ordinateurs de toute la planète. Son concepteur n’avait pas prévu un tel succès.

Aujourd’hui, des grands projets industriels internationaux auraient beaucoup à apprendre de la façon dont le LHC (le nouveau grand accélérateur du CERN) a pu être conçu par une armée d’ingénieurs éparpillés dans le monde entier qui ont eu à affronter des défis technologiques considérables, et a pu être bâti dans un délai raisonnable et dans le cadre d’un budget acceptable. L’organisation du travail à l’échelle mondiale sur des projets quasi industriels de haute technologie est devenue chose courante dans le milieu scientifique expérimental, que ce soient pour la conception, la construction ou le fonctionnement d’accélérateurs de particules ou de télescopes géants. Ce savoir-faire ne demande qu’à être diffusé.

L’innovation des chercheurs, qu’ils soient impliqués dans des recherches théoriques ou appliquées, est toujours surprenante, et ne cessera jamais de profiter à toute la société.


L’article suivant conclut cette série d’articles.