decoration
L'intelligence et la beauté ne se définissent pas, elles se constatent. Thomas Yserrin

Qu’est-ce que la recherche scientifique ? (4/6)

Les spécificités de la recherche scientifique

Lundi 7 décembre 2009 (mise à jour mardi 2 août 2011)

La recherche scientifique est une activité très particulière, qui repose sur la démarche scientifique décrite dans l’article précédent. Au delà de cette méthodologie indispensable, certaines règles empiriques et certaines pratiques incontournables font partie intégrante de la vie quotidienne des chercheurs. La recherche scientifique ne serait pas possible sans elles. Ces règles et ces pratiques font l’objet de cet article.

La recherche scientifique a besoin de règles pour fonctionner. Au fil du temps, quelques grands principes ont été reconnus comme essentiels pour une activité de recherche performante et innovante et qui s’inscrit dans une durée historique qui dépasse les éphémères phénomènes de mode dans lesquels tombe parfois la pensée humaine dominante.

Le partage

La recherche scientifique, et plus encore la recherche académique, celle qui n’a pas pour finalité d’appliquer ce qu’elle découvre, pose comme principe fondamental le partage de la connaissance acquise et construite. Peu d’activités humaines ont porté aussi loin cet idéal et cette démarche.

Lorsqu’il a découvert quelque chose de nouveau, un chercheur souhaite le diffuser, en cherchant certes à en protéger sa juste paternité, mais sans chercher à en protéger les droits au sens économique et financier. En effet il est inconcevable qu’une recherche académique puisse avancer dans un cadre protectionniste, où, à l’extrême et pour aller au bout d’un raisonnement absurde qui n’est peut-être pas si éloigné de certains raisonnements comptables excessifs, un calcul mathématique astucieux pourrait être breveté pour en protéger et en restreindre l’usage, favorisant (financièrement) celui qui l’a mené en premier, et pourquoi pas aussi l’organisme bailleur de fonds.

Les découvertes de la science ne sont pas des brevets. Le monde des idées est un monde libre, même si ça dérange ceux qui tiennent les cordons de la bourse. Ce partage, c’est l’humanité toute entière qui en profite tôt ou tard.

Il est bien connu qu’on n’est intelligent qu’à plusieurs, et les grands génies de la science revendiquent très souvent que leurs découvertes ne sont que le fruit d’un long cheminement collectif, à la fois dans l’espace et dans le temps. Le recherche à un instant donné se nourrit des travaux des générations précédentes et des travaux contemporains. Même Newton et Einstein prétendaient s’être hissés sur les épaules de géants pour construire leurs théories. On n’imagine mal Einstein ayant à payer des droits à Lorentz ou à Maxwell, les « inventeurs » des équations à la base de sa théorie de la relativité, afin d’avoir le droit d’utiliser ces équations et leurs conséquences.

De façon générale, un chercheur en science ne travaille pas réellement pour l’état ou la société qui le paye. Il travaille plus simplement pour l’humanité… Ce qu’il découvre n’appartient à personne, à aucune institution, car cette connaissance est instantanément offerte à tous. Cette notion d’instantanéité n’est pas une vue de l’esprit : avec l’Internet, les chercheurs ont la possibilité de déposer eux-même sur un site d’envergure mondiale, arXiv, leurs travaux sous forme d’articles rédigés pour leurs collègues. Le lendemain, toute la communauté en prend connaissance. Comme ce site est consultable par tous, n’importe qui peut lire ces travaux, qu’il soit lui-même chercheur ou non.

Ce partage impose une sorte de règle morale entre les états et les organismes financeurs : chacun récupère ce que l’ensemble des autres a produit, mais en échange il faut qu’il participe à sa juste hauteur à l’effort commun. Cette règle n’est absolument pas quantifiable. Elle semble respectée par les états qui en ont les moyens, même si leurs dirigeants préféreraient avoir un « retour sur investissement » plus palpable. Je reviendrai sur ce problème dans l’article suivant, lorsque j’évoquerai la recherche sur projets.

La recherche a une longue histoire. Elle a traversé des périodes troublées, intellectuellement et politiquement, mais toujours ce principe a su perdurer au delà des instants tourmentés : aucun protectionnisme n’a jamais pu s’établir durablement en matière de connaissance scientifique. La première guerre mondiale n’a pas empêché l’anglais Eddington d’étudier la théorie de la relativité générale de l’allemand Einstein, et de préparer des expéditions scientifiques vers le Brésil et la Guinée pour la tester expérimentalement lors d’une éclipse de soleil. La guerre froide n’a que très peu ralenti la diffusion de travaux scientifiques entre l’Est et l’Ouest, et des revues anglo-saxonnes s’étaient même spécialisées dans la traduction des articles des chercheurs bloqués derrière le rideau de fer pour les faire connaître en Occident.

Le temps et la patience

La recherche ne connaît pas de calendrier. Les découvertes ne se produisent qu’au fil d’un temps incertain, lorsque les circonstances le permettent, lorsque les esprits sont mûrs, lorsque les outils sont disponibles, lorsque les technologies sont en place. On ne programme pas la marche de la recherche.

En 1905, les ingrédients de la relativité restreinte étaient déjà disponibles depuis plusieurs années déjà. Pourtant, il a fallu un esprit plus perspicace et peut-être plus audacieux que celui des autres, en la personne d’Einstein, pour la mettre en place de façon satisfaisante. De même, la théorie de l’évolution des espèces exposée par Darwin au milieu du XIXe siècle « était dans l’air ». Mais il a fallu, là encore, un esprit plus éclairé, plus libre et aussi plus confiant pour l’énoncer.

Les phénomènes électriques et magnétiques ont été l’objet de patientes recherches pendant des centaines d’années. Il a fallu attendre la seconde moitié du XIXe siècle pour que Maxwell en finalise la théorie, après bien sûr que des générations de chercheurs, de toutes nationalités (et de toutes époques) en aient découvert chacun un petit morceau. Des observations des anciens grec qui baptisèrent électricité le phénomène d’attraction obtenu par frottement de l’ambre jaune (êlektron en grec) jusqu’aux travaux fondamentaux de chercheurs comme Coulomb, Volta, Ørsted, Tesla, Ampère et Faraday, c’est 2000 ans d’histoire que cette épopée retrace.

En matière de découvertes expérimentales, la patience est tout aussi importante. Le projet du LHC, le nouveau grand accélérateur de particule du CERN à Genève, qui doit démarrer vers 2009/2010, est vieux de presque 30 ans. Quelle résignation pour des centaines de chercheurs et d’ingénieurs qui en attendent les découvertes avec impatience ! C’est le lot des grands instruments que d’imposer à leurs concepteurs d’attendre. Même en matière d’expérimentations moins gigantesques, celles qui se déroulent dans des laboratoires à taille humaine, le temps et la patience sont requis : les idées doivent mûrir, les technologies doivent être prêtes et accessibles, la mise au point nécessite souvent des ajustements fins et délicats sur plusieurs années, souvent par étapes. La répétition de manipulations « courantes » peut demander du temps. Il ne faut pas oublier aussi que de nombreuses découvertes expérimentales ont été le fruit du hasard : il faut savoir non seulement les attendre mais aussi les accueillir. Et là il n’y a pas de programmation possible.

En mathématique aussi il faut savoir espérer. Le (dernier) théorème de Fermat a demandé 350 ans d’efforts pour être enfin démontré. Et en plus, il ne sert à rien. Mais les méthodes développées en 350 ans ont, elles, de nombreuses retombées en mathématiques et au-delà.

Du temps, et de la confiance en soi, il en faut aussi pour faire accepter des idées parfois trop révolutionnaires. Lorsque Alfred Wegener publie sa théorie de la dérive des continents en 1912, presque personne n’y adhère. Pourtant, des faits concrets étayent cette thèse. Certaines côtes océaniques ont des formes qui « s’emboîtent » parfaitement (l’est de l’Amérique du Sud avec l’ouest africain par exemple), elles ont des structures géologiques identiques et elles révèlent la présence de fossiles de même nature. L’explication naturelle est que ces côtes étaient assemblées dans un passé lointain, et que depuis elles se sont séparées, laissant entre elles la place à un océan. Mais la théorie ne peut pas être acceptée telle quelle à cause du problème du moteur de cette dérive : quelle énergie gigantesque il faut fournir pour déplacer des continents ! Or, on ne connaît pas à l’époque de réservoir d’énergie d’une telle capacité. Ce n’est qu’après la seconde guerre mondiale, lorsque la théorie de la fusion nucléaire a été bien comprise, et surtout lorsque le cœur de notre planète a été reconnu comme un magma de matière en fusion, que la théorie de la dérive des continents a été vraiment acceptée. Depuis, grâce aux méthodes de mesures modernes, elle a été mesurée directement : l’Europe et l’Amérique se séparent de quelques centimètres par an.

La science est comme le bon vin, il faut affiner les raisonnements et il faut laisser décanter des vieilles idées pour mieux se nourrir des pensées toutes fraîches. Au contraire, la précipitation est souvent à l’origine de nombreuses maladresses intellectuelles. Elle est malheureusement un signe répandu d’activité dans notre société.

La liberté

La liberté de penser est une victoire de nos démocraties. Elle est aussi à la base du succès, du dynamisme et de la qualité de la recherche scientifique, toutes disciplines confondues.

Dans le cadre stricte de la théologie médiévale, le débat sur le nombre d’anges qu’il était possible de faire tenir sur la pointe d’une aiguille devait fasciner les esprits les plus préparés à la logique et à la rhétorique. Mais la connaissance qui est sortie de ces débats vigoureux et acharnés est bien maigre, face à une réflexion libre, comme celle que mena par exemple Giordano Bruno sur la diversité des mondes dans un univers sans borne.

Un chercheur entravé ne pourra jamais être qu’un répétiteur de dogmes établis, un pinailleur en mal de détails sans envergure, une fourmi esclave de son horizon intellectuel borné, et certainement pas un créateur de connaissances nouvelles et originales.

On peut regretter que pour des raisons de « rentabilité » les institutions qui organisent, financent et administrent la recherche soient devenues de plus en plus pointilleuses, regardantes et dirigistes en ce qui concerne les recherches qu’elles conduisent en leur sein, privant ainsi d’une partie de leur liberté les chercheurs qu’elles emploient. Je reviendrai dans l’article suivant sur cet aspect rentable de la recherche, où on verra l’absurdité d’une telle démarche comptable.

Les institutions ne sont cependant pas les seules sources de freins à cette liberté. Souvent, la culture des chercheurs est plus lourde de conséquences encore. Chacun raisonne dans son propre contexte intellectuel, nécessairement construit dans une culture donnée. Les préjugés sont des pensées inconscientes qu’un esprit qui se revendique libre ne peut pas toujours identifier et dépasser. Aussi, la recherche est souvent bloquée par des a priori, qui prennent la forme de barrières infranchissables. Il faut attendre un esprit réellement détaché pour casser certains verrous et progresser.

L’exemple d’Einstein est emblématique. Esprit très indépendant, il a osé penser au delà de ce qui était admis à son époque. D’autres penseurs, élevés dans des cultures moins dominantes, sensibles par là même à d’autres aspects des problèmes, ont souvent produit des ruptures importantes. Michael Faraday était inculte en mathématiques. Mais il a été formé à un savoir faire manuel exceptionnel : il a débuté comme relieur dans une imprimerie, et s’est cultivé en science en lisant les livres dont il avait la charge et en suivant des conférences publiques. Sa curiosité l’a poussé à expérimenter par lui-même le magnétisme, et à le penser différemment. Dans une intuition vraiment géniale il a introduit empiriquement une notion fondamentale, désormais mathématiquement bien définie, celle de champ (champs magnétique et champs électrique). C’est dans cette re-formulation conceptuelle que la théorie de Maxwell est écrite depuis.

Cet exemple illustre à quel point la recherche ne doit pas puiser ses ressources intellectuelles dans un même creuset, au sortir de formations réglées par avance sur des façons de penser et de raisonner pré-établies et hégémoniques. Elle doit au contraire accueillir et même attirer activement des esprits pertinents, originaux et audacieux. Les réductions budgétaires que subissent les organismes employeurs infléchissent malheureusement les recrutements dans la mauvaise direction, en favorisant presque le clonâge culturel, oubliant et affaiblissant par la même la puissance indéniable de la « biodiversité » intellectuelle. Ce resserrement restreint la liberté de penser différemment.

La liberté d’un chercheur, c’est aussi celle de choisir son sujet de recherche en toute indépendance en sachant que chacun, s’il doit apporter quelque chose à cette aventure de la connaissance, doit le faire là où il se sent le plus compétent, là où son esprit est le plus attiré et le plus titillé. On n’imagine mal Einstein s’occupant de biologie moléculaire, on imagine mal Louis Pasteur démontrant un théorème de mathématique. Chaque personnalité correspond à une approche différente d’un problème, mais aussi, il faut le souhaiter, originale. Un bon chercheur se révèle souvent dans la rencontre d’un esprit singulier avec un thème de recherche spécifique, qui se correspondent. Obliger un chercheur à travailler sur un thème particulier, avec des méthodes imposées, c’est rompre cette adéquation si importante et surtout si fructueuse.

Enfin, la liberté d’un chercheur, c’est aussi celle de mener ses recherches en toute indépendance de contraintes financières et temporelles. Comme il a été dit plus haut, le temps est une donnée non maîtrisable de la recherche, où on attend toujours plus qu’on ne découvre. La dimension financière sera évoquée dans l’article suivant.

L’intelligence et le hasard

Contrairement à ce que racontent les légendes, les grandes découvertes scientifiques ne se font pas par une induction lente et patiente, dans une sorte de progression linéaire entre les idées acquises du passé, et celles, nouvelles, qui se construisent petit à petit dans l’esprit de chercheurs éclairés.

Elles se font encore moins dans la boucle idéale décrite dans l’article précédent, où une expérience bien faire conduirait à des résultats clairs, et mèneraient à une théorie finie. Comme il a déjà été mentionné, chaque item de cette boucle est un point d’entrée, et souvent c’est le hasard qui décide, pas les chercheurs.

Au quotidien, la recherche est à la fois passionnante et ennuyante. Elle consiste bien souvent à répéter des mêmes gestes devant une paillasse, à refaire des calculs semblables, à compiler des données, à lire et relire des articles d’autres chercheurs avec plus ou moins d’entrain, à discuter ferme avec un ou plusieurs collègues pour essayer de les convaincre… Mais tout ce labeur est largement oublié lorsqu’une expérience ne se déroule pas comme on l’attendait, lorsqu’un calcul produit un résultat surprenant ou lorsqu’une intuition soudaine, née d’on ne sait où, se révèle juste et pertinente.

Cependant, ces hasards et ces surprises ne seront des découvertes (parfois importantes) que si le chercheur qui les constate a l’intelligence et la possibilité de les exploiter. Lorsqu’une expérience vous surprend, encore faut-il interpréter correctement ce qui vient de se dérouler, puis d’en cerner les contours, voire d’en comprendre le sens profond (cela demande parfois du temps). C’est alors seulement qu’on a affaire à une véritable découverte. Lorsqu’un calcul produit un résultat plus élégant que celui qu’on attendait, ou lorsqu’il révèle une structure jusqu’alors inconnue (des structures mathématiques se dévoilent bien souvent par ce biais), encore faut-il avoir les ressources techniques et conceptuelles pour en extraire l’intérêt, voire pour en généraliser la portée. L’intelligence doit savoir intercepter et interpréter le hasard.

En 1896, alors qu’il travaillait sur le phénomène de la phosphorescence, Henri Becquerel constate qu’une plaque photographique oubliée par inadvertance dans un tiroir sous des sels d’uranium a été impressionnée. Après de nombreuses expériences systématiques, le phénomène de la radioactivité est découvert et identifié.

En 1964, deux radio-astronomes de la compagnie Bell Telephone, Arno Penzias et Robert Wilson, souhaitent reconvertir une antenne précédemment utilisée pour la communication avec des satellites en un radio-téléscope afin d’étudier le rayonnement radio émis par la Voie Lactée. Ils découvrent par hasard un signal radio qui remplit uniformément le ciel et qui se révèle constant dans le temps. Ce rayonnement radio est une des plus grandes découvertes en cosmologie moderne, puisqu’elle corrobore l’expansion de l’Univers mise en évidence par Hubble dans les années 1920. Ce rayonnement est aujourd’hui appelé le fond diffus cosmologique. Il avait été prédit quelques années plus tôt par Georges Gamov, et des expériences commençaient à se mettre en place pour tenter de le détecter. Le hasard a voulu que cette découverte arrive avant la fin des préparatifs.

L’astronomie, parce qu’elle est une science expérimentale de pure observation, a souvent été secouée par des découvertes imprévues. Ainsi, la détection des premiers quasars dans les années 1950 a surpris la communauté scientifique. On la doit là aussi à l’émergence des nouvelles technologies de radioastronomie. L’astronomie attend aussi avec beaucoup de patience et de résignation des phénomènes rares, comme les supernovæ, qui signalent la fin explosive d’une étoile. En 1987, une supernova relativement proche a permis pour la première fois de confronter la théorie à l’observation. Certains points avaient été correctement compris, d’autres non. La précédente supernova avait été observée et étudiée en 1885, un siècle plus tôt !

En 1928, Alexander Fleming découvre dans son laboratoire une boite de cultures bactériennes (boite de Pétri) qui le surprend : à proximité d’une moisissure (c’est à dire un champignon), les bactéries ne se développent pas. Il corrobore cette découverte avec d’autres observations qu’il avait faites antérieurement, mais celle-ci est plus surprenante et plus fondamentale : le champignon tue les bactéries ! Le hasard a voulu que son collègue travaillant dans le même bâtiment s’intéresse à des champignons bien particuliers, et que cette culture ait été contaminée par ces mêmes champignons. Mais l’intelligence de Fleming, c’est d’aller au delà des apparences, c’est de comprendre véritablement ce qu’il constate, et d’en tirer des conséquences pratiques. La découverte est de taille : certains champignons produisent des substances chimiques capables de tuer des bactéries, sources de nombreuses maladies mortelles chez l’homme. Il extrait cette substance : c’est la pénicilline, le premier antibiotique identifié. Tout comme Pasteur avec le vaccin contre la rage, il teste l’efficacité de ce produit sur un malade. Le malade ne survivra pas, faute de quantité de pénicilline suffisante pour le guérir complètement. Mais une rémission spectaculaire (avant une rechute fatale) prouve l’intérêt et le potentiel considérable de cette découverte.

Cette histoire de hasard et d’intelligence est emblématique, et c’est peut-être l’une des plus spectaculaires de l’histoire des sciences, car peut-être l’une des plus utiles.

Il ne faudrait pas croire que seule la recherche fondamentale profite de l’émergence de phénomènes inattendus, et que par conséquent il serait possible de programmer la recherche appliquée, moins sujette à ces sautes aléatoires. D’abord, les découvertes de la recherche fondamentale peuvent totalement bouleverser les idées sous-tendant la recherche appliquée dans certains domaines (les ondes radio sont un exemple qui sera illustré dans l’article suivant). D’autre part, la recherche appliquée est elle aussi frappée de temps en temps de plein fouet par des découvertes surprenantes. La magnétorésistance géante n’était aucunement programmée par avance pour améliorer quelques années après sa découverte fortuite les capacités de stockage de nos disques dur d’ordinateurs.

Notre quotidien est rempli de découvertes que le hasard a placé devant des regards perspicaces. Le four à micro-ondes a lui aussi une histoire bien surprenante. Dans les années 1940, alors qu’il travaillait dans l’industrie du magnétron (générateur très puissant d’ondes électromagnétiques de très courtes longueurs d’onde utilisés par les radars), un certain Percy Spencer constata par hasard le pouvoir réchauffant sur certains aliments des ondes micro-métriques émises par ces magnétrons. Le principe du four à micro-ondes était découvert.

Le hasard est un auxiliaire important et indispensable de l’intelligence dans l’activité de la recherche scientifique. Sans lui, nombre d’objets courants de notre quotidien n’auraient pas vu le jour, ou auraient au mieux été « retardés ».

Les découvertes que le hasard met à notre disposition sont l’antinomie des découvertes sur projets. Je reviendrai sur ce point important dans l’article suivant.

Le jugement des pairs

Au quotidien, un chercheur publie ses résultats dans des revues spécialisées sous forme d’articles rendant compte de ses découvertes. La publication de ces articles est sujette à une règle de jugement par les pairs : la revue ne publie l’article soumis que si des référés l’ont accepté. Tout travail soumis à la communauté est d’abord relu et critiqué par d’autres chercheurs compétents dans le domaine concerné.

Ce jugement des pairs est une composante essentielle de l’activité de recherche. Il ne doit pas consister en un jugement humain, mais bien en une démarche de critique objective des travaux soumis : il s’agit pour les autres spécialistes de la discipline concernée de juger de la qualité des résultats d’une recherche, en analysant la rigueur des raisonnements, en vérifiant les calculs menés, en reproduisant si nécessaire les expériences décrites. In fine, seule la Nature est juge en sciences expérimentales tout comme la logique l’est en mathématique.

Il est vrai que certains champs de recherche sont sujets à des jugements plus subjectifs, par exemple en science humaines où la démarche scientifique a moins de prise. Plus on s’éloigne des données brutes de la Nature, plus le jugement des pairs est délicat : la subjectivité peut l’emporter sur l’objectivité et des courants de pensées peuvent influencer considérablement l’activité de recherche.

La science la plus fondamentale n’est pas à l’abri elle aussi de phénomènes de mode récurrents relayés, voire amplifiés, par le jugement des pairs. Parfois, ces modes consistent à « imposer » des méthodes d’analyse ou des démarches précises dans la façon de raisonner et d’aborder certains problèmes. C’est certes déplorable, mais tôt ou tard ces carcans intellectuels se brisent face à des données objectives nouvelles, qu’elles soient expérimentales ou théoriques.

D’autre part, il ne faut pas oublier que la recherche ne s’arrête pas à établir une simple collection de chiffres. Une recherche scientifique n’accumule pas seulement des données, elle les ordonne, elle les interprète et elle en tire des conclusions. Ce sont souvent ces conclusions que les pairs doivent questionner et valider ou infirmer, pas seulement les chiffres qui sous-tendent les raisonnements. La possibilité de juger d’un travail de synthèse repose avant tout sur sa clarté, la précision de son énoncé et sa portée, tant pratique qu’intellectuelle.

Toutes les disciplines de recherche ne sont pas sur le même plan sur ce point. Par exemple l’économie, bien que noyées dans des chiffres et des données en masse, est bien loin de parvenir à énoncer des propositions précises et à valider ses conclusions. En effet, en plus des statistiques objectivement établies à partir de chiffres mesurés (ceux qui prennent la « température » de l’économie), les raisonnements qu’elle mène, et donc les énoncés qu’elle propose, doivent inclure des facteurs humains à des échelles locales et globales, qu’il sera toujours très difficile de comprendre, de maîtriser et de décrire avec précision. Le travail de relecture des pairs ne doit pas y être facile.

Questionner la connaissance

L’une des spécificités essentielles de la recherche scientifique est sa capacité à remettre en cause constamment ce qu’elle pense savoir.

Ce n’est pas une négation totale de la connaissance qu’elle produit, comme certains osent le dire, et encore moins une défaite de sa démarche. Il est très naïf de penser que si on remet en cause constamment ce que l’on sait, c’est que cette connaissance n’est pas établie. La situation est bien plus subtile. Chaque remise en cause est en fait un dépassement, une généralisation, et bien souvent une simplification, comme les quelques exemples décrits jusqu’à présent l’illustrent très bien.

Au quotidien, le prix à payer est cependant très fort. Du jour au lendemain (à l’échelle de quelques années toutefois), des pans entiers de notre connaissance scientifique sont parfois bousculés. La mécanique classique, triomphante pendant trois siècles depuis Newton, s’est laissée débordée sur ses deux flancs par la relativité générale d’Einstein et par la mécanique quantique, et cela en moins de vingt ans !

Au delà des bouleversements internes à la science, cette connaissance a souvent des répercussions sur notre vision du monde, nous simples citoyens curieux. Au début du XVIe siècle, Copernic avait bouté la Terre hors du centre du Monde, bousculant par la même la mythologie dominante. Peu après, le système solaire a commencé à être mesuré avec précision, donnant une image plus précise des relations entre les objets célestes les plus proches de nous, agrandissant considérablement l’étendue dans lequel on se représentait « l’Univers » de l’époque. Il faudra attendre 1837 pour que Wilhelm Bessel détermine pour la première fois la distance d’une étoile proche : l’étoile 61 Cygni est à 100 000 milliards de kilomètres (11 années-lumière, alors que le soleil est à 8 minutes-lumière de la Terre, c’est à dire environ 150 000 millions de kilomètres « seulement »). Au début du XXe siècle, un vif débat secoue les astronomes pour savoir si notre galaxie est unique ou pas dans l’Univers. Harlow Shapley met au point une méthode pour mesurer les distances d’amas d’étoiles très éloignées. Grâce à cette technique, dans les années 1920 l’Univers change radicalement de taille : des galaxies nombreuses et variées (des « univers îles » dans la terminologie de Kant) remplissent notre Univers à des échelles de distances des milliards de fois plus grandes que la taille de notre si petit système solaire. Aujourd’hui, la galaxie la plus lointaine est située à plus de 13 milliards d’années-lumière… La cosmologie s’est adaptée à ces bouleversement qui n’ont pas encore un siècle, en remodelant complètement son approche de l’Univers. L’être humain qui se lève le matin pour aller travailler s’est-il habitué lui aussi ?

De la même façon, la théorie de l’évolution de Darwin a replacé l’Homme dans le giron des autres espèces animales en reliant entre eux, dans une superbe histoire commune, tous les organismes vivants. Ces révolutions font aujourd’hui partie de notre culture et s’inscrivent nécessairement dans notre conception du monde.

Le travail du chercheur s’inscrit donc dans un doute permanent. Tout ce qu’il a appris pendant sa longue période de formation est toujours susceptible d’être remis en question. Ce doute est une valeur intrinsèque : un chercheur qui prétendrait que son savoir est sûr et certain n’adhère pas à la démarche scientifique. C’est aussi une qualité nécessaire : d’un point de vue pragmatique, il est nécessaire de douter de ce que l’on croit savoir lorsqu’on aborde des problèmes qui résistent à l’analyse depuis longtemps. Les ruptures intellectuelles ne peuvent s’opérer que dans un scepticisme contrôlé. Il faut constamment mettre à la question toutes les parcelles acquises de notre connaissance.

Il n’est pas rare de rencontrer des chercheurs ébranlés par des bouleversements de la connaissance. L’esprit humain a ses faiblesses, ne pas pouvoir accepter une remise en question des fondements de sa propre démarche et de son propre fond culturel est courant. Combien de biologistes ont rechignés face à la théorie de l’évolution de Darwin, qui bousculait si fortement la place de l’Homme dans la Nature ? Combien de physiciens n’ont eu de cesse de titiller la mécanique quantique lorsqu’elle a supplanté la mécanique ordinaire, dans le but de prouver son incohérence ? Même Einstein s’y est subtilement essayé.

Heureusement, des révolutions intellectuelles d’ampleurs considérables ne sont pas si fréquentes ! L’ordinaire d’un chercheur est donc d’assimiler toujours plus de connaissance, celle qui se produit au jour le jour et qui se consolide par le travail de fond de la recherche.

Le chercheur n’en demeure pas moins un infatigable étudiant, qui doit parfois beaucoup ré-apprendre.

Le réductionnisme

Étudier les lois ultimes de la Nature, réduites actuellement à trois interactions (électro-faible, forte et gravitationnelle), semble être l’approche la plus prometteuse pour percer les secrets les plus intimes de la Nature. Après tout, une fois ces lois établies et comprises, le reste en découle…

Le problème n’est pas si simple !

Réduire la chimie, c’est à dire l’étude des interactions entre atomes et entre molécules, à une simple branche de la physique est une erreur grossière à la fois intellectuelle et pratique. Car même si le moteur final des interactions chimiques est indéniablement caché dans la mécanique quantique (élaborée et étudiée au sein de la physique la plus théorique), il est très difficile, voire certainement impossible, de retrouver, de reformuler et de démontrer directement toutes les lois de la chimie à partir de cette théorie plus fondamentale.

Ce qu’illustre l’exemple de la chimie, et que l’on perçoit encore mieux si l’on tente de décrire un éléphant (et toute son éthologie) à partir de son ADN, est un obstacle souvent rencontré en science. La science, pour parvenir à comprendre et à expliquer, utilise la méthode de René Descartes, qui proposait de réduire les problèmes à des situations plus simples.

C’est le réductionnisme.

Cette démarche est souvent un reproche adressé à la science et à ce qu’elle nous apprend : la science se contenterait d’expliquer la Nature dans sa simplicité, oubliant par la même la complexité inhérente à des phénomènes globaux ou collectifs. Cette accusation est infondée, puisque la science se donne pour but d’expliquer le monde dans son ensemble, même si cela demande du temps (et de l’intelligence) lorsqu’il s’agit d’affronter des problèmes très complexes, donc très ardus.

Il est indéniable que la recherche scientifique ne progresse qu’à petits pas dans des domaines difficiles et intriqués, ce qui donne l’impression qu’elle n’avance pas assez vite, voire qu’elle ne s’intéresse pas du tout à ces problèmes. Une fois les situations simples et indécomposables bien maîtrisées, il est nécessaire de remonter la pente de la complexité. Cette démarche fait partie de la science, à part entière, elle fait même partie du programme réductionniste énoncé par Descartes.

Face aux difficultés rencontrées, souvent la méthode ne consiste pas à remonter de front cette pente, mais plutôt à proposer directement un modèle au niveau le plus complexe, qu’on tente ensuite de justifier grâce à la compréhension qu’on a de ses composants les plus élémentaires. Proposer de tels modèles est difficile, les justifier, c’est à dire les raccrocher à ce qu’on connaît de plus fondamental, l’est tout autant.

On notera que les sciences contingentes sont souvent celles qui ont poussé le réductionnisme le plus loin. En effet, les lois ultimes, celles qu’on voit dans des phénomènes débarrassés de la gangue des manifestations gênantes de l’environnement (au sens scientifique du terme : ce qui n’est pas l’objet de l’étude), se révèlent bien plus simples. De façon très surprenante, elles sont non seulement exprimables en termes mathématiques, mais aussi intimement façonnées par des structures mathématiques à la fois non triviales et très suggestives.

Par contre, les sciences historiques sont souvent celles où le réductionnisme ne peut pas s’appliquer aisément. Il en est ainsi par exemple de la théorie de l’évolution des espèces, où de nombreuses dimensions sont à prendre en compte : les fondamentaux de la chimie et de la biologie, la géologie, l’astronomie, les hasards divers de la Vie… Cela rend ces sciences plus difficiles à formaliser (au sens mathématique du terme), d’où peut-être certains jugements de valeur péjoratifs à leur encontre.


Aussi complexe et aussi réfractaire à l’analyse qu’il paraisse, ce n’est pas parce qu’un phénomène échappe encore à notre compréhension scientifique aujourd’hui qu’il est intrinsèquement hors de porté de la science. De nombreux exemples illustrent de façon extraordinaire ce fait.

Ce qui touche à la vie sur Terre, dans sa diversité, dans sa nature organique, dans son organisation, a longtemps échappé au domaine scientifique. Pourtant, petit à petit la science a su en disséquer de nombreuses composantes. Bien sûr, elle est encore loin d’avoir réponse à tout. Il s’agit d’une de ces disciplines où le réductionnisme fonctionne partiellement, à travers ce que nous avons compris de la biochimie des cellules vivantes, du rôle de l’ADN, et des fonctions des organes… Malheureusement, la globalité de nombreux phénomènes échappent encore à l’analyse. Lorsque nous faisons le bilan de ce que nous avons compris en moins d’un siècle en ce domaine, nous pouvons être confiants. D’autant plus que grâce aux techniques d’imagerie médicale, il est désormais possible de voir fonctionner de l’intérieur un organisme vivant et de contempler le cerveau en train de réfléchir. Que de découvertes en perspectives…

Jusqu’au milieu des années 1940, on pensait ne jamais comprendre pleinement le fonctionnement interne du Soleil, considéré comme hors de porté de nos observations directes. En particulier, la nature même de l’énergie qui allume le Soleil restait une inconnue de taille. La recherche sur la physique nucléaire a permis d’émettre l’hypothèse rapidement vérifiée que l’énergie interne du Soleil était la fusion nucléaire. Depuis, non seulement on peut tester cette théorie et ses ajustements avec une grande précision (grâce aux ordinateurs notamment) mais en plus on se permet d’observer directement l’activité interne du Soleil en détectant les ondes sismiques de surface.

Par contre, le phénomène de supernova résiste encore à une compréhension totale et satisfaisante. On en a disséqué et simulé presque toutes les étapes, mais il manque encore d’élucider quelques points importants. Le scénario à mettre en place et à valider repose en effet sur de nombreux phénomènes élémentaires : lois de la gravitation, dynamiques des fluides et des ondes, fusion et fission nucléaire, physique du neutrino… Ces briques élémentaires sont individuellement de mieux en mieux comprises. Il reste à les faire fonctionner de manière cohérente dans un modèle global qui prenne en compte leurs influences relatives.

Peut-être parce qu’elles se sentent les parents pauvres de l’intelligentia scientifique, les sciences humaines cherchent elle-aussi à utiliser le réductionnisme, en quête probablement de lois simples à énoncer et d’équations mathématiques à résoudre. C’est une erreur sur le fond, au sens où le réductionnisme n’est pas nécessairement la démarche à utiliser pour bâtir une bonne science sur des sujets aussi intriqués que ceux couverts par les sciences humaines. C’est aussi une erreur quant à la finalité visée, car c’est confondre de façon brutale équations mathématiques avec explications ultimes.

Ainsi, au milieu des années 1970, Edward O. Wilson fut l’initiateur de la sociobiologie, théorie dont le but est de ramener la sociologie (l’étude du comportement de groupes humains à travers leurs choix historiques et leur culture) à la biologie la plus fondamentale et la plus « pure », celle du gène. Cette tentative réductionniste, bien que tout à fait naturelle à envisager comme hypothèse, se heurte rapidement à des objections expérimentales évidentes et flagrantes, à laquelle elle a longtemps refusé de faire face. En s’y tenant, les promoteurs de cette théorie ont surtout dépassé l’acceptable scientifique (la théorie est réfutée).

Comme je l’ai dit plus haut, le réductionnisme, une fois mis en œuvre, doit être lui-même expliqué. En effet, montrer qu’un phénomène fondamental est soumis à une loi simple est une belle victoire, mais expliquer pourquoi la méthode réductionniste a fonctionné en est une autre, presque aussi importante. Souvent, il suffit d’étudier les lois découvertes pour se rendre compte qu’on peut négliger certains effets, oublier certaines contributions d’éléments « extérieurs ». On peut aussi expliquer le réductionnisme par des principes. Ainsi, il fonctionne dans le domaine de la génétique, car tout se réduit réellement, in fine, à de la biochimie, au moins en ce qui concerne la transmission des gènes. Au dessus de cette aspect, il y a les fonctions exprimées par les gènes. Là, c’est une autre histoire, et il n’est pas certain que ça puisse être compris dans le cadre d’un réductionnisme brutal.

Le réductionnisme est une démarche extrêmement performante et fructueuse dans nombre de domaines des sciences, mais elle ne sera jamais universelle. Des phénomènes requerront toujours une approche globale.

Simplification, unification et élégance

La connaissance scientifique ne cesse de s’agrandir, de couvrir des domaines de plus en plus vastes. Comme corollaire très important à ce dépassement permanent, il y a la victoire quasi inéluctable de la simplification des idées et des concepts.

Contrairement à ce que pourrait croire un témoin extérieur peu familier, la connaissance scientifique se simplifie continuellement, en unifiant des ensembles entiers de phénomènes jusqu’alors déconnectés. Certes, la technicité est souvent plus difficile à affronter au fur et à mesure des découvertes, mais des modèles et des théories jusqu’alors dispersés se regroupent souvent dans un même cadre conceptuel, avec une économie de pensée parfois surprenante, toujours la bienvenue et donc explicitement souhaitée.

La loi de la gravitation de Newton décrit en même temps la chute des objets sur Terre et le mouvement des planètes autour du Soleil, deux « mondes » pourtant bien distincts dans la pensée pré-newtonienne (d’où l’adjectif « universel » accolé à cette théorie lors de sa diffusion). La chimie est aujourd’hui une « conséquence » des lois de la mécanique quantique. La théorie de l’évolution a trouvé dans l’ADN son substrat. Les forces de la Nature, qui expliquent in fine par la méthode réductionniste tous les phénomènes connus, sont réduites à seulement trois : la force électro-faible (qui regroupe l’électromagnétisme et certaines forces mises en œuvre dans des phénomènes radioactifs), la force forte (qui solidarise les noyaux atomiques) et la force gravitationnelle (la première à avoir été décrite précisément et pourtant la plus faible de toutes).

Il est assez remarquable que les théories les plus élaborées, celles qui englobent de plus en plus de phénomènes, soient aussi très souvent les plus satisfaisantes d’un point de vue intellectuel, par leur simplicité, par leur élégance, et par leur pertinence, voire d’un point de vue purement esthétique, souvent mathématiquement, mais aussi dans l’énoncer de leurs principes. C’est une corrélation étrange et probablement subjective, que beaucoup de chercheurs rencontrent dans leur carrière : au début d’abord en apprenant ce que leurs maîtres ont bâti, puis plus tard en participant eux aussi à l’élaboration de telles théories. C’est une fascination permanente qui porte en elle l’envie de mieux comprendre ce qu’on sait déjà et de ne surtout pas se satisfaire de constructions compliquées, voire alambiquées, où quelques soucis techniques ou logiques demeurent, parfois même aussi quelques lacunes flagrantes.

Le chercheur est souvent un artiste du raisonnement, de la pensée et de la logique. Son matériau est certes abstrait, mais son œuvre peut se laisser admirer par ceux qui la pénètre des siècles durant sans qu’elle n’ait perdu une once de sa beauté. Beaucoup de découvertes ont eu pour raison première ce besoin d’esthétisme et de pureté, plus que les expériences ou les nécessités conjoncturelles. Einstein ne pouvait concevoir que la gravitation ne fusse pas reformulée de façon relativiste, ça heurtait son sens très profond de l’harmonie de la Nature. De même, Maxwell a ajouté un terme au lot d’équations établies par ses prédécesseurs, fondant ainsi l’électro-magnétisme, par pur soucis de symétrie mathématique. Darwin avait compris un principe très général, en mettant au point sa théorie de l’évolution, principe qui unifiait, à travers une explication simple et robuste, toute la vie sur Terre.

En une seule journée de 1869, Mendeleïev a su rassembler dans un tableau intelligemment ordonné tous les composés chimiques connus à son époque, dévoilant ainsi une structure remarquable derrière cette multitude chimique. C’est le tableau périodique des éléments. Quelques années plus tard, les cases vides furent remplies par la découverte de nouveaux composés répondant aux propriétés prédites par leurs places vacantes dans ce tableau. La mécanique quantique a expliqué cette classification empirique dans les années 1920.

Cette même mécanique quantique est elle-même une théorie unificatrice sur un point essentiel qui n’est pas assez souvent mis en exergue. Avant elle, les physiciens divisaient les objets fondamentaux de leur étude en deux catégories : les particules ponctuelles, concepts issus de la mécanique de Newton, et les ondes, notion issue des idées de Faraday sur les champs (on parle ici des ondes décrivant des objets fondamentaux, pas les ondes de pression ou de surface sur l’eau). Dans la première catégorie, on y rangeait par exemple l’électron, dans la seconde on y trouvait les ondes électromagnétiques (la lumière dans sa généralité). La mécanique quantique vint bouleverser cette conception des choses : désormais, tout était à la fois onde et corpuscule ! D’abord Einstein finit de convaincre ses collègues que la lumière avait parfois un comportement corpusculaire, puis fit l’hypothèse que l’électron pouvait porter en lui des propriétés ondulatoires (ce qui fut confirmé quelques années plus tard par l’expérience de Davisson-Germer). En réalité, la mécanique quantique ne montre pas que tout objet qu’elle décrit est à la fois une onde et un corpuscule. C’est plus subtil et plus simple : tout objet quantique est une entité mathématique que nous représentons parfois comme une onde ou un corpuscule. La différence est de taille : il y a une véritable unification des notions ondulatoires et corpusculaires et non pas seulement une juxtaposition. Bien sûr, cela n’est possible que dans un cadre mathématique nouveau, qui permet de concilier ces deux descriptions. C’est justement le grand apport de la mécanique quantique.

Aujourd’hui, faute d’expériences réalisables, les théories unificatrices en physique théorique sont plus motivées par des impulsions esthétiques et des insatisfactions intellectuelles que par de réelles contraintes expérimentales.

Cette démarche peut cependant mener à une forme d’abus et de dérive, dans laquelle la justification d’une théorie ne repose plus que sur sa prétendue élégance. La véritable élégance n’est pas seulement dans les concepts et les structures mathématiques utilisés et dans leurs subtiles combinaisons, mais plutôt et surtout dans l’adéquation de ces constructions intellectuelles avec une certaine forme de réalité expérimentale. Cette élégance ne peut donc pas se contenter d’être abstraite pour pleinement se justifier et s’apprécier. Elle doit au contraire être sensible à l’empirisme qui sous-tend la démarche scientifique et elle doit s’inscrire dans un rapport profond et harmonieux (voire mystérieux !) à la factualité de la Nature.

Cet abus est parfaitement résumé par cette citation attribuée à Dirac : « Je pense qu’il y a une morale à cette histoire, à savoir qu’il est plus important d’avoir de la beauté dans une équation que de constater qu’elle s’ajuste à l’expérience. » Elle montre combien il est facile de se laisser happer par l’esthétisme des mathématiques au détriment de celui de la Nature et de ses lois.

Le droit à l’échec

Accumuler des données, les trier, construire et imaginer des modèles et des lois, est un travail parfois très difficile, mais qui fonctionne, au sens où il est positif : il y a toujours quelque chose qui finit par en sortir.

Au contraire, confronter les conséquences des modèles à de nouvelles expériences, c’est s’exposer à des déconvenues, c’est risquer (très souvent) la défaite de l’esprit sur la Nature, c’est reculer dans sa démarche, c’est se remettre en cause soi-même.

L’histoire des sciences ne retient trop souvent que les succès, comme ceux évoqués tout au long de ces articles. Cependant, cette histoire à laissé sur le bas-côté de nombreuses constructions intellectuelles, non seulement abandonnées, mais aussi oubliées. C’est assez injuste, car certaines de ces erreurs ont été de véritables jalons pour aller beaucoup plus loin dans notre compréhension de la Nature.

A la fin du XIXe siècle, la théorie de Maxwell révéla quelques difficultés importantes, d’abord conceptuelles puis plus tard expérimentales. Les équations de Maxwell étaient invariantes par des transformations sous lesquelles les lois de Newton n’étaient pas invariantes. Une telle contradiction ne pouvait rester en l’état. Une hypothèse naquit de ce problème : les ondes électromagnétiques se progagent dans un milieu appelé éther (tout comme des ondes se progagent à la surface de l’eau, ou bien le son se propage en tant qu’onde de pression dans l’air). L’éther était une substance qui devait tout emplir et tout pénétrer autour de nous. Peu à peu, les propriétés de cette substance (indétectable) furent décrites. Elles se révèlèrent parfois fort étranges, mais faute de mieux, l’hypothèse tenait bon. Puis vint Einstein (étayé par des expériences négatives, comme celle de Michelson et Morlet), qui bouscula notre regard sur l’espace et surtout sur le temps. L’hypothèse de l’éther devenait inutile. Il était temps, car ses propriétés en devenaient absurdes.

Aujourd’hui, la théorie des cordes, qui a accaparé pendant plus de trente ans une grande partie des meilleurs cerveaux de la physique la plus théorique, se donne pour finalité de construire une théorie de tout (qui engloberait TOUS les phénomènes physiques connus). Malheureusement, elle court indéniablement à un échec. L’absurdité s’immisce dans ses pores les plus profonds, des incohérences (entre les résultats obtenus et ses motivations profondes) se manifestent. Ce sera certainement le plus beau fiasco intellectuel de l’histoire (récente) de la science.

Émise dans l’antiquité, la théorie de la génération spontanée était quasi unanimement acceptée par tous jusqu’à la fin du XIXe siècle. Elle prétendait que la vie émergeait de rien, ex nihilo, sans parent. Pendant des siècles, l’apparition d’asticots sur de la viande abandonnée sembla confirmer cette théorie. Cependant, Francisco Redi montra dès 1668 que de la viande déposée dans un bocal fermé par de la gaze ne se couvrait pas d’asticots. Pasteur vint définitivement à bout de cette théorie en montrant comment l’air pouvait transporter des germes microscopiques développant par la suite des formes de vie sur des substrats favorables où ils se déposent. De fait, cette théorie donna naissance à de meilleures méthodes de conservation des aliments. Mais reste le problème primordial de l’origine de la vie : comment est-elle apparue sur Terre ?

J’ai déjà évoqué l’insuccès d’une des premières théories de grande unification (pour les spécialistes, celle reposant sur le groupe $SU(5)$). Rapidement, elle avait conduit à une conséquence vérifiable expérimentalement, l’instabilité d’une particule appelée proton. Dans les années 1980, des chercheurs montrèrent que cette conséquence était en désaccord avec les données expérimentales, d’où l’abandon de la théorie. Aujourd’hui, cette grande idée unificatrice n’est pas morte pour autant. Elle est reprise, avec des variantes, à travers l’exploration d’autres voies, très diverses. Malgré sa défaite, cette théorie est encore aujourd’hui une fierté de l’un de ses promoteurs, Sheldon Glashow. A juste titre, car elle a motivé la communauté à se dépasser intellectuellement pour persévérer dans cette direction. Les expériences qu’elle a contribué à mettre en place sont désormais des contraintes fortes avec lesquelles toute nouvelle théorie de type unificatrice doit s’accommoder.


Tous ces exemples montrent que la science ne peut pas se construire sans que ses acteurs se trompent ! C’est un fait tellement vrai, que si on le niait, cela impliquerait que les chercheurs soient beaucoup plus que des génies (ce qu’ils ne sont même pas tous) : des demi-dieux sûrement, capables, à partir de données brutes, de bâtir des théories toujours justes. Que de progrès nous aurions déjà accomplis si cela était vrai.

La recherche scientifique tâtonne, ce qui implique qu’elle puisse s’égarer, se fourvoyer, se tromper… C’est un fait humain : nous ne sommes pas des dieux omnipotents et omniscients.

Comme le dit si bien Stephen Jay Gould dans Comme les huits doigts de la main : « L’erreur est l’inévitable sous-produit de l’audace – ou d’ailleurs de n’importe quel travail de recherche. Autant vouloir interdire d’uriner après avoir bu de la bière. »

Se tromper, c’est le succès de la démarche scientifique : c’est précisément replacer la connaissance scientifique à sa place, c’est reconnaître et donner un sens à ce qui est juste par opposition à ce qui est faux. Se tromper, c’est souvent buter sur des problèmes intéressants et difficiles, qui demandent plus d’analyses et d’attention. Se tromper, c’est continuer à questionner, c’est se forcer à approfondir, c’est ouvrir des nouvelles voies de recherches. Combien d’erreurs ont été le moteur d’activités scientifiques fécondes ?

Dans notre société qui cultive la réussite, les perdants n’ont pas leur place. Combien reste-t-il d’activités humaines où l’erreur et l’échec sont non seulement acceptés, mais doivent faire partie intégrante du fonctionnement normal ? Avouez que la recherche scientifique est ringarde…

Exiger que les chercheurs n’ouvrent que des voies royales, celles qui mènent indéniablement au succès, c’est demander à un explorateur de la forêt vierge d’Amazonie de partir à pieds au milieu des arbres, en sachant par avance où il va, une carte en main, un GPS dans la poche. Si tel était le cas, ce ne serait plus un explorateur mais un simple voyageur.

La recherche scientifique explore un très vaste territoire sans carte, sans GPS, sans repère au delà de la connaissance immédiate à laquelle elle se raccroche. Lorsqu’il est à la frontière de la connaissance, face à l’inconnu, le pas en avant que le chercheur essaie de faire est très souvent précédé d’une série de faux pas. Car s’il savait où aller, il irait (et d’ailleurs il ne s’en prive pas quand l’occasion s’en présente). Mais, faute de pouvoirs divinatoires, il tâtonne et retourne souvent à son point de départ.

C’est pourquoi il faut impérativement lui laisser toute liberté de choisir son chemin, d’ouvrir sa propre voie, guidé par son savoir-faire, par ses intuitions, par la connaissance qu’il a déjà du terrain. Il faut surtout et avant tout accepter qu’il rebrousse chemin lorsqu’il se relève d’un faux pas. Ça ne peut pas être « l’institution » qui décide des pistes à explorer, c’est encore moi le rôle des financiers et des dirigeants politiques qui n’ont aucune compétence et expertise en ce domaine.

Plus le nombre de voies seront ouvertes, plus les chances que l’une d’entre elles soit la bonne seront grandes. Obliger les chercheurs à suivre au pas de course des avenues au bout desquelles un mur les attend peut-être, est la manifestation la plus absurde d’une politique de recherche dirigiste, qui contient inévitablement en elle la stérilisation de la pensée autonome, de l’audace intellectuelle et surtout du risque calculé. La recherche sur projets fonctionne malheureusement de cette façon, s’opposant par là même à laisser libre court à la véritable aventure humaine de la conquête de la connaissance. Je reviendrai sur ce point dans l’article suivant.

D’un autre côté, l’entêtement dans l’erreur est la pire des dérives qu’il est possible de rencontrer en recherche scientifique. Il conduit bien souvent à l’obstination dans une négation de la démarche scientifique (refus du verdict de l’expérience, occultation de la non pertinence d’arguments théoriques), et cela peut même conduire à la fraude scientifique.

Malheureusement, notre société étant peu encline à accepter les culs-de-sac, les fausses pistes et les échecs, il y a une incitation de plus en plus implicite à ce que les chercheurs justifient leurs choix, coûte que coûte, même dans l’erreur manifeste. Il arrive même que des sujets de recherches aux allures de navires en dérive soient aujourd’hui légitimés non pas par ce qu’ils apportent comme connaissance, mais par le nombre de chercheurs travaillant déjà dessus. C’est la défaite totale et absurde de la science.


L’article suivant dresse un tableau non exhaustif de quelques inexactitudes courantes concernant la recherche scientifiques.