Jean-Pierre Luminet : « Les concepts fondamentaux ne doivent jamais cesser d’être interrogés » (1/2)

Crédits : Pexels – Jakub Novacek

Astrophysicien de réputation mondiale spécialiste des trous noirs, Jean-Pierre Luminet est également écrivain et poète, avec une trentaine d’ouvrages et de documentaires à son actif. Qui de plus pertinent que cet observateur attentif de l’évolution de notre Univers pour parler de modèles ? Et rappeler qu’un dirigeant, même les pieds solidement ancrés dans la glaise, doit savoir également lever les yeux vers les étoiles…

On parle beaucoup aujourd’hui de nouveaux modèles, qu’ils soient économiques (quatrième révolution industrielle), sociaux (refonte du système), politiques (nécessité d’un renouveau démocratique), géopolitiques (perte du leadership de l’Occident). En astrophysique, qu’est-ce qu’un nouveau modèle et comment apparaît-il ?

Je crois qu’avant de parler de nouveaux modèles il faut rappeler ce que nous entendons précisément par « modèle » dans le domaine qui est le mien, à savoir les sciences de l’Univers et de la matière. On y exerce quatre types d’activités assez différentes : l’acquisition de données, l’instrumentation, la modélisation et la théorisation. L’acquisition de données – par l’observation à distance, l’exploration spatiale et l’expérimentation en laboratoire – consiste à collecter le plus d’informations possible. Les performances sont conditionnées par les progrès techniques des appareils de détection, d’où une instrumentation devenue extrêmement sophistiquée – que l’on songe par exemple à la toute récente détection des ondes gravitationnelles, réussie grâce à l’instrument scientifique (l’interféromètre LIGO) le plus sensible jamais construit ! Mais on peut développer les instruments les plus performants et accumuler des téraoctets de données, que signifient tous ces chiffres ? Pour les interpréter, il faut une grille de lecture, en l’occurrence un modèle, c’est-à-dire un ensemble de concepts et de règles décrivant les mécanismes à l’œuvre dans les phénomènes étudiés. Sans oublier qu’à la base de toutes ces démarches? il y a le cadre théorique lui-même, sur lequel repose l’édifice entier de notre compréhension du monde physique. Notons qu’à la différence des siècles passés, où nombre de scientifiques étaient en mesure de maîtriser les quatre types d’activités, ces dernières sont devenues aujourd’hui si spécialisées que plus personne ne peut en pratiquer plus de deux, au mieux. Il me semble aussi important de souligner qu’il existe des différences notables entre un modèle explicatif et un modèle prédictif. Comme son nom l’indique, un modèle explicatif a pour tâche de rendre compte de nouvelles données expérimentales dans un cadre physique déjà bien établi, ou tout au moins consensuel. On mesure par exemple le décalage spectral vers le rouge d’une galaxie et on utilise la loi décalage-distance pour en déduire l’éloignement de cette galaxie. Un modèle prédictif se conçoit au contraire en amont des données expérimentales, tout en s’insérant dans un cadre conceptuel standard. Son objectif est de calculer et prédire les caractéristiques physiques de tel ou tel phénomène plausible, bien que non encore observé – ne serait-ce que parce sa détection exige une instrumentation encore hors de notre portée. L’actualité nous offre le meilleur exemple avec la découverte des ondes gravitationnelles, annoncée le 11 février 2016. Prédites il y a exactement un siècle par Albert Einstein dans le cadre conceptuel plus large de sa théorie de la relativité générale, elles viennent tout juste d’être détectées expérimentalement.

Au niveau des découvertes actuelles en astrophysique, sommes-nous dans une phase de consolidation ou de remise en cause du modèle ?

Les deux. La réponse peut paraître contradictoire, mais l’essentiel de l’activité scientifique se traduisant par, disons, 95 % des publications spécialisées ne fait que consolider le modèle établi – ce qui n’empêche qu’une frange (certes étroite) de théoriciens se penche sur les inévitables failles dudit modèle, et cherche à le remettre en cause. La large prédominance de l’activité de consolidation tient à la méthode scientifique elle-même. Dans la pratique quotidienne, on travaille beaucoup plus à faire tourner les modèles déjà éprouvés, en somme à vérifier et à confirmer que tout va bien, plutôt qu’à les contredire. Car les théories fondamentales et les modélisations qui en découlent débouchent sur des prédictions, et l’essentiel de l’activité scientifique consiste à confirmer ces prédictions par des observations ou des expériences. Dans la grande majorité des cas, les données sont en accord avec les prévisions, ou bien elles ne sont pas assez convaincantes pour être conclusives, auquel cas on tâchera de concevoir de nouveaux moyens techniques permettant d’obtenir des données plus précises pour les faire « rentrer dans l’ordre ».

Mais avant de tout chambouler et de remettre en cause la physique de base, on tente d’abord de s’appuyer sur le cadre théorique déjà existant pour en tirer de nouveaux modèles, revus et corrigés.

Heureusement pour la dynamique de la recherche, on observe parfois des phénomènes nouveaux et a priori inattendus, comme les sursauts gamma ou l’accélération de l’expansion de l’univers, qui ne rentrent pas dans l’ordre établi. Mais avant de tout chambouler et de remettre en cause la physique de base, on tente d’abord de s’appuyer sur le cadre théorique déjà existant pour en tirer de nouveaux modèles, revus et corrigés. Dans une enquête policière, cela revient à repenser le scénario du crime à cause d’une nouvelle donnée, sans que cela remette en cause ni la victime, ni le coupable, ni le mobile. On découvre par exemple que le coupable avait bu un café avec sa victime le jour même alors qu’on croyait qu’ils ne s’étaient jamais vus, ou bien on comprend que l’arme avait été mise en place à un moment bien antérieur à ce qu’on pensait initialement.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *