Épistémique ou aléatoire ?

Plusieurs discussions récentes ont soulevé la question des incertitudes épistémiques et aléatoires. Ce billet apporte un regard sur l’opportunité ou non d’une telle distinction. J’avais donné une première réponse dans « Mécanique et Incertain » (ISTE, 2014) mais il faut sans doute aller plus en profondeur. Ce billet est une invite à une discussion sur le sujet.

« Est incertain tout ce dont on peut ou doit douter » écrit André Comte-Sponville dans son dictionnaire philosophique (PUF, 2013). L’incertain fondamental est celui de notre existence et il ne peut pas être résolu puisqu’il faudrait la certitude de notre raison. L’incertain est donc tout d’abord un concept philosophique qui ne supporte pas le pluriel. Une proposition peut cependant relever de différents niveaux de connaissance : nous disons qu’elle contient des incertitudes et le pluriel nous invite à les classer. Un classement actuellement à la mode définit les incertitudes aléatoires et épistémiques.

Selon les tenants de ce classement, les incertitudes aléatoires supposent un monde incertain dans lequel elles existeraient intrinsèquement et quoi qu’il soit fait, elles sont irréductibles. Notons que le mot « aléa » trouve son origine latine dans le mot « dès » comme « hasard » en arabe. Suivons ensuite Blaise Pascal qui nous dit que le hasard a une structure et la géométrie du hasard est à l’origine de la théorie des probabilités. Ceci nous a conduit à associer de manière abusive aléatoire et probabilité.

Les incertitudes épistémiques (du mot grec « épistémè ») sont relatives au savoir, c’est-à-dire à notre capacité à restreindre l’étendue de l’incertain grâce à l’approfondissement des connaissances au cours de l’histoire de l’humanité ou par la mise en œuvre de moyens proportionnés à la décision à un instant donné.

La justification d’un tel classement trouve son origine dans la physique de l’infiniment petit. La discussion entre aléa et épistémè a fait l’objet d’une controverse entre Albert Einstein et Niels Bohr comme le rappellent F. Aguirre et al. L’aléa quantique résulte-t-il d’une théorie incomplète selon le premier ou d’un aléa fondamental ? Selon les auteurs, des travaux de physiciens donnent aujourd’hui raison à Niels Bohr. L’aléa tient à la nature quantique.

Mais qu’en est-il dans nos domaines de la mécanique ? Pour qu’il existe un aléa fondamental, il faudrait qu’il existe un quanta de matière significatif à l’échelle où nous l’observons, ce qui n’est évidemment pas le cas.

Ce que nous appelons aléa (ou hasard) n’est que l’écart existant entre notre savoir permettant une prédiction et nos observations. La connaissance est la synthèse de notre savoir et de nos incertitudes. Notre démarche est d’accroître la connaissance en réduisant nos incertitudes en associant à ces dernières un modèle de représentation. Il n’y a pas deux types d’incertitudes mais simplement une modélisation qui dépend du niveau d’approfondissement et comme le soulignent A. Der Kiureghian et O. Ditlevsen « la distinction entre incertitudes aléatoires et épistémiques est déterminée par le choix de nos modèles ».

Supposons maintenant qu’une observation est représentée par une variable aléatoire mais elle pourrait être d’un autre type, ses paramètres (moyenne, écart-type, …) résultent d’incertitudes réductibles. En effet, ce sont des estimateurs statistiques auxquels il est possible d’associer une variable aléatoire et ainsi de suite. N.-N. Taleb nous invite ainsi à considérer la nature fractale de la représentation de l’incertain.

L’incertain en mécanique passe par celui des modèles de comportement et celui des données. Il est représenté par différents outils en fonction des informations disponibles. La théorie des probabilités en est un, parfait, mais oublier l’incertain du modèle stochastique serait commettre l’erreur ludique selon le terme de N.-N. Taleb. Un modèle doit être adapté au savoir sur l’incertain, tant des données que des comportements et être fonction de l’enjeu dans les décisions que les résultats doivent aider à prendre.

La distinction entre deux types d’incertitudes n’a rien d’intrinsèque et il n’existe pas de modèles de représentation plutôt adaptés à l’un ou à l’autre. Seule subsiste lors de l’optimisation de la conception mécanique un classement des incertitudes selon le coût, parfois infini, de l’effort pour les réduire.

 

8 réflexions sur « Épistémique ou aléatoire ? »

  1. Merci, Maurice, pour avoir initié cette discussion. Je partage plusieurs points de vue évoqués, mais j’ai aussi une vision légèrement différente sur d’autres.

    Je considère que cette distinction, que je préfère plutôt voir comme réductible/irréductible, est pertinente pour un ingénieur, non pas à cause d’outils de modélisation nécessairement différents, mais justement parce qu’elle lui permet de distinguer entre les incertitudes qui sont réductibles et celles qui sont irréductibles. Cette distinction est importante à mes yeux pour deux raisons. D’une part j’estime qu’il existe une incertitude aléatoire (irréductible), même au niveau macroscopique, et pas uniquement au niveau quantique. D’autre part la distinction peut être spécifique à un contexte et des moyens donnés et permettre à l’ingénieur de clairement identifier les incertitudes sur lesquels il a une prise directe afin de les réduire. Dans la plupart des problèmes d’ingénierie il y a une part réductible et une part irréductible pour une incertitude donnée. Les parts réductibles et irréductibles d’une même incertitude peuvent, ou non, être traitées par un même outil de modélisation, qui peut être probabiliste, ou pas. Afin d’illustrer ces différents points je vais m’appuyer sur un exemple dans le contexte aéronautique.

    Prenons l’exemple d’un concepteur d’avions de transport de passagers. Supposons qu’il soit confronté aux 3 sources d’incertitudes suivantes, au moment de concevoir son avion :
    1. L’incertitude liée aux propriétés matériaux des éléments structuraux avec lesquels il fabriquera son avion. Cette incertitude influencera le dimensionnement de la structure, et le concepteur devra en tenir compte afin d’assurer la sureté de son aéronef. Il y a deux parts dans cette incertitude : une, liée à des variabilités des propriétés, dues à des variabilités au niveau de la microstructure par exemple ; une autre, liée au manque de connaissance de ce que les propriétés sont réellement. Dans l’absolu ces deux parts sont réductibles : la première, en maitrisant mieux le processus de fabrication afin de mieux maitriser la microstructure ; la deuxième, en effectuant des essais de caractérisation afin de quantifier les propriétés. En pratique la première peut être aussi considérée comme irréductible dans un contexte et avec des moyens donnés : l’entreprise concevant cet avion n’aura peut-être pas les moyens pour se lancer dans un programme de recherche et développement visant à mieux contrôler la microstructure à l’issue d’un processus de fabrication, elle considérera dans ce cas cette incertitude plutôt comme irréductible. Enfin, en termes d’outils de modélisation, notons que cette incertitude (aussi bien la part réductible qu’irréductible) peut être particulièrement bien modélisée dans un cadre probabiliste.
    2. L’incertitude liée à l’amplitude des turbulences que l’avion va rencontrer. Cette incertitude influencera également le dimensionnement de la structure avec la nécessité d’assurer une probabilité de défaillance suffisamment faible. Là encore, cette incertitude a une part réductible et une part irréductible. La part réductible est à nouveau liée au manque de connaissances de ce qu’est réellement l’amplitude des turbulences et elle peut toujours être réduite en effectuant plus de mesures. En revanche, la part irréductible, a cette fois un caractère intrinsèquement irréductible, dû au système chaotique qui lui est associé. Les mouvements de l’air dans l’atmosphère sont, aux échelles de temps considérées (il s’écoule plusieurs années entre le moment où l’avion est conçu et celui où il entre en service et rencontre les premières turbulences), le résultat d’un système chaotique, qu’il est impossible à prévoir. L’effet papillon est la caractéristique la plus connue qui s’y rapporte. Le caractère chaotique du système atmosphérique lui confère ainsi certaines propriétés aléatoires, qui sont, à mes yeux, l’analogue d’un aléa quantique à échelle macroscopique. En termes de modélisation, les deux parts de cette incertitude peuvent à nouveau être plutôt bien modélisées dans un cadre probabiliste.
    3. L’incertitude sur la demande pour le transport aérien ou sur le prix du gallon de kérosène durant les années pendant lesquels l’avion sera en service. Cette incertitude influencera certains choix techniques, comme la charge utile de l’avion (faut-il fabriquer plutôt un gros porteur ou un jet régional ?) ou encore le choix du rendement des moteurs utilisés (faut-il des moteurs particulièrement économes car le prix du carburant risque d’être particulièrement élevé ?). Là encore cette incertitude a une part réductible et une part irréductible. L’équivalent d’essais ou mesures servant précédemment à réduire la part réductible de l’incertitude consiste ici en la consultation d’experts (sans doute des économistes dans notre cas). La part intrinsèquement irréductible de cette incertitude vient ici encore de la relation à un système chaotique. En effet les organisations humaines sont parfois caractérisées comme des systèmes chaordiques, présentant à la fois des caractéristiques de systèmes ordonnés et de système chaotiques. En termes de modélisation, notons que le cadre probabiliste n’est peut-être plus aussi bien adapté que dans les cas précédents. Des approches alternatives à une modélisation probabiliste ont ainsi été développées dans ce cadre-là, qui présentent certains avantages mais qui posent aussi de nouvelles problématiques.

    Ces exemples sont ainsi représentatifs de différents types d’incertitudes, dont certaines sont réductibles, d’autres non. Nos points de vue se rejoignent totalement sur le fait qu’il n’y ait pas une modélisation mieux adaptée à toutes les incertitudes réductibles et une modélisation mieux adaptés à toutes les incertitudes irréductibles. Certaines incertitudes réductibles peuvent être bien représentées dans un cadre probabiliste comme peuvent être certaines incertitudes irréductibles. Un cadre probabiliste peut, par contre, moins bien convenir à d’autres incertitudes aussi bien réductibles qu’irréductibles et des théories alternatives ont été proposées pour leur modélisation. Ces approches de modélisation alternatives apportent, en revanche, une complexité supplémentaire et il faut, dans ce cas, mettre en balance les avantages que peut apporter un outil spécifique pour la modélisation d’un type spécifique d’incertitudes par rapport à la complexité accrue pour faire cohabiter des théories différentes, sur un problème donné, faisant à priori intervenir tous les types d’incertitudes.

    Pour conclure, je considère la distinction entre incertitudes réductibles et irréductibles pertinente pour un ingénieur, car elle lui permet de distinguer entre les incertitudes sur lesquelles il a une prise directe pour les réduire et celles sur lesquelles il n’en a pas. En revanche ce n’est pas cette double classification qui doit guider le choix des outils mathématiques à mettre en œuvre pour leur modélisation. Pour guider ce choix une analyse plus fine de la nature de l’incertitude est nécessaire.

  2. Bonsoir
    Merci à tous les 2 pour ces éclaircissements. Vous êtes à peu près d’accord, ouf c’est l’essentiel. (Trop) nombreux sont encore ceux qui essaient de nous enfumer avec telle ou telle méthode soit disant mieux adaptée dans tel ou tel cas. Je préfère de loin le « does it matter » de der kiureghian. Ceci étant les outils industriels n’avancent pas très vite. Quel est votre avis sur ce point?

  3. Bonjour Christian,
    tout d’abord je te remercie pour avoir saisi la perche tendue par ce blog pour poursuivre une discussion amorcée lors de la soutenance de ton HDR.
    Pour te répondre, je m’appuie sur l’une des dernières phrases de mon texte : « un modèle doit être adapté au savoir sur l’incertain, tant des données que des comportements et être fonction de l’enjeu dans les décisions que les résultats doivent aider à prendre ». Est-ce que le savoir sur l’incertain est suffisant par rapport aux décisions que j’ai à prendre ? La réponse à cette question implique que certaines incertitudes sont irréductibles, parce que je n’ai pas besoin de les réduire ou parce que cela exigerait un trop grand effort, d’autres sont réductibles, parce que c’est nécessaire pour des raisons de coût ou de sûreté. La frontière entre aléatoire et épistémique n’est pas intrinsèque mais relève de la décision de l’ingénieur. Cette frontière est artificielle et ne peut donc justifier de méthodes distinctes, sur ce quoi nous sommes d’accord.
    Ton premier exemple concerne la part résistance du modèle résistance – sollicitation et illustre une démarche classique bien mise en œuvre dans un cadre probabiliste : à quoi servirait-il de mieux connaître un matériau si cette connaissance implique une exigence de suivi de fabrication trop couteuse ?
    Le deuxième exemple relève de la part sollicitation. Est-ce parce que implicitement tu penses que la science des matériaux est plus avancée que la science de l’atmosphère que tu associes un modèle chaotique à celle-ci mais pas à celle-là ? La turbulence est-elle moins prévisible que l’amorçage d’une fissure sur un défaut initial ? Même dans ce domaine, il est possible de de déplacer la frontière comme le font les ingénieurs du génie maritime qui qualifient les navires pour certaines routes maritimes.
    Ton troisième exemple tient pour l’essentiel à l’économie, résultant d’organisations humaines que tu qualifies de « chaordiques », signifiant une part de chaos et une part d’ordre à ce que j’ai découvert. Ainsi, les économistes reconnaitraient-ils que les décisions ne sont pas toujours rationnelles ? Cet apport à la réflexion est essentiel car il implique la question d’une décision humaine : où placer la frontière entre ce qui est acceptable car l’incertitude est suffisamment réduite et ce qui ne l’est pas par la société ?
    La distinction entre incertitudes réductibles et irréductibles est pertinente du point de vue de l’ingénieur, comme tu le soulignes. La responsabilité de l’ingénieur est alors de définir la frontière dans une démarche d’acceptabilité du risque impliquant le coût de l’échec et le bénéfice de la réussite : « quand on travaille pour demain et pour l’incertain, on agit avec raison, par la règle des partis qui est démontrée » nous dit Blaise Pascal.

    1. Une intervention rapide pour tenter d’apporter quelques éléments de réponse aux questions suivantes « Est-ce parce que implicitement tu penses que la science des matériaux est plus avancée que la science de l’atmosphère que tu associes un modèle chaotique à celle-ci mais pas à celle-là ? La turbulence est-elle moins prévisible que l’amorçage d’une fissure sur un défaut initial ? »

      Mes propos cherchaient à illustrer ce en quoi les systèmes chaotiques peuvent effectivement représenter une source d’incertitudes intrinsèquement irréductible. En ce qui concerne la science des matériaux et l’amorçage de fissures sur un défaut initial, ce phénomène n’a pas été, à ma connaissance, caractérisé comme un phénomène chaotique (au sens de la théorie du chaos). En ce qui concerne la science de l’atmosphère, le système est reconnu pour être chaotique. J’insiste sur le fait que c’est le système atmosphérique lui-même qui est chaotique (au sens de la théorie du chaos) et non juste le modèle utilisé pour ses prévisions. Cela se traduit notamment par une forte sensibilité aux conditions initiales. Cela rend en pratique impossible une prévision des mouvements de l’air sur une échelle de quelques dizaines de mètres (échelle de la turbulence) sur une échelle de temps de plusieurs années, car le système est trop sensible aux conditions initiales et à des facteurs extérieurs imprévisibles. Pour reprendre la formulation de Lorentz il faudrait connaître chaque battement d’aile de chaque papillon dans le monde pour prédire les mouvements de l’air à ces échelles là sur plusieurs années. Même si l’effet papillon tel que cité est probablement exagéré il est clair que la décision imprévisible d’un pyromane à mettre feu à une forêt de centaines de milliers d’hectares aura une influence suffisante sur l’atmosphère pour faire basculer le système atmosphérique dans un autre attracteur de Lorentz et changer complétement les mouvements atmosphériques sur une échelle de temps de plusieurs années. Il est ainsi illusoire de vouloir prédire les mouvements atmosphériques sur une échelle de temps de plusieurs années et d’espace de quelques dizaines de mètres. Indépendamment des modèles qui leur sont associés, les systèmes chaotiques sont par définition imprévisibles au-delà d’un certain lapse de temps et cette imprévisibilité engendrera une incertitude intrinsèquement irréductible sur les grandeurs qui s’y rapportent.

  4. Bonjour Philippe,
    Pas de désaccord fondamental, tout est question de points de vue. Chacun d’eux implique telle ou telle méthode qui comporte nécessairement des hypothèses restrictives. Des logiciels commerciaux incluent progressivement des possibilités de prise en compte de l’incertain par les probabilités et de nouveaux développements comme OpenTURNS http://www.openturns.org/ sont proposés pour piloter des codes industriels. Pour qu’il y ait des développements, il faut des besoins et pour que les besoins soient satisfaits, il faut des codes. Qui initie le processus ? Contrairement au développement des codes par éléments finis qui étendaient la démarche traditionnelle de l’ingénieur, les codes prenant en compte l’incertain exigent un changement de paradigme : c’est une culture à faire pénétrer en rappelant que la prise en compte de l’incertain apporte une précision supplémentaire.

  5. Bonjour,

    Une remarque sur le paragraphe suivant du texte d’origine : « Supposons maintenant qu’une observation est représentée par une variable aléatoire mais elle pourrait être d’un autre type, ses paramètres (moyenne, écart-type, …) résultent d’incertitudes réductibles. En effet, ce sont des estimateurs statistiques auxquels il est possible d’associer une variable aléatoire et ainsi de suite »
    Si le sens du mot « observation » dans ce paragraphe signifie ici « valeur ponctuelle dans un espace de représentation », une variable aléatoire (qui n’a rien d’aléatoire en soi puisque c’est une fonction d’un espace de probabilité dans un espace de représentation) ne peut pas représenter une observation. Elle qualifie l’accès aux observations potentielles associées à une expérience, c’est à dire l’accès à l’information. Cette variable n’a aucun intérêt en soit sinon de permettre le transfert d’une mesure de confiance (ici une probabilité) de l’espace de probabilité sur l’espace de représentation. Poétiquement, si je puis dire, elle « focalise l’objet du désir » ! Or, ce qui caractérise, dans une modélisation probabiliste, cet accès à l’information de nature irréductiblement incertain, est qualifié par une forme qui est quantifié par des paramètres irréductibles (moyenne et écart-type théoriques pour les lois invariantes en position et échelle par exemple). Ces paramètres n’ont aucun caractère épistémique (ils sont inconnus mais non réductibles), ce sont leurs estimations qui le sont et c’est la confusion qui est, à mon avis, entretenue dans le paragraphe mentionné. De fait, il y a, pour ma part, une différence fondamentale entre incertitude « aléatoire » et épistémique qui ne se résorbe pas par « le choix de modèles ». Une mesure de confiance ne qualifie pas une incertitude (un « flou ») sur une réalité dont la connaissance serait réductible à un nombre (par exemple) mais elle qualifie ce à quoi nous avons accès quant à une réalité toujours hypothétique : une information dont la représentation est un choix (nombre, mesure de probabilité, de possibilité, …). Cette mesure de confiance, au même titre qu’une équation différentielle, est un modèle qui représente un choix, celui de la réalité connaissable elle-même. Ce n’est pas un patch autour d’une réalité mal appréhendé. En ce sens, « l’incertitude » peut avoir un caractère intrinsèque irréductible dans la peau d’un modélisateur probabiliste puisqu’elle ne qualifie pas « un manque réductible » mais une représentation d’une réalité elle-même. Ce qui est épistémique dans cette représentation, ce sont les estimations de la mesure de confiance choisie.

    1. Erratum … il faut lire pour la phrase concernée (et désolé pour l’orthographe approximative !) :
      Or, ce qui caractérise, dans une modélisation probabiliste, cet accès à l’information de nature irréductiblement incertain, c’est une forme qui est quantifié par des paramètres irréductibles (moyenne et écart-type théoriques pour les lois invariantes en position et échelle par exemple)

  6. Epistémique ou aléatoire?

    Bonjour à tous,

    L’incertitude disparaît lorsque tout devient certain.
    En ce qui me concerne, je dirais d’abord ambigu comme première caractéristique de l’incertitude. L’ambigüité apparaît dans tout problème de maîtrise des risques: vocabulaire spécialisé, abréviations, problèmes de syntaxe, définitions non normatives utilisées, construction des phrases, etc… Cette incertitude d’ambigüité est réductible, elle peut être levée (mais ce n’est pas facile). Elle n’est pas négligeable. Elle devrait être préalable à l’examen des incertitudes aléatoire et épistémique. Mais je ne suis pas sûr qu’elle puisse être complètement résolue.

    L’incertitude aléatoire semble réservée plutôt à l’incertitude de mesure. Toutes les mesures sont fausses, plus ou moins, les capteurs ne sont pas fidèles, et la dispersion (l’écart type) est une bonne appréciation de l’amplitude de l’incertitude. La loi est souvent Gaussienne. L’incertitude aléatoire est réductible. Elle est même aisément réductible. Par exemple, si la température est un paramètre important, on fera des efforts pour mieux la mesurer. Dans la pratique, à noter que c’est surtout l’expérimentation ou le retour d’expérience qui permettent de réduire l’incertitude.

    L’incertitude épistémique provient d’une ignorance ou d’un manque de connaissances. Par exemple, on ne connaît pas la loi de survie d’un composant, on ne connaît pas la loi de dégradation fatigue-corrosion d’un composant soumis à des cycles de fatigue et à une corrosion, on ne sait pas qu’un produit peut exploser ou que des contournements créés pour éviter une inondation sont nocifs dans le cas d’un incendie, qu’il y a rupture fragile des rivets d’une coque de paquebot lorsque la mer est froide… Notons que beaucoup de faits sont mal connus ou ne sont pas connus. Mais il s’agit d’une défaillance organisationnelle. L’analyste de risque et le décideur doivent imaginer ce qui pourrait se passer et prendre des mesures de prévention- protection. Comme l’incertitude aléatoire, l’incertitude épistémique est réductible. Si on connaît la possibilité d’un point faible ou d’une incertitude épistémique, rien n’empêche de faire des essais, de faire des calculs, de consulter la bibliographie et le retour d’expérience. L’incertitude épistémique est cependant moins facilement réductible et les lois associées ne sont généralement pas Gaussiennes.

    La dernière incertitude est l’indétermination que l’on voit dans les cas des grands accidents technologiques ou agressions naturelles. La probabilité est très faible, les conséquences très graves. On ne sait ni estimer l’une, ni estimer les autres. On ne sait pas si on peut la réduire. Et pourtant le décideur doit décider. C’est pour cette raison qu’il réalise des analyses de risques.

    Bon week-end à tous

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *