La notion de probabilité est une notion mathématique qui est associée à un événement et représente le nombre de cas ou l’événement peut se produire par rapport au nombre total de cas, sur une durée supposée infinie. Ainsi la probabilité qu’un dé présente la valeur 4 par exemple, est de 1/6 car il y a 6 faces au dé. Ceci suppose que le dé est juste et donc que les 6 possibilités sont isoprobables. Si le dé est pipé, une des 6 valeurs sera avantagée et verra sa probabilité augmenter tandis que celles des autres diminuera. La plus forte diminution concernera la valeur sur la face opposée à celle avantagée.

Dans tous les cas, la somme des probabilités liées au dé est égale à 1, que le dé soit pipé ou pas.

Si la probabilité est un outil bien adapté aux dés, il n’en est pas de même dans la vie courante, car bien souvent certaines variables hautement significatives sont masquées. Si je dispose d’une grande caisse avec des balles jaunes, bleues et rouges, de même taille, de même texture et en même nombre et qu’un enfant vient en choisir une, nous pouvons appliquer le principe précédent et dire que la probabilité qu’il prenne une balle rouge est de 1/3. Mais si je dis que cet enfant vient tous les jours chercher une balle jaune, on a envie de dire que la probabilité du choix de la balle rouge devient quasi nulle. L’information non révélée est prépondérante dans le calcul de la probabilité. On parle alors de probabilité bayésienne (Bayes, 1963), la probabilité de « A » sachant « B ». Les réseaux bayésiens (Naim, 1999) occupent une place importante en intelligence artificielle / deep learning (Heudin, 2016).

Mais la probabilité bayésienne ne résout qu’un nombre limité de situations. Dans la grande majorité des cas, la probabilité n’est pas calculable. Notamment lorsque nous avons à faire à un espace ouvert en expansion. Selon le théorème de Gödel (Girard, 1989), un tel espace est indécidable, toute calcul de probabilité est alors exclu.

La notion de plausibilité est parfois confondue avec la notion de probabilité alors qu’elles sont très différentes. Si l’on revient au cas du dé non pipé, la probabilité de présenter un 4 est de 1/6 alors que la plausibilité de présenter un 4 est de 1, comme pour toutes les autres faces. La somme des plausibilités n’est donc plus égale à 1. La probabilité que le dé présente un 2 ou un 4 est égale à la somme des probabilités du 2 et du 4. Si le dé est non pipé, elle vaut 2/6. Tandis que la plausibilité qu’un dé pipé ou non présente un 2 ou un 4 vaut 1.

Si j’attends le bus à un arrêt habituel pendant un temps anormalement long, la plausibilité de certains événements augmente, tels que la panne, la grève, les travaux, les intempéries, l’accident, l’embouteillage, etc… Des indices peuvent renforcer ou infirmer certains de ces événements. On peut par exemple rassembler n critères et les évaluer. La plausibilité est alors relative à ce référentiel de critères (plausibilité de chaque critère selon R). La plausibilité peut etre évaluée à différents moments et former ainsi une suite de valeurs. Différents travaux ont été menés sur la base de ces suites de valeurs, tels que la logique du flou de Softi Zadeh (Bouchon-Meunier, 2007), la théorie de l’information d’Andreï Kolmogorov, …

Bayes Thomas. 1763(posthume). Essai en vue de résoudre un problème de la doctrine des chances: Méthode de calcul de la probabilité exacte de toutes conclusions fondées sur l’induction. s.l. Hermann, 2017.

Naïm Patrick, Wuillemin Pierre-Henry, Leray Philippe, Pourret Olivier, Becker Anna. 1999. Réseaux bayésiens. s.l. : Eyrolles, 2007.

Heudin  Claude. 2016. Comprendre le deep learning : une introduction aux réseaux de neurones. s.l. : Science eBook, 2016.

Girard Jean-Yves, 1989. Le théorème de Gödel. s.l. : Le Seuil. 1989.

Bouchon-Meunier Bernadette. 2007. La logique floue. s.l. : PUF. 2007.