Recherche

Commandes & Abonnements

Donner du sens aux concepts enseignés pour répondre au pas-de-sens des cours de mathématiques pour beaucoup d’élèves, c’est ce qui a donné et donne encore sens à mon métier de prof de math.

Le problème du sens, c’est un travail épistémologique. De nature historique tout d’abord. Comment est né et a évolué une notion, un concept, une théorie au sein des mathématiques elles-mêmes ou/et dans l’enseignement des mathématiques ? Car les histoires de la discipline et de leur enseignement ne sont pas toujours parallèles. De nature didactique ensuite. Comment les élèves aujourd’hui reçoivent, comprennent, assimilent telle matière enseignée ? De nature personnelle enfin. Quels fantasmes véhicule tel sujet ou tel outil, comment voit-on les choses, quel rapport a-t-on à ce savoir enseigné ?
Qu’elle soit directement orientée sur des difficultés d’apprentissage (et donc d’enseignement) ou effectuée un peu par hasard pour répondre à certaines curiosités ou désirs personnels d’enseignants et/ou de mathématiciens, toute recherche historico épistémologique conduit à des transformations dans la pratique enseignante de ceux qui les ont menées.
Une petite illustration est donnée, dans la suite, au travers du concept de probabilité.

Premier contact

Cela s’est passé en cinquième année secondaire si mon souvenir est bon. À l’époque, cela se résumait à de la combinatoire. Avec des problèmes du genre : « Sachant qu’au whist on distribue treize cartes à chaque joueur, combien de donnes y a-t-il, si on tient compte des joueurs ? Et si on n’en tient pas compte ? Quelle est la probabilité qu’il y ait un trou (un des joueurs possède trois as) ? »
On parle d’expérience aléatoire comme d’une expérience qui peut se répéter autant de fois qu’on veut dans les mêmes conditions, qui a plusieurs issues possibles dont la réalisation de chacune d’elles est liée au hasard. On parle d’événement élémentaire pour chacune des issues, et d’événement pour un regroupement d’issues. Dans ce cadre, la probabilité est simplement un quotient du nombre de cas favorables à l’événement sur le nombre de cas possibles.

Si, par exemple, on lance un dé cubique parfaitement équilibré et dont les faces sont numérotées de 1 à 6. L’expérience qui est aléatoire a six issues ou six cas possibles. Si on considère l’événement « obtenir un nombre pair », il y a trois cas favorables à l’événement. La probabilité de cet événement vaut donc 3/6 ou un demi.
Attribuée à Laplace (même si c’est vraisemblablement plus tôt, à Leibniz qu’elle est due), cette définition est qualifiée par d’aucuns comme monstrueuse parce qu’elle réduit la probabilité aux issues « également possibles ». Et il faut ajouter que cette définition :
- assimile la probabilité à un rapport d’entiers et lui donne une valeur intrinsèquement rationnelle ;
- se réduit à une application artificielle de la combinatoire ;
- ignore l’outil statistique ;
- limite les applications des probabilités aux situations pseudo concrètes et irréalistes des jeux. [1]

Deuxième contact

C’est en deuxième candi en sciences mathématiques. Un premier cours de quarante-cinq heures (sans compter les séances d’exercices) définit les notions d’expérience aléatoire, d’événement, de fréquence, et part, comme tout bon cours mathématique, de quelques axiomes [2] pour préciser le concept. Premier axiome : à tout événement A relatif à une expérience aléatoire, on associe un nombre P(A) compris entre 0 et 1. Deuxième axiome : la probabilité de l’événement certain (il s’agit d’un événement qui reprend toutes les issues possibles d’une expérience aléatoire) est égale à 1. Troisième axiome : Si A1, A2,... An, sont des événements incompatibles (dont la réalisation simultanée n’est pas possible) alors P(A1 ou A2 ou ... An)=P(A1)+P(A2)+...+P(An). Et ainsi de suite...
Après la notion de probabilité, viennent les notions de probabilité composée, de probabilité conditionnelle, d’indépendance, de variables aléatoires et leurs caractéristiques. Et pour couronner l’ensemble : quelques grands théorèmes. Un deuxième cours de quarante-cinq heures pour la statistique inférentielle, les tests d’hypothèse avec l’usage des outils probabilistes.
Cette approche théorique, que j’ai reproduite en début de carrière avec quelques adaptations pour que ce soit compréhensible à des élèves du secondaire :
- apparaît abstraite voir absconse pour certains ;
- occulte le sens pour les non initiés ;
- élude les questions sur l’application, la pertinence et la correspondance du modèle théorique à la réalité.

Troisième contact

Quand, enseignant depuis plusieurs années, j’ai retravaillé ces questions [3], c’est une approche fréquentiste de la probabilité qui était défendue en de nombreux lieux.
On fait des expériences, on lance des pièces ou des dés et on observe... Par exemple, la fréquence [4] d’apparition de l’événement « obtenir 1 » en lançant un dé cubique à six faces numérotées de 1 à 6. On fait de longues séries de lancers et on cumule les fréquences. La figure 1 montre comment évolue la fréquence pour dix, cinquante, cent, cinq cents et mille lancers pour trois séries. On constate des fluctuations pour des petits nombres de lancers mais une stabilisation des fréquences quand le nombre de lancers devient grand.

Des expériences comme celles-là portent à croire que quand le nombre de lancers augmente ou tend vers l’infini, la fréquence de l’événement tend vers une valeur ou une limite. Et naturellement, cette dernière est la probabilité de l’événement.
Les conséquences implicites (erronées) de cette présentation, c’est-à-dire de la probabilité d’un événement comme étant « la » fréquence limite d’un nombre infini d’expériences, est [5] :
- que l’on peut toujours coller un modèle théorique ou une loi à une réalité ;
- qu’il n’existe qu’un seul modèle relatif à une série nécessairement finie de données expérimentales ;
- que cela porte à croire que la limite existe toujours et qu’elle est unique ;
- que cela évite la validation, pourtant bien nécessaire, du modèle à la réalité.

Quatrième contact

Un très long travail avec des collègues au sein du GEM [6] nous a amené à certaines options conceptuelles et à certains choix didactiques.
Nous avons choisi de traiter des « vrais » problèmes dès le départ mais d’adopter des points de vue restreints pour ne lever le voile que petit à petit sur le concept étudié. Les premiers problèmes sont formulés sans recours, ni au terme, ni à la notion de probabilité.
On a décidé de prendre en compte « l’aspect dual » des probabilités :
- les probabilités a priori, déterminées à l’avance, sans effectuer aucune expérience à partir des conditions de l’expérience aléatoire, des symétries qui autorisent l’hypothèse d’équiprobabilité ;
- les probabilités a posteriori, déterminées à partir des fréquences observées (on parle souvent dans ce cas d’approche fréquentiste des probabilités).
On se repose sur un enseignement conséquent de la statistique descriptive. En classe, un long temps est consacré à faire des expériences et des simulations pour conjecturer et contrôler les résultats ainsi que mettre en évidence la notion de distribution de fréquence, de fluctuation d’échantillonnage et de stabilisation des fréquences. On donne la possibilité de modéliser à partir d’expériences concrètes et mentales, en utilisant différents modèles (équiprobabilité, approche fréquentiste, ...). Les propriétés des probabilités sont déduites de celles des fréquences qu’elles modélisent.
Assez rapidement, nous utilisons les diagrammes en arbre [7], non seulement comme moyens techniques, mais comme outils conceptuels de résolution (le traitement ensembliste des questions n’étant pas envisagé). Les premières règles de calcul sont mises en œuvre à partir des ces diagrammes.
Nous utilisons l’effet provocateur et stimulant de paradoxes ou de questions controversées et des problèmes « peau de banane » ont été introduit pour mettre en évidence des erreurs connues des élèves et pour leur permettre de les surmonter.
Ces choix sont bien des choix et non des vérités. Ils sont par ailleurs continuellement provisoires et toujours remis en question.

notes:

[1Pour plus de détails le lecteur pourra consulter Michel HENRY, L’enseignement des probabilités (perspectives historiques, épistémologiques et didactiques) , Presses Universitaires Franc-Comtoises (les publications de l’IREM de Besançon), 1999.

[2L’axiomatique de Kolmogorov à l’époque. On y exprime, par exemple, que les probabilités sont des nombres compris entre 0 et 1.

[3Pas tout seul mais au sein du GEM (groupe d’enseignement mathématique) de Louvain-la-Neuve.

[4La fréquence est le rapport du nombre d’occurrences de « 1 » sur le nombre total de lancers.

[5Pour plus de précisions sur ces dangers, le lecteur pourra consulter Claudine ROBERT, À propos de l’introduction de l’enseignement de la statistique dans les lycées, Bulletin APMEP n° 425 de Novembre-Décembre 1999.

[6Groupe d’enseignement mathématique de Louvain-la-Neuve.

[7Un arbre est caractérisé par des nœuds reliés par des chemins. Le cheminement sur l’arbre se fait uniquement de gauche à droite (si l’arbre est présenté horizontalement) ou de haut en bas (si l’arbre est présenté verticalement). Chaque branche reliant deux noeuds successifs est affectée de la probabilité de passer de l’un à l’autre noeud. La somme des probabilités affectées aux branches issues d’un même noeud est égale à 1.