1 / 53

Enseignement des mathématiques : le défi de la pluridisciplinarité

Enseignement des mathématiques : le défi de la pluridisciplinarité. Michèle Artigue , LDAR et IREM Paris 7. Plan. Introduction : le contexte français et international L’expérience de l’IREM Paris 7: Une tradition de pluridisciplinarité Le groupe Modélisation Mathématiques et SVT

tirza
Download Presentation

Enseignement des mathématiques : le défi de la pluridisciplinarité

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Enseignement des mathématiques : le défi de la pluridisciplinarité Michèle Artigue, LDAR et IREM Paris 7

  2. Plan • Introduction : le contexte français et international • L’expérience de l’IREM Paris 7: • Une tradition de pluridisciplinarité • Le groupe Modélisation • Mathématiques et SVT • Quelles leçons tirer de cette expérience ?

  3. Le contexte français • Une volonté institutionnelle en France de promouvoir l’interdisciplinarité, manifeste dans de multiples initiatives : • Le CNP et la réforme des lycées de 2000 : TPE, travail conjoint des groupes d’experts sur l’exponentielle, les projets en lycée professionnel… • Des options sciences au nouveau module MPS en seconde. • L’enseignement au collège : IDD, thèmes de convergence… • Les expériences d’enseignement intégré des sciences au collège (EIST)

  4. Pourquoi la pluridisciplinarité ? Faire face aux besoins d’une éducation citoyenne Rapprocher l’Ecole de la science actuelle Pluridisciplinarité Renforcer l’attractivité de l’enseignement scientifique

  5. Une diversité d’enjeux Décloisonner les connaissances Modélisation / Applications Interdisciplinarité Démarches d’investigation Contenus / Compétences

  6. Extrait des documents d’accompagnement des programmes du lycée (2000) « La modélisation est une pratique scientifique majeure qui concerne un nombre croissant de domaines. […] Modéliser est une des principales modalités de l’interaction entre les mathématiques et les autres sciences. Mais la pratique de la modélisation de situations réelles est difficile. […] Au niveau du lycée, on initiera les élèves à la modélisation grâce à l’étude de certaines situations réelles, qu’on simplifiera à l’extrême et pour lesquelles le modèle grossier ainsi établi devient éclairant ou permet une prévision : la difficulté est alors de garder sens et consistance au problème simplifié. » (Accompagnement pour les classes terminales S et ES, p. 29)

  7. Les thèmes de convergence « Les thèmes de convergence [...] font partie des programmes des disciplines dans lesquels leurs contributions sont également recensées. Les thèmes choisis ont été retenus parmi des sujets importants pour la société et proches des préoccupations quotidiennes des élèves. L’intérêt que leur étude, à partir de points de vue complémentaires, peut susciter chez des collégiens a constitué une considération décisive. Pour chaque enseignement disciplinaire, il s’agit de contribuer, de façon coordonnée, à l’édification d’objets de savoir commun, éléments essentiels d’une culture partagée.  » (extrait du Rapport Bach)

  8. L’enseignement d’exploration des nouveaux programmes de seconde « L’enseignement d’exploration « méthodes et pratiques scientifiques » permet aux élèves de découvrir différents domaines des mathématiques, des sciences physiques et chimiques, des sciences de la vie et de la Terre et des sciences de l’ingénieur. C’est aussi l’occasion de montrer l’apport et la synergie de ces disciplines pour trouver des réponses aux questions scientifiques que soulève une société moderne, d’en faire percevoir différents grands enjeux, et de donner les moyens de les aborder de façon objective. »

  9. Le discours de Pierre Lena à l’Académie des Sciences Il y propose trois leviers pour l’avenir de l’école : • Le changement des pratiques pédagogiques et le développement des démarches d’investigation à l’image de la « Main à la Pâte » • Des professeurs accompagnés dans leur développement professionnel, au contact de la science vivante et de ses acteurs • Décloisonnement et interdisciplinarité: une conception plus globale des savoirs, un décloisonnement des disciplines.

  10. Le discours de Pierre Lena « Chaque année, l’Académie des sciences distingue les lauréats de ses Prix : ces travaux révèlent l’immensité des savoirs d’aujourd’hui, leur perpétuel mouvement, leurs interactions croisées et souvent improbables, leur degré d’abstraction, leur extrême technicité, leurs surprenantes applications. Notre système d’éducation, ne sachant évidemment plus embrasser cette immensité de savoirs, traumatisé, peine à prendre un cap où beaucoup est à réinventer. Il se contente d’aménager des programmes étroitement disciplinaires. Que l’on ne voie pas ici une critique d’institutions ou de personnes, car nombre de pays se heurtent à ces mêmes difficultés. »

  11. Le Plan Sciences et l’EIST « Afin de décloisonner l'approche des sciences et des technologies au collège pour redonner du sens à l'enseignement et faciliter la liaison CM2-sixième, une expérimentation d'un enseignement intégré de science et technologie (EIST), mise en œuvre par l'Académie des sciences, l'Académie des technologies et le ministère, est conduite depuis 2006 en classe de sixième et de cinquième.  […] L'EIST s'inscrit dans le sillage de « La main à la pâte » à l'école élémentaire et offre aux élèves la possibilité de mener à bien une démarche expérimentale et d'investigation […] Le plan sciences et technologies à l'École vise l'extension du dispositif à 400 collèges à terme. »

  12. Et au niveau international ? • Des convergences évidentes aisément repérables dans la perception des enjeux : • au niveau Européen (Rapport Rocard, Financement de projets ) • au niveau de l’OCDE (PISA et le concept de « littéracie », le cycle de modélisation…) • au niveau de l’UNESCO (les deux documents récents sur les défis de l’éducation scientifique et mathématique dans la scolarité de base) • Des évolutions curriculaires convergentes

  13. Le contexte français : des volontés affichées mais aussi des facteurs peu favorables • Une culture éducative qui est fondée sur le cloisonnement disciplinaire voire la compétitions entre disciplines. • Des enseignants qui sont, à partir du collège, (hors lycée professionnel) monovalents. • Des enseignants qui sont très peu préparés par leur formation initiale à des pratiques pluridisciplinaires et aux démarches de modélisation qu’elles induisent. • Une vision du travail enseignant où les pratiques collaboratives ont encore assez peu de place. • Des possibilités de formation continue de plus en plus réduites pour accompagner les dispositifs progressivement introduits. • Une avalanche de réformes et une détérioration des conditions de travail qui ne favorisent pas les évolutions souhaitées.

  14. L’expérience des IREM Une expérience indéniable et qui mérite d’être valorisée

  15. Le cas de l’IREM Paris 7 • Un IREM initialement pluri-disciplinaire : maths-physique, math-technologie, math-biologie, math-français. • Une pluri-disciplinarité qui va progressivement s’estomper pour renaître à la fin des années 90 avec : • le groupe MAG (Maths-Arts plastiques- Géographie) • le groupe ZEP qui deviendra le groupe Math-Français • le groupe TPE qui deviendra le groupe Modélisation • Et avec l’émergence aujourd’hui d’une collaboration avec les informaticiens autour de l’algorithmique

  16. Le groupe IREM Modélisation • Un groupe pluridisciplinaire : maths – physique – SVT. • Un groupe créé en 1999 pour accompagner la mise en place des TPE et qui s’est progressivement orienté vers les questions de modélisation et d’interactions entre disciplines. • L’animation de stages PAF puis l’opportunité de mener un travail plus approfondi créée par la mise en place du master professionnel didactique en 2004. • L’importance prise par les interactions entre mathématiques et biologie dans le travail du groupe.

  17. Le processus de modélisation Un problème à résoudre Des modèles de référence Le découpage d’un segment de « réalité » Un choix de description Une confrontation à la contingence Une mathématisation de cette description Un travail dans le modèle

  18. Un travail interdisciplinaire math-physique inspiré par une ressource du projet Européen LEMA

  19. L’apport d’une démarche pluridisciplinaire La vision initiale des enseignants de mathématiques : • La modélisation des jets d’eau par des paraboles • le problème devient alors un problème géométrico-fonctionnel • l’utilisation de logiciels de géométrie (Geoplan et Geospace) pour simuler les jets d’eau et visualiser l’effet des variations des paramètres • l’exploitation des propriétés de symétrie de la situation

  20. L’apport d’une démarche pluridisciplinaire L’apport de l’enseignante de physique : • La modélisation physique et ses approximations • La confrontation au réel via un dispositif expérimental • Une autre utilisation de la technologie pour tester le modèle et trouver par ajustement l’équation de la parabole • L’introduction d’un exemple historique

  21. La modélisation physique La modélisation de l’eau par un liquide parfait incompressible et l’utilisation du théorème de Bernouilli. La modélisation du jet en un ensemble de gouttes d’eau soumises à la seule pesanteur et l’utilisation des lois de la mécanique classique.

  22. Influence de l’intensité de la vitesse initiale (angle constant)

  23. Influence de l’angle à vitesse constante L’existence d’une portée maximale (45°)

  24. Le dispositif expérimental

  25. L’exploitation du logiciel Dynamic

  26. Le test du modèle quadratique

  27. Leonardo da Vinci: une étrange affirmation !

  28. Le calcul effectif

  29. La simulation avec Geospace

  30. Des prolongements : parabole de sécurité

  31. Des prolongements

  32. Interactions maths-SVT Des spécificités certaines

  33. Le cas spécifique de la biologie • Des concepts dont les mathématiques ne sont pas constitutives, contrairement à la physique. • La diversité des sources de modélisation en biologie et l’influence croissante mais relativement récente des modélisations mathématiques. • Le rôle déterminant joué par les modélisations aléatoires et la variabilité du vivant comme source d’obstacles : • Le défi résultant pour faire vivre le rôle créateur des modèles mathématiques en biologie. • Mais aussi la possibilité progressivement constatée de faire vivre des interactions riches et motivantes entre maths et biologie avec des outils mathématiques assez élémentaires, en particulier grâce aux outils technologiques disponibles.

  34. Deux exemples historiques travaillés dans le master et les stages L’essai sur le principe de population de Malthus Le travail de Daniel Bernoulli sur la variole

  35. Bernoulli : les hypothèses de modélisation • H1 : « Tant qu’on a pas eu la petite vérole, on court continuellement le même risque de l’avoir. » • H2 : « Quant au risque annuel d’être attaqué par la petite vérole, pour ceux qui ne l’ont pas eue, j’ai cru ne pouvoir satisfaire aux notions générales que nous avons sur cette maladie, qu’en la supposant d’un huitième, ce rapport de 1 sur 8 étant supposé constant » • H3 : «Disons encore un mot sur le risque de la petite vérole pour ceux qui en sont attaqués : la plupart l’ont fait d’un septième ; je l’ai un peu diminué, en le faisant d’un huitième » • H4 :  « Le risque de mourir par une autre cause que la petite vérole est le même que l’on ait eu la petite vérole ou non  »

  36. Bernouilli : les justifications • H1 : « Nous n’avons encore aucune observation qui nous oblige à renoncer à cette supposition, et les lois de la Nature les plus simples sont toujours les plus vraisemblables … » • H3 : «Disons encore un mot sur le risque de la petite vérole pour ceux qui en sont attaqués : la plupart l’ont fait d’un septième ; je l’ai un peu diminué, en le faisant d’un huitième : deux raisons m’y ont engagé, …la première est qu’on apprend exactement tous ceux qui en meurent, et qu’on ne saurait apprendre si exactement tous ceux qui ont la maladie , la seconde, est que le rapport de 1 sur 7 ferait la mortalité variolique trop grande par rapport à la mortalité entière, pendant que celui de 1 sur 8 est entièrement conforme à l’observation la mieux constatée, qui est que la petite vérole enlève la treizième partie du total des morts … »

  37. La mathématisation On introduit les variables suivantes : • t : variable quireprésente l’âge des individus en années. • N(t) : le nombre de survivants de cette population à l’instant t • x(t) : le nombre des personnes susceptibles d’attraper la variole à l’instant t, c’est-à-dire, parmi les survivants, ceux qui n’ont pas encore eu la variole • m(t) : le taux annuel de décès par d’autres causes que la variole au sein des deux populations.

  38. Le jeu entre discret et continu

  39. La résolution du système différentiel • Bernoulli introduit la proportion de survivants à l’instant t, encore susceptibles d’avoir la variole en posant : On reconnaît là une équation différentielle logistique

  40. La résolution de l’équation différentielle logistique

  41. Si l’on utilise les valeurs de N(t) données dans une table de mortalité, on peut alors en déduire les valeurs de x(t), puis déterminer comment évoluerait la population si personne ne mourait de la variole, par un raisonnement de proportionnalité. • C’est ce que fait Bernoulli en s’appuyant sur les tables de mortalité d’une population de 1300 personnes de la naissance à l’âge de 24 ans.

  42. Le raffinement de la modélisation et les conclusions qui en sont tirées • La modélisation effectuée ne tient pas compte de l’existence de décès suite à l’inoculation : 1 sur 600 à Londres en 1755, or c’est sur ce nombre de décès d’inoculés que se fondaient les opposés à l’inoculation. • Bernoulli raffine donc son modèle en calculant ce qui se passerait si on avait une chance sur 200 de mourir de la variole après avoir été inoculé (l’inoculation étant supposée avoir lieu la première année). • Avec des arguments de nature probabiliste, il conclut ensuite que l’espérance de vie passerait de 30 à 34 ans environ si tout le monde était inoculé. • Cette étude le conduit prendre parti pour l’inoculation préventive comme mesure salutaire de prophylaxie collective en dépit du risque individuel que la mesure comporte.

  43. Des conclusions source de débats qui ont des résonances actuelles… • Un long débat mathématique et philosophique, auquel Jean Le Rond D’Alembert (1717-1783) prit une part active, s’ensuivit, montrant bien combien l’introduction d’une approche statistique en médecine est problématique à l’époque : « Je suppose avec monsieur Bernoulli que le risque de mourir de l’inoculation soit de 1 sur 200. Cela posé, il me semble que pour apprécier l’avantage de l’inoculation, il faut comparer, non la vie moyenne de 34 ans à la vie moyenne de 30, mais le risque de 1 sur 200 auquel on s’expose de mourir en un mois par l’inoculation … à l’avantage éloigné de vivre quatre ans de plus au bout de 60 ans lorsqu’on sera beaucoup moins en état de jouir de la vie … Voilà, il n’en faut point douter, ce qui rend tant de personnes, et surtout tant de mères, peu favorables parmi nous à l’inoculation. » (Opuscules, tome II)

  44. Les thèmes abordés dans les projets • La propagation de maladies contagieuses dans une population humaine. • La dynamique des pools de gènes dans une population animale ou humaine au fil des générations. • L’analyse de séquences ADN dont la fonction n’est pas connue. • La représentation de l’ADN par la CGR. • La modélisation des formes (toiles d’araignée, empreintes digitales). • La dynamique des tumeurs cancéreuses et leur traitement (réalisation inspirée des stages Hippocampe mis en place à l’IREM d’Aix-Marseille).

  45. La propagation de maladies contagieuses • Un des premiers thèmes abordés ((lèpre, rougeole, SIDA) qui permet d’entrer en contact avec diverses questions : • choix entre modèles déterministes et aléatoires, • raffinement progressif des modèles (du modèle « S.I. » de Hamer au modèle « S.I.R. » de Kermack et MacKendrick , la prise en compte d’effets de vaccination), • recherche et exploitation de données réelles, • critique de documents. • Et ce, avec des besoins mathématiques raisonnables (équations et systèmes différentiels simples et suites) et des besoins biologiques très réduits. • Un thème qui permet de combiner le travail sur des exemples historiques (variole, peste) et sur des questions actuelles.

  46. La dynamique des pools de gènes dans une population • La nécessité de passer par un modèle aléatoire (urne des gamètes). • La mise en évidence d’un phénomène intéressant de stabilité intergénérationnelle (Loi de Hardy-Weinberg) et l’explicitation des hypothèses sous-jacentes : taille de la population, absence de mutation, de migration, de sélection, de croisements entre générations. • La remise en cause de certaines hypothèses : étude des effets, rectification des modèles : • simulations pour le cas de petites populations (dérive génique et modèle de Wright), • étude du cas d’une maladie génétique récessive : la mucoviscidose, • étude d’une maladie spécifique locale (ataxie spastique).. • La possibilité de réaliser des transpositions didactiques au niveau lycée, et même collège exploitant des modélisations probabilistes simples.

  47. L’analyse de séquences ADN dont la fonction n’est pas connue • Un thème plus exigeant sur le plan biologique et mathématique, avec un premier niveau de modélisation : celle de l’ADN par un texte sur l’alphabet A, C, G, T, puis une seconde modélisation via des chaînes de Markov. • Mais un thème qui permet d’envisager l’exploitation du travail de modélisation sous l’angle de l’écart à un modèle, avec le problème de la détection de sections codantes du texte : • par la recherche de fragments qui s’écartent d’une répartition aléatoire sur la base des fréquences des lettres, • par la recherche de mots « connus ». • La familiarisation avec ces questions via une transposition sur la succession consonnes-voyelles dans un texte, l’exploration de modèles markoviens simples et l’étude de l’effet de permutations du texte. • L’exploitation sur des données réelles avec la définition de macro Excel appropriées et la transposition au niveau lycée.

  48. ADN et CGR • Plus qu’une modélisation, une représentation GAGCACAGTGGAAGGG…

  49. Les représentations CGR de l’ADN de quatre espèces

More Related