229 -- Fonctions monotones. Fonctions convexes. Exemples et applications. : Différence entre versions

De AgregmathKL
Aller à : navigation, rechercher
(rapport du jury)
 
(13 révisions intermédiaires par 8 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
Dans la liste des développements pour la leçon 229, il y a ceux qu'Antoine Marnat et moi-même (Simon Billouet) avons proposé : ellipsoïde de John-Löwner (développement qui se recase dans plein de leçons, et pour être honnête on l'avait mis pour avoir un troisième développement...) ; théorème des trois droites d'Hadamard (que je trouve à la limite du hors-sujet, il faut en tout cas être très à l'aise sur l'holomorphie et particulièrement le principe du maximum pour le présenter) ; théorème de Helly et théorème de Dini.
+
= Plans =
  
Pour ceux qui trouvent que l'alliance "Helly/Dini" est artificielle, je suis d'accord. Une solution trouvée pour les fans de probas peut être trouvée en mettant un "Helly/Prokorov". Le théorème de Prokorov est une application de Helly qui dit qu'une suite de probabilités tendues sur <math>\mathbb{R}</math> (i.e. <math>\forall \epsilon, \exists K</math> compact tel que <math>\forall n, p_{n}(K)>1-\epsilon</math>) admet une sous-suite qui converge étroitement. Je ne ferai pas ce choix mais bon...
+
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2013-2014.pdf|24px]] [[Média:229_2013-2014.pdf | Plan scanné de l'année 2013-2014]]
  
Enfin, un développement qui rentrerait plus dans la leçon est de développer la méthode du gradient (on peut même prendre un exemple si on est trop court). L'intérêt est que ça se recase aussi dans des leçons type "Convergence des suites numériques" pour des raisons que je n'expliciterai pas. LA référence sur le sujet est le bouquin de Ciarlet "Introduction à l'analyse numérique matricielle et à l'optimisation".
+
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2014-2015.pdf|24px]] [[Média:229_2014-2015.pdf | Plan scanné de l'année 2014-2015]]
  
 +
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2016-2017.pdf|24px]] [[Média:229_2016-2017.pdf | Plan scanné de l'année 2016-2017]]
  
 +
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2017-2018.pdf|24px]] [[Média:229_2017-2018.pdf | Plan scanné de l'année 2017-2018]]
  
== Rapport du jury ==
+
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2018-2019.pdf|24px]] [[Média:229_2018-2019.pdf | Plan scanné de l'année 2018-2019]]
 +
 
 +
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2019-2020.pdf|24px]] [[Média:229_2019-2020.pdf | Plan scanné de l'année 2019-2020]]
 +
 
 +
[[Fichier:Pdf.png|alt=Pdf|link=Média:229_2020-2021.pdf|24px]] [[Média:229_2020-2021.pdf | Plan scanné de l'année 2020-2021]] & [[Fichier:Pdf.png|alt=Pdf|link=Média:229_errata_ 2020-2021.pdf|24px]] [[Média:229_errata_2019-2020.pdf | errata]] associé
 +
 
 +
 
 +
= Développements =
 +
<DynamicPageList>
 +
category            = Développement de la leçon 229
 +
</DynamicPageList>
 +
 
 +
 
 +
= Divers =
 +
Dans la liste des développements pour la leçon 229, il y a ceux qu'Antoine Marnat et moi-même (Simon Billouet) avons proposé : ellipsoïde de John-Löwner (développement qui se recase dans plein de leçons, et pour être honnête on l'avait mis pour avoir un troisième développement...) ; théorème des trois droites d'Hadamard (que je trouve à la limite du hors-sujet, il faut en tout cas être très à l'aise sur l'holomorphie et particulièrement le principe du maximum pour le présenter) ; théorème de Helly et théorème de Dini.
 +
 
 +
Pour ceux qui trouvent que l'alliance "Helly/Dini" est artificielle, je suis d'accord. Une solution trouvée pour les fans de probas peut être trouvée en mettant un "Helly/Prokorov". Le théorème de Prokorov est une application de Helly qui dit qu'une suite de probabilités tendues sur <math>\mathbb{R}</math> (i.e. <math>\forall \epsilon, \exists K</math> compact tel que <math>\forall n, p_{n}(K)>1-\epsilon</math>) admet une sous-suite qui converge étroitement. Je ne ferai pas ce choix mais bon...
 +
 
 +
Enfin, un développement qui rentrerait plus dans la leçon est de développer la méthode du gradient (on peut même prendre un exemple si on est trop court). L'intérêt est que ça se recase aussi dans des leçons type "Convergence des suites numériques" pour des raisons que je n'expliciterai pas. LA référence sur le sujet est le bouquin de Ciarlet "Introduction à l'analyse numérique matricielle et à l'optimisation".
  
Les candidats sont invités à réfléchir à l’incidence de ces notions en théorie des probabilités. La dérivabilité presque partout des fonctions monotones est un résultat important. Le jury souhaiterait que les candidats illustrent leurs propos et raisonnements sur les fonctions convexes par des dessins clairs. Il n’est pas déraisonnable de parler de fonctions à variation bornée.
 
  
Le théorème sur l’existence des limites (à gauche ou à droite) d’une fonction monotone est souvent mal énoncé.
+
[[Category: Leçon d'analyse]]

Version actuelle en date du 21 avril 2022 à 21:51

Plans

Pdf Plan scanné de l'année 2013-2014

Pdf Plan scanné de l'année 2014-2015

Pdf Plan scanné de l'année 2016-2017

Pdf Plan scanné de l'année 2017-2018

Pdf Plan scanné de l'année 2018-2019

Pdf Plan scanné de l'année 2019-2020

Pdf Plan scanné de l'année 2020-2021 & Pdf errata associé


Développements


Divers

Dans la liste des développements pour la leçon 229, il y a ceux qu'Antoine Marnat et moi-même (Simon Billouet) avons proposé : ellipsoïde de John-Löwner (développement qui se recase dans plein de leçons, et pour être honnête on l'avait mis pour avoir un troisième développement...) ; théorème des trois droites d'Hadamard (que je trouve à la limite du hors-sujet, il faut en tout cas être très à l'aise sur l'holomorphie et particulièrement le principe du maximum pour le présenter) ; théorème de Helly et théorème de Dini.

Pour ceux qui trouvent que l'alliance "Helly/Dini" est artificielle, je suis d'accord. Une solution trouvée pour les fans de probas peut être trouvée en mettant un "Helly/Prokorov". Le théorème de Prokorov est une application de Helly qui dit qu'une suite de probabilités tendues sur {\mathbb  {R}} (i.e. \forall \epsilon ,\exists K compact tel que \forall n,p_{{n}}(K)>1-\epsilon ) admet une sous-suite qui converge étroitement. Je ne ferai pas ce choix mais bon...

Enfin, un développement qui rentrerait plus dans la leçon est de développer la méthode du gradient (on peut même prendre un exemple si on est trop court). L'intérêt est que ça se recase aussi dans des leçons type "Convergence des suites numériques" pour des raisons que je n'expliciterai pas. LA référence sur le sujet est le bouquin de Ciarlet "Introduction à l'analyse numérique matricielle et à l'optimisation".