● 1) Matrices définies positives
● 2) Dirac et Kronecker
● 3) Espace probabilisé
● 4) Probabilité conditionnelle
● 5) Exercice: test de dépistage
● 6) Variable aléatoire
● 8) Exercice: fonction indicatrice
● 9) Densité et masse de probabilité
● 10) Loi de probabilité en pratique
● 11) Espérance
● 12) Exercice: probabilité et espérance
● 13) Variance
● 14) Exercice: variance
● 15) Moyenne et variance d'une v.a.
● 16) Domaine de confiance
● 17) Exercice: intégrale et moyenne
● 18) Cas d'une variance nulle
● 19) Lois élémentaires
● 20) Exercice: loi de Bernoulli
● 21) Lois usuelles
● 22) Loi normale multivariée
● 23) Exercice: densité généralisée
● 24) Loi jointe
● 25) Exercice
● 26) Espérance
● 27) Covariance
● 28) Exercice: corrélation
● 29) Loi conditionnelle
● 30) Exercice: urne
● 31) Espérance conditionnelle
● 32) Loi des probabilités totales
● 33) Exercice: loi de l'espérance totale
● 34) Exercice: loi conditionnelle
● 35) Loi de mélange
● 36) Modèle à erreur
● 37) Exercice: modèle linéaire
● 38) Loi normale: que d'hypothèses!
● 39) Triplet de v.a.
● 40) Monty Hall
● 41) Exercice: Monty Hall, préparatifs
● 42) Exercice: Monty Hall, correction
● 43) Indépendance conditionnelle
● 44) Indépendance mutuelle
● 45) Exercice: Markov
● 46) Des probabilités aux statistiques
● 47) Moyenne d'échantillon
● 48) Pi par Monte Carlo
● 49) Générateur pseudo-aléatoires
● 50) Changement de variable
● 51) Exercice: simulation d'une v.a. normale bivariée
● 52) Simulation d'une v.a. discrète, d'une v.a. de mélange
● 53) Loi multinomiale
● 54) Introduction
● 55) Vraisemblance
● 56) Exercice: vraisemblance
● 57) Prédiction
● 58) Estimation
● 59) Exercice
● 60) Obtenir une loi a posteriori
● 61) Proposer une loi a priori
● 62) Erreur, biais, variance, MSE
● 63) Conditionnellement au paramètre
● 64) Exercice
● 65) Exercice
● 66) Conjointement
● 67) Cas du modèle linéaire
● 68) Exercice: les thermomètres
● 69) Observations indépendantes
● 70) Exercice: pièce de monnaie
● 71) Exercice: estimation de probabilités
● 72) Récapitulatif
● 73) Machine learning
● 74) Identification, filtrage bayésien
●
Suis-je en bonne santé ? Mon médecin de famille a son idée préconçue. Mais il va s’aider des analyses biologiques et des études statistiques.
Masters en sciences pour l’ingénieur • Écoles d’ingénieurs
Dans la vie de tous les jours, nous sommes confrontés à l’intervention du hasard:
De tels phénomènes sont dits aléatoires, ou stochastiques. Les quantifier conduit naturellement à utiliser la théorie des probabilités.
Dans l’exemple du tabagisme, imaginons que le médecin n’ait pas confiance dans les déclarations de son patient quant à sa consommation de cigarettes. Il décide de doser le taux de nicotine sanguin par le laboratoire d’analyse médicale. La théorie des probabilités nous propose des outils pour quantifier le lien stochastique entre le nombre de cigarettes par jour et le taux de nicotine.
A partir de ce taux de nicotine, on sera capable d’estimer le nombre de cigarettes quotidiennes. La théorie de l’estimation nous propose plusieurs solutions :
Ces notions qui semblent analogues ont des significations bien différentes en théorie de l’estimation. On distinguera l’estimation classique de l’estimation dite bayésienne.
À la fin de ce cours :
C'est comme vous voulez.
Autant de fois que nécessaire. Et c'est gratuit.
Lu !