⬅︎ Proba2Bayes

Préface

1) Matrices définies positives

2) Dirac et Kronecker

Probabilités

3) Espace probabilisé

4) Probabilité conditionnelle

5) Exercice: test de dépistage

6) Variable aléatoire

7) Exercice: vol de billes

8) Exercice: fonction indicatrice

9) Densité et masse de probabilité

10) Loi de probabilité en pratique

11) Espérance

12) Exercice: probabilité et espérance

13) Variance

14) Exercice: variance

15) Moyenne et variance d'une v.a.

16) Domaine de confiance

17) Exercice: intégrale et moyenne

18) Cas d'une variance nulle

19) Lois élémentaires

20) Exercice: loi de Bernoulli

21) Lois usuelles

22) Loi normale multivariée

23) Exercice: densité généralisée

24) Loi jointe

25) Exercice

26) Espérance

27) Covariance

28) Exercice: corrélation

29) Loi conditionnelle

30) Exercice: urne

31) Espérance conditionnelle

32) Loi des probabilités totales

33) Exercice: loi de l'espérance totale

34) Exercice: loi conditionnelle

35) Loi de mélange

36) Modèle à erreur

37) Exercice: modèle linéaire

38) Loi normale: que d'hypothèses!

39) Triplet de v.a.

40) Monty Hall

41) Exercice: Monty Hall, préparatifs

42) Exercice: Monty Hall, correction

43) Indépendance conditionnelle

44) Indépendance mutuelle

45) Exercice: Markov

46) Des probabilités aux statistiques

47) Moyenne d'échantillon

48) Pi par Monte Carlo

49) Générateur pseudo-aléatoires

50) Changement de variable

51) Exercice: simulation d'une v.a. normale bivariée

52) Simulation d'une v.a. discrète, d'une v.a. de mélange

53) Loi multinomiale

Estimation

54) Introduction

55) Vraisemblance

56) Exercice: vraisemblance

57) Prédiction

58) Estimation

59) Exercice

60) Obtenir une loi a posteriori

61) Proposer une loi a priori

62) Erreur, biais, variance, MSE

63) Conditionnellement au paramètre

64) Exercice

65) Exercice

66) Conjointement

67) Cas du modèle linéaire

68) Exercice: les thermomètres

69) Observations indépendantes

70) Exercice: pièce de monnaie

71) Exercice: estimation de probabilités

72) Récapitulatif

73) Machine learning

74) Identification, filtrage bayésien

Des probabilités à l'estimation bayésienne

Suis-je en bonne santé ? Mon médecin de famille a son idée préconçue. Mais il va s’aider des analyses biologiques et des études statistiques.

Comment apprendre avec cette formation en ligne ?

      

Descriptif de la formation

Pour qui ?

Masters en sciences pour l’ingénieur • Écoles d’ingénieurs

Quoi ?

Pourquoi ?

Dans la vie de tous les jours, nous sommes confrontés à l’intervention du hasard:

De tels phénomènes sont dits aléatoires, ou stochastiques. Les quantifier conduit naturellement à utiliser la théorie des probabilités.
Dans l’exemple du tabagisme, imaginons que le médecin n’ait pas confiance dans les déclarations de son patient quant à sa consommation de cigarettes. Il décide de doser le taux de nicotine sanguin par le laboratoire d’analyse médicale. La théorie des probabilités nous propose des outils pour quantifier le lien stochastique entre le nombre de cigarettes par jour et le taux de nicotine.
A partir de ce taux de nicotine, on sera capable d’estimer le nombre de cigarettes quotidiennes. La théorie de l’estimation nous propose plusieurs solutions :

Ces notions qui semblent analogues ont des significations bien différentes en théorie de l’estimation. On distinguera l’estimation classique de l’estimation dite bayésienne.
À la fin de ce cours :

Par qui ?

Où et quand ?

C'est comme vous voulez.

Combien ?

Autant de fois que nécessaire. Et c'est gratuit.

Lu !