[article]
Titre : |
Statistiques et probabilités revisitées |
Type de document : |
texte imprimé |
Auteurs : |
Adelin Albert, Auteur ; Jacques Bair, Auteur ; Daniel Justens, Auteur |
Editeur : |
Archimède, 2022 |
Article : |
p.52-54 |
Langues : |
Français (fre) |
in Tangente. Hors-série (Paris) > 081 (03/2022)
Descripteurs : |
probabilité / statistique
|
Résumé : |
Le point sur l'utilisation de distances usuelles (distance euclidienne, distance de Manhattan) pour la construction des notions statistiques élémentaires de moyenne, d'écart type, de médiane et d'écart médian : la moyenne arithmétique observée d'une série statistique ; le calcul de l'écart médian absolu ; le cas des séries bivariées ; la notion de distance en variation totale et la divergence de Kullback-Leibler (pseudo-distance) pour donner une idée de l'écart existant entre deux probabilités ; la divergence de Kullback-Leibler et la généralisation de la notion d'entropie en théorie de l'information. Encadré : séries bivariées réduites, covariance positive, covariance négative. |
Nature du document : |
documentaire |
Genre : |
Article de périodique |
[article]
|
Statistiques et probabilités revisitées
de Adelin Albert, Jacques Bair, Daniel Justens
In Tangente. Hors-série (Paris), 081 (03/2022), p.52-54
Le point sur l'utilisation de distances usuelles (distance euclidienne, distance de Manhattan) pour la construction des notions statistiques élémentaires de moyenne, d'écart type, de médiane et d'écart médian : la moyenne arithmétique observée d'une série statistique ; le calcul de l'écart médian absolu ; le cas des séries bivariées ; la notion de distance en variation totale et la divergence de Kullback-Leibler (pseudo-distance) pour donner une idée de l'écart existant entre deux probabilités ; la divergence de Kullback-Leibler et la généralisation de la notion d'entropie en théorie de l'information. Encadré : séries bivariées réduites, covariance positive, covariance négative.
|
| |