[article]
| Titre : |
Statistiques et probabilités revisitées |
| Type de document : |
texte imprimé |
| Auteurs : |
Adelin Albert, Auteur ; Jacques Bair, Auteur ; Daniel Justens, Auteur |
| Editeur : |
Archimède, 2022 |
| Article : |
p.52-54 |
| Langues : |
Français (fre) |
in Tangente. Hors-série (Paris) > 081 (03/2022)
| Descripteurs : |
probabilité / statistique
|
| Résumé : |
Le point sur l'utilisation de distances usuelles (distance euclidienne, distance de Manhattan) pour la construction des notions statistiques élémentaires de moyenne, d'écart type, de médiane et d'écart médian : la moyenne arithmétique observée d'une série statistique ; le calcul de l'écart médian absolu ; le cas des séries bivariées ; la notion de distance en variation totale et la divergence de Kullback-Leibler (pseudo-distance) pour donner une idée de l'écart existant entre deux probabilités ; la divergence de Kullback-Leibler et la généralisation de la notion d'entropie en théorie de l'information. Encadré : séries bivariées réduites, covariance positive, covariance négative. |
| Nature du document : |
documentaire |
| Genre : |
Article de périodique |
[article]
|
Statistiques et probabilités revisitées
de Adelin Albert, Jacques Bair, Daniel Justens
In Tangente. Hors-série (Paris), 081 (03/2022), p.52-54
Le point sur l'utilisation de distances usuelles (distance euclidienne, distance de Manhattan) pour la construction des notions statistiques élémentaires de moyenne, d'écart type, de médiane et d'écart médian : la moyenne arithmétique observée d'une série statistique ; le calcul de l'écart médian absolu ; le cas des séries bivariées ; la notion de distance en variation totale et la divergence de Kullback-Leibler (pseudo-distance) pour donner une idée de l'écart existant entre deux probabilités ; la divergence de Kullback-Leibler et la généralisation de la notion d'entropie en théorie de l'information. Encadré : séries bivariées réduites, covariance positive, covariance négative.
|
|  |