Question:
Pourquoi ne trouvez-vous pas la probabilité d'une valeur spécifique pour la distribution normale?
Christopher U
2020-08-06 13:30:54 UTC
view on stackexchange narkive permalink

J'apprends la distribution normale et je regarde cette vidéo.

A 6h28, la question posée est de savoir quelle est la probabilité qu'une glace pèse exactement 120 grammes (en utilisant la distribution normale).Elle déclare que la réponse à cette question est zéro, car la probabilité de toute valeur exacte est nulle dans une distribution normale.Elle déclare ensuite qu'il existe une infinité de poids de 199,9 à 120,1, et que la probabilité d'un poids spécifique est de 1 sur l'infini, qui est zéro.

enter image description here

Je suis un peu confus à ce sujet.Pourquoi la probabilité est-elle un sur l'infini pour une valeur spécifique, comme à 120?Elle déclare ensuite qu'une crème glacée peut peser 120 grammes ou 120,000001 grammes;comment cela est-il lié à la probabilité qu'un point spécifique soit nul?

Ce qui vous manque, c'est le concept de «densité de probabilité».La réponse acceptée à cette question pourrait être utile: https://stats.stackexchange.com/questions/4220/can-a-probability-distribution-value-exceeding-1-be-ok
Est-ce que cela répond à votre question?[Une valeur de distribution de probabilité supérieure à 1 peut-elle être correcte?] (Https://stats.stackexchange.com/questions/4220/can-a-probability-distribution-value-exceeding-1-be-ok)
@ItamarMushkin Je ne vois pas comment ce lien pourrait éventuellement aider avec cette question?Pouvez-vous développer?(Ou supprimez votre commentaire.)
@Brondahl Cette réponse acceptée explique le concept de «densité de probabilité», qui est essentiellement ce qui manque ici.
Je ne suis pas d'accord pour dire que le problème fondamental est un manque de compréhension de ce qu'est la densité de probabilité.La confusion concerne les nombres réels, les variables continues et les limites.Selon la réponse @Tim's.
Je pense qu'il est très probable que si vous demandiez au personnel d'un magasin de crème glacée de mesurer et d'enregistrer le poids d'un grand nombre de glaces pesant environ 120 grammes, l'ensemble de données résultant contiendrait plusieurs entrées enregistrées ou entrées comme 120 grammes..En fait, je doute que l'échelle soit en mesure de détecter la différence entre 120,0 et 120,1, ou qu'au moment où ils l'ont mesurée, certains n'avaient pas fondu.Pour illustrer que les variables aléatoires continues n'ont pas de masse, on pourrait faire mieux que la glace à la vanille.Peut-être du chocolat.
Est-ce que cela répond à votre question?[Comment la probabilité de chaque point peut-elle être nulle dans une variable aléatoire continue?] (Https://stats.stackexchange.com/questions/273382/how-can-the-probability-of-each-point-be-zero-in-continuous-random-variable) Cette question est posée régulièrement partout y compris sur ce tableau.
Douze réponses:
Henry
2020-08-06 15:47:56 UTC
view on stackexchange narkive permalink

La vidéo suggère que $ \ mu = 112 $ g et $ \ sigma = 9 $ g dans cette distribution normale particulière.

Si tel est le cas, nous pouvons trouver la probabilité que le poids soit dans un intervalle donné, dans la vidéo décrite comme la zone sous le graphique pour cet intervalle. Par exemple, la probabilité qu'il se situe entre 119,5 $ g et 120,5 $ g est $$ \ Phi \ left (\ tfrac {120.5-112} {9} \ right) - \ Phi \ left (\ tfrac {119.5-112} {9} \ right) = \ Phi \ left (\ tfrac {17} {18} \ right) - \ Phi \ left (\ tfrac {15} {18} \ right) \ approx 0.82753- 0.79767 = 0.02986 $$ que la vidéo décrit comme à propos de 0,03 $ $

De même, nous pouvons examiner d'autres intervalles autour de 120 $ $ g:

  Probabilité supérieure inférieure
119 121 0,05969
119,5 120,5 0,02986
119,9 120,1 0,00592
119,99 120,01 0,00059
119,999 120,001 0,00006
 

et comme nous réduisons la largeur de l'intervalle par un facteur de 10 $ à chaque fois, la probabilité que le poids soit dans ce plus étroit diminue également à peu près d'un facteur sur 10 $ . Ainsi, lorsque l'intervalle tombe vers zéro, la probabilité d'être dans cet intervalle tombe également vers zéro.

En ce sens, la probabilité d'être exactement 120 $ doit être inférieure à tout nombre positif et doit donc être $ 0 $ .

Pardon que signifie phi?Est-ce la même chose qu'un score z?
@ChristopherU $ \ Phi $ est la fonction de distribution cumulative d'une distribution normale standard (c'est-à-dire avec une moyenne de 0 $ et une variance de 1 $).Donc si $ Z $ a une distribution normale standard alors $ \ Pr (Z \ le z) = \ Phi (z) $ et par exemple $ \ Phi (1.96) \ approx 0.975 $
Merci, où avez-vous obtenu Z≤z?
@ChristopherU $ Z \ le z $ est juste l'événement selon lequel une variable aléatoire $ Z $ est inférieure à une valeur spécifique $ z $, donc $ \ Pr (Z \ le z) $ est la probabilité de cet événement.
Tim
2020-08-06 16:21:35 UTC
view on stackexchange narkive permalink

Je suppose que la déclaration pourrait être plus précise et ensuite elle pourrait être plus facile à comprendre. Tout d'abord, $ f (x) = \ tfrac {1} {C} $ , où $ C $ span> est une constante de sorte qu'elle s'intègre à l'unité, est une densité de probabilité d'une distribution uniforme qui attribue la même densité de probabilité à chaque point. Une distribution normale n'a pas la même forme plate, de sorte que des densités de probabilité différentes s'appliquent à différentes valeurs. Dans ce qui suit, $ \ frac {1} {\ infty} $ est simplement utilisé comme exemple pour montrer des idées générales sur les densités de probabilité.

Mais restons fidèles à l'exemple. $ \ frac {1} {\ infty} $ n'est pas égal à zéro (voir Quora, ou réponses math.stackoverflow.com). Vous ne pouvez pas diviser par l'infini, car ce n'est pas un nombre. Ce que vous pouvez dire, c'est que la limite est nulle

$$ \ lim_ {x \ to \ infty} \ frac {1} {x} = 0 $$

alors que $ x $ augmente, $ \ tfrac {1} {x} $ se rapproche et plus proche de zéro. C'est pourquoi il existe une convention pour dire qu'il "vaut" zéro. Dans le cas de variables aléatoires continues, il existe une infinité de valeurs sur la ligne réelle; par conséquent, même dans le cas le plus simple d'une distribution uniforme, nous ne pouvons pas calculer la probabilité. En théorie des probabilités, nous ne calculons pas les probabilités pour les variables aléatoires continues, car elles sont tellement infinitésimales, de sorte que nous disons qu'elles sont nulles.

Voir aussi le thread $ P [X = x] = 0 $ lorsque $ X $ est une variable continue.

Bonne réponse.Une autre façon de voir cela consiste à utiliser le terme «presque jamais» qui signifie qu'un événement a une probabilité arbitrairement proche de zéro, mais que l'ensemble des événements qui satisfont au critère est non vide (vous * pourriez * effectivement trouver un poidsd'exactement 120, mais c'est infiniment probable).Cela contraste avec un événement "impossible", qui a vraiment une probabilité nulle et qui n'a pas de résultats possibles qui satisfont le critère (vous n'avez pas pu trouver de poids négatif, par exemple).
Merci beaucoup pour la réponse utile.J'obtiens la partie lim -> infinity maintenant, mais je ne comprends toujours pas pourquoi la probabilité est "zéro" à un certain point.Disons que si nous essayons de trouver la probabilité à 23 sur une distribution normale, pourquoi est-ce 0?
@ChristopherU parce que les points se trouvent sur une ligne réelle, il existe donc une infinité de ces points.S'il y en a une infinité, la chance d'en choisir un est infiniment petite.
Tomas Zubiri
2020-08-07 00:00:20 UTC
view on stackexchange narkive permalink

Si vous sortez une personne au hasard d'un pays dont la répartition de la population est bien étudiée, quelles sont les chances qu'elle ait 30 ans? Il y a sûrement une réponse à cette question, si vous considérez qu'une personne née il y a 30 ans et 2 mois a 30 ans. Mais que faire si vous recherchez une précision mensuelle? Alors seules les personnes nées il y a 30 ans répondraient à vos critères. Et si vous continuez à limiter vos exigences, seconde précision, précision au milliseconde, précision picoseconde, précision du temps de planck. Finalement, vous constaterez que personne ne correspond à vos critères étroits de 30 ans, mais il sera toujours possible que quelqu'un corresponde à ces critères, et vous pouvez expliquer cette probabilité avec des nombres fractionnaires.

Si vous continuez à réduire votre tranche d'âge afin de ne considérer que les personnes d'exactement 30 ans, alors vous avez effectivement réduit votre plage à son maximum, c'est une plage composée d'exactement un nombre, la limite supérieure est égale à la limite inférieure lié, comme vous pouvez le supposer à partir de la progression des plages de temps larges à étroites, la probabilité qu'une personne ait exactement 30 ans tend vers 0.

Cela ne se produit que si nous considérons notre domaine (temps / âge) comme une valeur continue, plutôt que discrète, donc il y a des valeurs intermédiaires infinies entre une valeur et toute autre valeur.

Si nous considérons que le temps est discret, par exemple en considérant un temps de planck comme l'intervalle de temps le plus court possible, alors la probabilité qu'une personne ait exactement 30 ans peut être exprimée dans l'ordre temps-planck / an, ce qui bien qu'étant très petit, c'est fini.

gunes
2020-08-06 14:51:55 UTC
view on stackexchange narkive permalink

Pour les distributions continues, comme la distribution normale, la probabilité que la variable aléatoire soit égale à une valeur spécifique est $ 0 $ .Bien que ce ne soit pas mathématiquement précis, la vidéo tente simplement de créer une certaine intuition.Cela dit que s'il y avait une probabilité non nulle pour $ P (X = x) $ , la somme $ \ sum_xP (X = x) $ irait à $ \ infty $ , ce qui viole les axiomes de probabilité car il y en a indénombrables nombres entre 119,9 et 120,1.

Bernhard Barker
2020-08-06 23:58:13 UTC
view on stackexchange narkive permalink

Prenons un exemple un peu plus simple de génération d'un nombre aléatoire uniformément entre 0 et 1.

Commençons par un problème encore plus simple de choisir une valeur aléatoire qui est juste 0 ou 1. Il y a 2 valeurs possibles, donc la chance d'obtenir exactement 0 est $ \ frac { 1} {2} = 0,5 $ .

Maintenant, considérez si vous avez un autre point entre ces 2 donc vous avez 0, 0,5 et 1. Il y a 3 valeurs possibles, donc la chance d'obtenir exactement 0 est $ \ frac { 1} {3} = 0,33 $ .

Maintenant, placez un autre point entre chacun d'entre eux pour avoir 0, 0,25, 0,5, 0,75 et 1. Il y a 5 valeurs possibles, donc la chance d'obtenir exactement 0 est $ \ frac {1} {5} = 0,2 $ .

Maintenant, mettez un autre point entre chacun d'entre eux pour avoir 0, 0,125, 0,25, 0,375, 0,5, 0,625, 0,75, 0,875 et 1. Il y a 9 valeurs possibles, donc la chance d'obtenir exactement 0 est $ \ frac {1} {9} = 0,11 $ .

Nous sommes toujours entre 0 et 1, donc toutes ces valeurs seraient des valeurs possibles si nous choisissons une valeur entre 0 et 1 et vous pouvez voir que la probabilité diminue.

Continuez comme ça et il y aura de plus en plus de points et la probabilité d'en obtenir un en particulier devient de plus en plus petite, tendant vers 0.

La même idée est vraie avec une distribution normale: il y a une infinité de points dans une plage donnée, donc la probabilité d'obtenir l'un d'entre eux tend vers 0.

Si c'est réellement strictement égal à 0, je laisserai à d'autres personnes le soin de discuter.

Sextus Empiricus
2020-08-06 23:10:16 UTC
view on stackexchange narkive permalink

1

Essayons ceci pour une distribution normale standard.

  set.seed (1)
x = rnorm (10 ^ 4)
 

Si ces valeurs $ 10 ^ 4 $ , beaucoup seront proches de la moyenne (c'est-à-dire zéro). Mais aucun d'entre eux n'est égal à zéro.

  [1] -6.264538e-01 1.836433e-01 -8.356286e-01 1.595281e + 00 3.295078e-01
    [6] -8.204684e-01 4,874291e-01 7,383247e-01 5,757814e-01 -3,053884e-01
   [11] 1.511781e + 00 3.898432e-01 -6.212406e-01 -2.214700e + 00 1.124931e + 00
   [16] -4,493361e-02 -1,619026e-02 9,438362e-01 8,212212e-01 5,939013e-01
   [21] 9.189774e-01 7.821363e-01 7.456498e-02 -1.989352e + 00 6.198257e-01
   [26] -5.612874e-02 -1.557955e-01 -1.470752e + 00 -4.781501e-01 4.179416e-01
   [31] 1.358680e + 00 -1.027877e-01 3.876716e-01 -5.380504e-02 -1.377060e + 00
   [36] -4,149946e-01 -3,942900e-01 -5,931340e-02 1,100025e + 00 7,631757e-01
   [41] -1,645236e-01 -2,533617e-01 6,969634e-01 5,566632e-01 -6,887557e-01
   [46] -7,074952e-01 3,645820e-01 7,685329e-01 -1,123462e-01 8,811077e-01
   [51] 3.981059e-01 -6.120264e-01 3.411197e-01 -1.129363e + 00 1.433024e + 00
   [56] 1.980400e + 00 -3.672215e-01 -1.044135e + 00 5.697196e-01 -1.350546e-01
   [61] 2.401618e + 00 -3.924000e-02 6.897394e-01 2.800216e-02 -7.432732e-01
   [66] 1.887923e-01 -1.804959e + 00 1.465555e + 00 1.532533e-01 2.172612e + 00
   [71] 4.755095e-01 -7.099464e-01 6.107264e-01 -9.340976e-01 -1.253633e + 00
   [76] 2.914462e-01 -4.432919e-01 1.105352e-03 7.434132e-02 -5.895209e-01
   [81] -5,686687e-01 -1,351786e-01 1,178087e + 00 -1,523567e + 00 5,939462e-01
   [86] 3.329504e-01 1.063100e + 00 -3.041839e-01 3.700188e-01 2.670988e-01
   [91] -5.425200e-01 1.207868e + 00 1.160403e + 00 7.002136e-01 1.586833e + 00
   [96] 5.584864e-01 -1.276592e + 00 -5.732654e-01 -1.224613e + 00 -4.734006e-01
  [101] -6.203667e-01 4.211587e-02 -9.109216e-01 1.580288e-01 -6.545846e-01
  [106] 1.767287e + 00 7.167075e-01 9.101742e-01 3.841854e-01 1.682176e + 00
(111) -6.357365e-01 -4.616447e-01 1.432282e + 00 -6.506964e-01 -2.073807e-01
  (116) -3.928079e-01 -3.199929e-01 -2.791133e-01 4.941883e-01 -1.773305e-01
  (121) -5.059575e-01 1.343039e + 00 -2.145794e-01 -1.795565e-01 -1.001907e-01
  (126) 7.126663e-01 -7.356440e-02 -3.763417e-02 -6.816605e-01 -3.242703e-01
  (131) 6.016044e-02-5.888945e-01 5.314962e-01 -1.518394e + 00 3.065579e-01
  (136) -1.536450e + 00 -3.009761e-01 -5.282799e-01 -6.520948e-01 -5.689678e-02
  (141) -1.914359e + 00 1.176583e + 00 -1.664972e + 00 -4.635304e-01 -1.115920e + 00
  (146) -7.508190e-01 2.087167e + 00 1.739562e-02 -1.286301e + 00 -1.640606e + 00
  (151) 4.501871e-01 -1.855983e-02 -3.180684e-01 -9.293621e-01 -1.487460e + 00
  (156) -1.075192e + 00 1.000029e + 00 -6.212667e-01 -1.384427e + 00 1.869291e + 00
  (161) 4.251004e-01 -2.386471e-01 1.058483e + 00 8.864227e-01 -6.192430e-01
  (166) 2.206102e + 00 -2.550270e-01 -1.424495e + 00 -1.443996e-01 2.075383e-01
  (171) 2.307978e + 00 1.058024e-01 4.569988e-01 -7.715294e-02 -3.340008e-01
  (176) -3.472603e-02 7.876396e-01 2.075245e + 00 1.027392e + 00 1.207908e + 00
  (181) -1.231323e + 00 9.838956e-01 2.199248e-01 -1.467250e + 00 5.210227e-01
  (186) -1,587546e-01 1.464587e + 00 -7.660820e-01 -4.302118e-01 -9.261095e-01
  (191) -1.771040e-01 4.020118e-01 -7.317482e-01 8.303732e-01 -1.208083e + 00
  (196) -1.047984e + 00 1.441158e + 00 -1.015847e + 00 4.119747e-01 -3.810761e-01
  (201) 4.094018e-01 1.688873e + 00 1.586588e + 00-3.309078e-01 -2.285236e + 00
  (206) 2.497662e + 00 6.670662e-01 5.413273e-01 -1.339952e-02 5.101084e-01
  (211) -1.643758e-01 4.206946e-01 -4.002467e-01 -1.370208e + 00 9.878383e-01
  (216) 1.519745e + 00-3.087406e-01 -1.253290e + 00 6.422413e-01 -4.470914e-02
  (221) -1.733218e + 00 2.131860e-03 -6.303003e-01 -3.409686e-01 -1.156572e + 00
  (226) 1.803142e + 00-3.311320e-01 -1.605513e + 00 1.971934e-01 2.631756e-01
  (231) -9.858267e-01 -2.888921e + 00 -6.404817e-01 5.705076e-01 -5.972328e-02
(236) -9.817874e-02 5.608207e-01 -1.186459e + 00 1.096777e + 00 -5.344028e-03
  (241) 7.073107e-01 1.034108e + 00 2.234804e-01-8.787076e-01 1.162965e + 00
  (246) -2.000165e + 00 -5.447907e-01 -2.556707e-01 -1.661210e-01 1.020464e + 00
  (251) 1.362219e-01 4.071676e-01 -6.965481e-02 -2.476643e-01 6.955508e-01
  (256) 1.146228e + 00 -2.403096e + 00 5.727396e-01 3.747244e-01 -4.252677e-01
  (261) 9.510128e-01-3.892372e-01 -2.843307e-01 8.574098e-01 1.719627e + 00
  (266) 2.700549e-01 -4.221840e-01 -1.189113e + 00 -3.310330e-01 -9.398293e-01
  (271) -2.589326e-01 3.943792e-01 -8.518571e-01 2.649167e + 00 1.560117e-01
  (276) 1.130207e + 00 -2.289124e + 00 7.410012e-01 -1.316245e + 00 9.198037e-01
  (281) 3.981302e-01 -4.075286e-01 1.324259e + 00 -7.012317e-01 -5.806143e-01
  (286) -1.001072e + 00-6.681786e-01 9.451850e-01 4.337021e-01 1.005159e + 00
  [291] -3.901187e-01 3.763703e-01 2.441649e-01 -1.426257e + 00 1.778429e + 00
  (296) 1.344477e-01 7.655990e-01 9.551367e-01 -5.056570e-02 -3.058154e-01
  (301) 8.936737e-01 -1.047298e + 00 1.971337e + 00 -3.836321e-01 1.654145e + 00
  (306) 1.512213e + 00 8.296573e-02 5.672209e-01 -1.024548e + 00 3.230065e-01
  (311) 1.043612e + 00 9.907849e-02 -4.541369e-01 -6.557819e-01 -3.592242e-02
  (316) 1.069161e + 00 -4.839749e-01 -1.210101e-01 -1.294140e + 00 4.943128e-01
  [321] 1.307902e + 00 1.497041e + 00 8.147027e-01 -1.869789e + 00 4.820295e-01
  (326) 4.561356e-01 -3.534003e-01 1.704895e-01 -8.640360e-01 6.792308e-01
  (331) -3.271010e-01 -1.569082e + 00 -3.674508e-01 1.364435e + 00 -3.342814e-01
  (336) 7.327500e-01 9.465856e-01 4.398704e-03 -3.523223e-01 -5.296955e-01
  (341) 7.395892e-01 -1.063457e + 00 2.462108e-01 -2.894994e-01 -2.264889e + 00
  (346) -1.408850e + 00 9.160193e-01 -1.912790e-01 8.032832e-01 1.887474e + 00
  (351) 1.473881e + 00 6.772685e-01 3.799627e-01 -1.927984e-01 1.577892e + 00
  (356) 5.962341e-01 -1.173577e + 00 -1.556425e-01 -1.918910e + 00 -1.952588e-01
(361) -2.592328e + 00 1.314002e + 00 -6.355430e-01 -4.299788e-01 -1.693183e-01
  (366) 6.122182e-01 6.783402e-01 5.679520e-01-5.725426e-01 -1.363291e + 00
  [371] -3.887222e-01 2.779141e-01 -8.230811e-01 -6.884093e-02 -1.167662e + 00
  [376] -8.309014e-03 1.288554e-01 -1.458756e-01 -1.639110e-01 1.763552e + 00
  [381] 7.625865e-01 1.111431e + 00 -9.232070e-01 1.643418e-01 1.154825e + 00
  [386] -5.652142e-02 -2.129361e + 00 3.448458e-01 -1.904955e + 00 -8.111702e-01
  (391) 1.324004e + 00 6.156368e-01 1.091669e + 00 3.066049e-01 -1.101588e-01
  [396] -9.243128e-01 1.592914e + 00 4.501060e-02 -7.151284e-01 8.652231e-01
  (401) 1.074441e + 00 1.895655e + 00 -6.029973e-01 -3.908678e-01 -4.162220e-01
  (406) -3.756574e-01 -3.666309e-01 -2.956775e-01 1.441820e + 00 -6.975383e-01
  (411) -3.881675e-01 6.525365e-01 1.124772e + 00 -7.721108e-01 -5.080862e-01
  [416] 5.236206e-01 1.017754e + 00 -2.511646e-01 -1.429993e + 00 1.709121e + 00
  (421) 1.435070e + 00 -7.103711e-01 -6.506757e-02 -1.759469e + 00 5.697230e-01
  (426) 1.612347e + 00 -1.637281e + 00 -7.795685e-01 -6.411769e-01 -6.811314e-01
  (431) -2.033286e + 00 5.009636e-01 -1.531798e + 00 -2.499764e-02 5.929847e-01
  [436] -1,981954e-01 8,920084e-01 -2,571507e-02 -6,476605e-01 6,463594e-01
 

...

  et ainsi de suite
 

(Comme Ben Bolker le mentionne dans les commentaires, cet exercice a en fait une probabilité non nulle de donner exactement un nombre particulier. Mais c'est parce que les ordinateurs ont un fini ou discret ensemble de nombres. La vraie distribution normale est une distribution continue avec une possibilité infinie de nombres comme résultat)

2

S'il existe une infinité de possibilités, la probabilité de l'une d'entre elles peut être nulle. Pour obtenir une mesure non nulle, vous avez besoin d'une plage de valeurs. Par exemple, vous pouvez parler de la probabilité que la glace soit comprise entre 119,9 et 120,1 grammes.

3

Intuition, Imaginez que vous vouliez choisir un nombre rationnel entre 0 et 1 en lançant une fléchette sur un tableau et où la fléchette se terminera sera le nombre que vous choisissez.Disons que la probabilité où la fléchette se termine sera continue et uniforme.Ensuite, la probabilité pour que la fléchette se retrouve dans une certaine région peut être déterminée par la taille de l'intervalle (la mesure de Lebesgue).

La probabilité que la fléchette se termine dans un intervalle particulier sera égale à la taille de l'intervalle.Par exemple, la probabilité que la fléchette finisse entre 0 et 0,5 est de 0,5, la probabilité que la fléchette se retrouve entre 0,211 et 0,235 est de 0,024, et ainsi de suite.

Mais maintenant, imaginez la "taille" de la région pour un seul point ... c'est zéro.

mais finalement si vous choisissez suffisamment de valeurs aléatoires, certaines d'entre elles seront nulles avec la précision que l'ordinateur utilise (je pense que cela prendra quelque chose de moins de 10 ^ 16 échantillons ...)
@BenBolker, oui la "distribution normale de l'ordinateur" n'est pas une vraie distribution normale.Mais la grande liste de nombres aléatoires devrait montrer ce qui se passe.
Certains lecteurs trouveront cet exemple éclairant, d'autres le trouveront déroutant.Je pense que cela serait grandement amélioré avec une discussion sur ce qui se passe, pas seulement présenté comme un fait dont vous attendez que le lecteur tire la bonne conclusion ...
Si vous y réfléchissez, le poids d'un objet n'est-il pas non plus un nombre discret, et donc pas vraiment une variable distribuée normale?Sinon, vous pouvez réfléchir à l'enregistrement de la mesure et à la manière dont elle est discrétisée.* "une glace pesant exactement 120 grammes" * qu'est-ce que cela signifie?
Oui, et pour cette raison, l'exemple donné par l'instructeur de l'OP (une crème glacée (cuillère? Cône? Échantillon?) Ne pèsera jamais exactement 120 g) n'est pas vrai dans le monde réel: la balance a une précision finie, donc la glace pourraitpeser 120,000000000000 grammes jusqu'à la précision de la balance.Mais c'est exactement cette distinction entre le monde mathématique (travailler avec des nombres réels, au sens technique) et le monde réel qui peut aider les lecteurs à comprendre ce que signifie le monde mathématique.Je répète que ** votre réponse serait meilleure avec un texte explicatif supplémentaire ** ...
PS une échelle qui mesure en fait à 12 décimales (c'est-à-dire au picogramme) serait assez impressionnante.
Merci @BenBolker de m'avoir poussé à améliorer la réponse.J'aime parfois donner une réponse cryptique, mais je pense que c'est mieux maintenant avec le texte supplémentaire.
llama
2020-08-07 03:14:43 UTC
view on stackexchange narkive permalink

Pour une analogie dans le monde réel, imaginez lancer un crayon en l'air de manière à ce qu'il ait une probabilité égale d'atterrir à n'importe quel angle, mesuré par rapport au nord.Quelle est la probabilité qu'il atterrisse à exactement 120 degrés?Cela peut être très proche, et environ 1 fois sur 360 il sera entre 120,5 et 119,5 degrés, mais ce ne sera jamais exactement à 120, car si vous pouvez mesurer l'angle un peu plus précisément, vous constaterez qu'il est en fait à 120,002,ou 119,99999999999997, et ainsi de suite, en supposant que l'espace réel est en fait continu et que vous pouvez mesurer un angle sur un nombre infini de chiffres.

Le fait est que, comme cette distribution de probabilité est continue, il y a une infinité de nombres juste à côté de n'importe quel nombre que vous pouvez choisir.Le corollaire quelque peu étrange est que les événements avec une probabilité nulle se produisent tout le temps: avant de lancer le crayon, la probabilité qu'il atterrisse à un angle spécifique est de zéro, mais il va atterrir à un angle spécifique.

Sathya Ih
2020-08-06 16:13:08 UTC
view on stackexchange narkive permalink

La distribution normale est une distribution de probabilité continue et dans la distribution de probabilité continue, la méthode de recherche de la probabilité consiste à intégrer sur la plage ou la zone sous la courbe.lorsque vous voulez trouver une probabilité pour une valeur unique, cela deviendra une ligne dans le graphique de pdf.Nous ne pouvons pas trouver sa zone.Ou en d'autres termes, si la limite inférieure et la limite supérieure d'une intégrale ont la même valeur, le résultat de cette intégrale est zéro.

Dayne
2020-08-07 07:53:03 UTC
view on stackexchange narkive permalink

Ce dont nous avons besoin, c'est d'un peu d'intuition des variables aléatoires continues :

Teacher: Disons que nous avons jeté une bonne pièce 10 fois. Sur quel résultat placeriez-vous votre pari?

(Naive) Student: (5H, 5T), car c'est une pièce juste.

Teacher: C'est donc ce à quoi vous vous attendez mais que vous n'obtiendrez pas nécessairement. En fait, la probabilité de (5H, 5T) est $ {10 \ choose5} * (1/2) ^ 5 * (1/2) ^ 5 = 0.25 $ span >.

Student: Je suppose que nous lançons trop moins de fois. Une pièce équitable devrait donner la moitié de la tête et la moitié de la queue si nous lançons suffisamment fois.

Teacher: Bon point. Alors disons que je vous donne 100 $ si vous obtenez le même nombre de têtes et de queues. Et vous devez décider si vous avez lancé la pièce 10 ou 100 fois. Combien de fois lanceriez-vous la pièce?

Student: 100 fois.

Teacher: Il est intéressant de noter que la probabilité d'obtenir (50H, 50T) est en fait plus petite maintenant: $ {100 \ choose50} * (1/2) ^ {50} * ( 1/2) ^ {50} = 0,08 $

En fait, la probabilité la plus élevée d'obtenir un nombre égal de têtes et de queues sera lorsque vous lancerez la pièce deux fois.

Et si vous lancez la pièce 2 millions de fois, la probabilité d’obtenir exactement millions chacun de Heads and Tails est presque nulle.

Student Mais alors où mon intuition va-t-elle mal?

Teacher: Votre intuition de choisir un plus grand nombre de lancers est correcte mais ce que votre intuition s'est trompée est exact la moitié n'est pas presque la moitié.Au fur et à mesure que vous augmentez le nombre de lancers, la probabilité que la proportion du nombre de têtes (de manière équivalente, queues) soit dans le voisinage de 0,5 $ $ sera plus grande à mesure que nous augmentonslance.La probabilité d'obtenir de 40 à 60% de têtes est d'environ 0,66 $ avec 10 lancers et 0,96 $ sur 100lance.

Vous voyez donc que le nombre d'événements possibles tend vers l'infini, la probabilité d'obtenir un résultat exact (même le résultat attendu ) se réduit à zéro.Cela capture l'essence des variables aléatoires continues.Dans de tels cas, lorsqu'il y a trop de possibilités, nous pensons (intuitivement) aux intervalles et non aux résultats exacts.

Zaus
2020-08-08 18:51:55 UTC
view on stackexchange narkive permalink

TL; DR: Ne confondez pas la densité de probabilité avec la probabilité. Dans l'exemple donné, la probabilité est nulle: $ \ mathrm {Pr} (m = 120 \, \ mathrm {g}) = 0 $ , mais la probabilité densité est différente de zéro: $ p_M (m = 120 \, \ mathrm {g}) \ approx 0.0299 \, \ mathrm {g ^ {- 1} } $ .

Il y a déjà eu pas mal de réponses, mais je pense que visualiser les choses pourrait aider à comprendre, ici.

Je suis d'accord avec les commentaires d'Itamar Mushkin au PO qu'il y a probablement une certaine confusion de probabilité (écrivons-le comme $ \ mathrm {Pr} (m ) $ ) et la densité de probabilité (écrivons-le comme $ p_M (m) $ ), qui n'a été correctement abordée dans aucune des réponses, encore.

Réponse complète

Dans la vidéo, une distribution normale avec une moyenne $ \ mu = 112 \, \ mathrm {g} $ et un écart type $ \ sigma = 9 \, \ mathrm {g} $ est utilisé comme une fonction de densité de probabilité (généralement abrégée par "pdf"). Appelons $ p_M (m) $ le pdf de la variable aléatoire $ M $ (notre masse de glace ), tel que: $$ p_M (m) = \ mathcal {N} (\ mu = 112 \, \ mathrm {g}, \ sigma = 9 \, \ mathrm {g}) = \ frac {1} {\ sqrt {2 \ pi \ sigma ^ 2}} e ^ {\ frac {- (m- \ mu) ^ 2} {2 \ sigma ^ 2}} $$

normal distribution with mean 112 and standard deviation 9

Notez (et c'est crucial!), comment la densité de probabilité $ p $ est not dimensionless, mais a des unités de $ \ mathrm {g ^ {- 1}} $ , puisqu'il s'agit d'un density, c'est-à-dire qu'il donne la probabilité par intervalle de masse . Notez en outre que la densité de probabilité est non nulle pour toute masse finie (probabilité densité $ p_M $ , pas de probabilité $ \ mathrm {Pr} $ !). Lorsque nous parlons couramment de densités, nous nous référons généralement à la masse par volume, par ex. la densité d'un diamant est d'environ 3,51 $ \, \ mathrm {g / cm ^ 3} $ . Ici, quand on parle de densité de probabilité , la probabilité prend le rôle de la masse du diamant et l'intervalle de masse de la crème glacée prend le rôle du volume du diamant, donnant des unités de probabilité par masse.

Maintenant, pour arriver à une probabilité réelle, nous devons essentiellement multiplier la probabilité densité par un intervalle de masse $ \ Delta m = m_2-m_1 $ (de la même manière que nous aurions besoin de multiplier la densité du diamant par le volume du diamant pour obtenir la masse du diamant). Je dis en gros, parce que la bonne façon de le faire est d'intégrer le pdf sur cet intervalle de masse, ce qui vous donne l'aire sous la courbe (et l'aire sous une courbe consiste essentiellement à multiplier l'intervalle x par l'intervalle y en fines bandes):

$$ \ begin {align} \ mathrm {Pr} (M \ in [m_1, m_2]) & = \ int_ {m_1} ^ {m_2} p_M (m) \, dm \ tag {1} \\ & = P_M (m) | _ {m_1} ^ {m_2} \\ & = P_M (m_2) - P_M (m_1) \ tag {2} \ end {align} $$

probability from area under probability density

Dans la formule ci-dessus, $ P_M (m) $ est la fonction de distribution cumulative (généralement abrégée en cdf et que Henry appelait $ \ Phi $ dans sa réponse), qui est l'intégrale du pdf:

$$ \ begin {align} P_M (m) & = \ int _ {- \ infty} ^ m p_M (\ tilde {m}) \, d \ tilde {m} \\ & = \ mathrm {Pr} (M \ le m) \ end {align} $$

Ainsi, le cdf vous donnerait directement la réponse à la question: "Quelle est la probabilité que la glace ait une masse d'au moins une masse $ m $ ? " Et la réponse serait non nulle.

L'image correspondante pour $ \ mathrm {Pr} (M \ in [m_1, m_2]) $ en termes de cdf est la suivante:

probability from cumulative distribution function

Jusqu'ici tout va bien, c'est le point de départ de la plupart des autres réponses, dont beaucoup donnent des exemples pour comprendre intuitivement pourquoi la probabilité que la masse prenne une valeur spécifique passe à zéro.

Pour répondre à cette question, ici, avec les images et les équations ci-dessus: Si vous voulez connaître la probabilité que la masse prenne une valeur exacte, par exemple $ m_ \ ast = 120 \, \ mathrm {g} $ , vous pourriez jeter un œil à l'équation (1) et à la deuxième image et vous en rendre compte en regardant $ \ mathrm {Pr} (M = m_ \ ast) $ vous envoyez effectivement vos deux limites d'intégration à la même masse $ m_1, m_2 \ rightarrow m_ \ ast $ qui envoie l'intervalle de masse à zéro $ \ Delta m = m_2 - m_1 \ rightarrow 0 $ , et donc l'aire sous la courbe sera égale à zéro: $ \ int_ {m_1 \ rightarrow m_ \ ast} ^ {m_2 \ rightarrow m_ \ ast} p_M (m) \, dm \ rightarrow 0 $ . De manière équivalente, vous pouvez regarder l'équation (2) et voir directement que: $ P_M (m_2 \ rightarrow m_ \ ast) - P_M (m_1 \ rightarrow m_ \ ast) \ rightarrow 0 $ .

N Remarque, la probabilité que la masse soit exactement $ m_ \ ast = 120 \, \ mathrm {g} $ passe à zéro : $ \ mathrm {Pr} (M = 120 \, \ mathrm {g}) = 0 $ , la densité de probabilité à la masse $ m_ \ ast = 120 \, \ mathrm {g} $ n'est pas zéro: $ p_M (m = 120 \, \ mathrm {g}) \ environ 0,0299 \, \ mathrm {g ^ {- 1}} $ .

Code

Pour ceux qui s'intéressent au code python qui a généré les images ci-dessus:

  importer numpy comme np
importer matplotlib.pyplot comme plt
depuis la norme d'importation scipy.stats
depuis scipy.integrate import quad

mu = 112 # moyenne
sigma = 9 # écart type
norm = norm (loc = mu, scale = sigma) # distribution normale
p = norm.pdf # fonction de densité de probabilité
P = norm.cdf # fonction de distribution cumulative
m = np.linspace (mu-5 * sigma, mu + 5 * sigma, 10 * sigma + 1) # gamme de masse de crème glacée
################################################ #############################
# graphique de la fonction de densité de probabilité (pdf)
################################################ #############################
fig = plt.figure ()
plt.plot (m, p (m), lw = 3)
plt.axvline (mu, color = 'C1', label = " $ \ mu =% d \, \ mathrm {g} $ "% mu)
plt.hlines (p (norm.ppf ((1-0.6827) / 2)), xmin = mu-sigma, xmax = mu + sigma, couleur = 'C2',
           label = " $ \ sigma =% d \, \ mathrm {g} $ "% sigma)
plt.legend (bbox_to_anchor = (1, 1), loc = 'en haut à gauche')
plt.xlabel (" $ m $   $ \ mathrm {[g]} $  \ n crème glacée ")
plt.ylabel ("fonction de densité de probabilité \ n  $ p_M (m) $   $ [\ mathrm {g ^ {- 1 }}] $  ")
plt.show ()


################################################ #############################
# parcelle montrant la zone sous pdf correspondant à Pr (m1 < = m < = m2)
################################################ #############################
m1 = 115 # limite de masse inférieure
m2 = 125 # limite de masse supérieure
Delta_m = np.linspace (m1, m2, int (m2 - m1)) # intervalle de masse

fig = plt.figure ()
plt.plot (m, p (m), lw = 3)
plt.fill_between (Delta_m, 0, p (Delta_m), couleur = 'C3', alpha = 0.7,
                 label = " $ \ mathrm {Pr} (% d \ le m \ le% d)"
                   "= \ int _ {% d} ^ {% d} p_M (m) dm $  \ n \ n"
                       ".  $ \ hphantom {\ mathrm {Pr} (. 5 \ le m \ le125)} \\ approx% .3f $ "
                       % (m1, m2, m1, m2, quad (p, m1, m2) [0]))
plt.legend (bbox_to_anchor = (1, 1), loc = 'en haut à gauche')
plt.xlabel (" $ m $   $ \ mathrm {[g]} $  \ n crème glacée ")
plt.ylabel ("fonction de densité de probabilité \ n  $ p_M (m) $   $ [\ mathrm {g ^ {- 1 }}] $  ")
plt.show ()
################################################ #############################
# graphique de la fonction de distribution cumulative et mise en évidence des valeurs pour m1 et m2
################################################ #############################
fig = plt.figure ()
plt.plot (m, P (m), lw = 3)
plt.hlines (P (m1), min (m), m1, couleur = 'C3')
plt.hlines (P (m2), min (m), m2, couleur = 'C3')
plt.vlines (m1, 0, P (m1), couleur = 'C3')
plt.vlines (m2, 0, P (m2), couleur = 'C3',
           label = " $ \ mathrm {Pr} (% d \ le m \ le% d) = P_M (% d) - P_M (% d) $  \ n \ n "
                 ".  $ \ hphantom {\ mathrm {Pr} (. 5 \ le m \ le125)} =% .3f -% .3f $  \ n \ n"
                 ".  $ \ hphantom {\ mathrm {Pr} (. 5 \ le m \ le125)} \\ approx% .3f $ "
                 % (m1, m2, m1, m2, P (m2), P (m1), P (m2) - P (m1)))
plt.legend (bbox_to_anchor = (1, 1), loc = 'en haut à gauche')
plt.xlabel (" $ m $   $ \ mathrm {[g]} $  \ n crème glacée ")
plt.ylabel ("fonction de distribution cumulative \ n  $ P_M (m) $ ")
plt.show ()

 
Mentossinho
2020-08-07 04:04:59 UTC
view on stackexchange narkive permalink

Supposons que nous ayons une variable aléatoire continue $ X $ avec une distribution $ \ mathbf {P} _X $ span >, donc il peut prendre d'innombrables valeurs. Nous affirmons que chaque valeur possible a une probabilité positive, ce qui est égal à dire, que chaque singleton (défini avec un seul élément, dans une forme $ \ {x \} $ ) a une probabilité supérieure à zéro. Définissez la famille d'ensembles $ \ {A_n \} $ , et établissez qu'un point $ x_0 \ in A_n $ span > quand $ \ mathbf {P} _X (\ {x_0 \}) > \ frac {1} {n} $ . Regardez que dans un ensemble $ A_n $ nous pouvons avoir au plus $ n $ valeurs: sinon la probabilité serait dépasser $ 1 $ . Si la probabilité $ \ mathbf {P} _X (\ {x_0 \}) >0 $ , alors il existe des $ n_0 $ , pour lequel $ x_0 \ in A_ {n_0} $ . Si nous prenons l'union de ces ensembles sur tous les nombres naturels, nous obtenons l'union dénombrable d'ensembles finis, donc ensemble dénombrable. Il prévoit que seuls les singletons finis pourraient avoir une probabilité supérieure à zéro, ce qui est en contradiction avec notre affirmation.

TMOTTM
2020-08-08 12:29:15 UTC
view on stackexchange narkive permalink

Lorsque j'enseignais ce concept exact, l'image suivante s'est avérée très intuitivement compréhensible par les élèves.

Nous partons du fait que, comme vous le savez probablement, la probabilité pour la variable aléatoire $ X $ de prendre une valeur entre $ x_0 $ et $ x_1 $ est calculé comme l'aire sous votre courbe en cloche normale:

$$ P ([x_0, x_1]) = \ int_ {x_0} ^ {x_1} f (X) dx = P (x_1) - P (x_0) $$

Si cette formule semble bizarre, regardez-la de cette façon: quelle devrait être la probabilité que X prenne une valeur quelconque? Ce sera $ 1 $ , donc toute la zone sous la courbe est $ 1 $ .

Maintenant, si vous voulez calculer la probabilité d'une valeur de plus en plus spécifique, cela signifie que vous rapprochez de plus en plus les limites de l'intégration. Et quand vous les avez à une valeur (par exemple 120g de glace), c'est la même chose que d'écrire

$$ P ([120g, 120g]) = \ int_ {120g} ^ {120g} f (X) dx = P (120g) - P (120g) = 0 $$



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Loading...