Question:
Soit X, Y 2 r.v. avec des attentes infinies, y a-t-il des possibilités où min (X, Y) a une espérance finie?
Preston Lui
2020-05-27 17:12:46 UTC
view on stackexchange narkive permalink

Si c'est impossible, quelle est la preuve?

qu'avez-vous fait pour répondre à cette question?
Cette question est-elle liée à une mission?Dans ce cas, il aurait dû être accompagné de la balise «auto-apprentissage».
Cinq réponses:
Xi'an
2020-05-27 19:56:08 UTC
view on stackexchange narkive permalink

Prenons deux variables iid Cauchy positives $ Y_1, Y_2 $ de densité commune $$ f (x) = \ frac {2} {\ pi} \ frac {\ mathbb I_ {x>0}} {1 + x ^ 2} $$ et une attente infinie.

La variable minimale $ \ min (Y_1, Y_2) $ a alors une densité $$ g (x) = \ frac {8} {\ pi ^ 2} \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ mathbb I_ {x>0} $$ Depuis (selon la règle de l'hôpital) $$ \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ equiv \ frac {1} {x ^ 3} $$ span > à l'infini, la fonction $ x \ mapsto xg (x) $ est intégrable. Ainsi, $ \ min (Y_1, Y_2) $ a une espérance finie en fait égale à $ \ log (16) / \ pi $ .

Plus généralement, dans un échantillon Cauchy normal $ X_1, \ ldots, X_n $ , avec $ n \ ge 3 $ , toutes les statistiques d'ordre sauf les extrêmes $ X _ {(1)} $ et $ X _ {(n )} $ bénéficie d'une attente (finie). (De plus, $ X _ {(1)} $ et $ X _ {(n)} $ ont tous deux attentes infinies, $ - \ infty $ et $ + \ infty $ resp., plutôt que pas d'attente. )

Merci.Mais voulez-vous dire que seul Xn ne bénéficie pas d'une attente limitée?
Très bel exemple.Et $ E [\ min (Y_1, Y_2)] = log (16) / \ pi $
whuber
2020-05-27 22:37:52 UTC
view on stackexchange narkive permalink

Trouvons une solution générale pour les variables indépendantes $ X $ et $ Y $ ayant des CDF $ F_X $ et $ F_Y, $ respectivement. Cela nous donnera des indices utiles sur ce qui se passe, sans la distraction du calcul des intégrales spécifiques.


Soit $ Z = \ min (X, Y). $ Ensuite, à partir des axiomes de base et des définitions, nous pouvons calculer cela pour n'importe quel nombre $ z, $

$$ \ eqalign { F_Z (z) & = \ Pr (Z \ le z) = 1 - \ Pr (Z > z) = 1 - \ Pr (X \ gt z, Y \ gt z) \\ & = 1 - (1-F_X (z)) (1-F_Y (z)).} $$

Pour tout CDF $ F $ , l'attente est

$$ E_F = \ int _ {- \ infty} ^ 0 F (z) \ mathrm {d} z + \ int_ {0} ^ \ infty (1-F ( z)) \ mathrm {d} z, $$

la somme d'une partie négative et d'une partie positive.

Par conséquent, la question demande si c'est possible pour $ E_ {F_Z} $ et $ E_ {F_Y} $ doit être infini mais pour $ E_ {F_Z} $ être fini. Cela nécessite à la fois la partie négative et la partie positive de $ E_ {F_Z} $ pour être fini. Plutôt que d'analyser cela complètement, il suffira d'étudier ce qui arrive aux parties positives: vous pouvez trouver l'analogue pour les parties négatives.

Dans le pire des cas, alors les intégrales $ \ int_0 ^ \ infty (1-F_X (z)) \ mathrm {d} z $ et $ \ int_0 ^ \ infty (1-F_Y (z)) \ mathrm {d} z $ divergera mais on se demande si l'intégrale du produit

$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z $$

diverge. De toute évidence, cela ne peut pas être pire que les deux intégrales d'origine, car puisque $ 0 \ le F (z) \ le 1 $ pour tout $ z, $

$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z \ le \ int_0 ^ \ infty ( 1-F_X (z)) \ mathrm {d} z \, \ sup_ {z \ ge 0} (1-F_Y (z)) \ le \ int_0 ^ \ infty (1-F_X (z)). $$

TCes informations sont suffisantes pour étudier le paysage. Supposons que comme $ z \ to \ infty, $ $ 1- F_X (z) $ est approximé par $ z ^ {- p} $ pour une puissance positive $ p , $ et de même $ 1-F_Y (z) $ est approximé par $ z ^ {- q} $ pour $ q \ gt 0. $ Nous écrivons $ 1-F_X \ sim O (Z ^ p) $ et $ 1-F_Y \ sim O (Z ^ q). $ Ensuite, lorsque les deux $ p $ et $ q $ sont inférieurs à $ 1, $ $ E_ {F_X} $ et $ E_ {F_Y} $ sont infinis.

  • Quand $ p + q \ le 1, $ parce que $ (1-F_X) (1- F_Y) \ sim O (z ^ {p + q}), $ $ E_ {F_Z} = \ infty. $

  • Mais quand $ p + q \ gt 1, $ $ E_ {F_Z} $ span > est fini car $ \ int_0 ^ t (1-F_Z (z)) \ mathrm {d} z $ est délimité au-dessus par $ \ int_0 ^ 1 (1-F_Z (z)) \ mathrm {d} z $ plus un multiple de $$ \ int_1 ^ tz ^ {- ( p + q)} \ mathrm {d} z = \ frac {1} {p + q-1} \ left (1 - t ^ {- (p + q-1)} \ right) \ to \ frac {1 } {p + q-1} \ lt \ infty. $$

En d'autres termes, les attentes infinies des parties positives de $ X $ et $ Y $ impliquent que leurs fonctions de survie $ 1-F_X $ et $ 1-F_Y $ s'approchent de leur limite inférieure de $ 0 $ seulement très lentement; mais le produit de ces fonctions de survie, qui est la fonction de survie de $ Z, $ peut approcher $ 0 $ suffisamment rapidement pour donner à $ Z $ une attente finie.

En bref,

Pour que $ Z $ ait une espérance finie, $ (1-F_X) (1-F_Y) $ span> doit converger vers $ 0 $ suffisamment rapidement à $ + \ infty. $ Cela peut se produire même lorsque ni $ 1-F_X $ ou $ 1-F_Y $ convergent suffisamment rapidement.

A titre d'illustration, nous pouvons considérer la distribution de Lomax avec survie $ S (x) = [1 + x / \ beta] ^ {- \ alpha} $ pour $ x> 0 $ où $ \ beta > 0 $ et $ \ alpha> 0 $ sont les paramètres d'échelle et de forme.le l'espérance est finie pour $ \ alpha> 1 $.Si $ X $ et $ Y $ sont Lomax indépendant avec la même échelle $ \ beta> 0 $ et formes $ \ alpha_X $, $ \ alpha_Y $ on voit que $ \ min (X, \, Y) $ est Lomax avec échelle $ \ beta $ et forme $ \ alpha_X + \ alpha_Y $.
Pohoua
2020-05-27 18:11:33 UTC
view on stackexchange narkive permalink

Eh bien, si vous n'imposez pas l'indépendance, oui.

Considérez $ Z \ sim Cauchy $ et $ B \ sim Bernouilli (\ frac {1} {2}) $ . Définissez $ X $ et $ Y $ par:

$$ X = \ left \ {\ begin {array} [ccc] 0 0 & \ text {if} & B = 0 \\ | Z | & \ text {if} & B = 1 \ end {array} \ right. $$

$$ Y = \ left \ {\ begin {array} [ccc]. | Z | & \ text {if} & B = 0 \\ 0 & \ text {if} & B = 1 \ end {array} \ right. $$

$ |. | $ désigne une valeur absolue. $ X $ et $ Y $ ont des attentes infinies, mais $ \ min (X, Y) = 0 $ donc $ E (\ min (X, Y)) = 0 $ .

Pour les variables aléatoires indépendantes, je ne sais pas, et je serais intéressé par un résultat!

X et Y ne sont pas vraiment des cas à deux dimensions, cependant, je parie que vous pouvez montrer que le rang de la matrice de covariance est 1. C'est vraiment juste B que vous proposez.je ne compterais pas cela comme un exemple.fondamentalement X et Y sont définis sur le même ensemble d'événements exact, c'est donc la même variable dans un certain sens.c'est comme dire que j'ai X = Z et Y = 1-Z.
Oui ... c'est un peu un exemple de triche ^^.Je pense que la matrice de covariance n'est pas définie sur cet exemple, mais en effet le support de $ (X, Y) $ est de mesure nulle dans $ \ mathbb {R} ^ 2 $. Cependant, avoir des variables aléatoires non totalement liées n'est pas difficile, avec la même configuration, tirez $ X $ et $ Y $ de la distribution uniforme indépendante si $ B = 0 $ et de la valeur absolue indépendante Cauchy si $ B = 1 $.
pouvez-vous montrer dans ce cas que min est effectivement fini?
Eh bien, oui, car il est toujours inférieur à un (puisqu'il y en a toujours un parmi $ X $ ou $ Y $ simulé à partir d'uniforme.
Dans mon commentaire précédent, j'ai fait une erreur, je voulais dire que $ X \ sim \ mathcal {U} ([0, 1]) $ if $ B = 0 $ et $ Y \ sim \ mathcal {U} ([0, 1]) $ if $ B = 1 $, et de même pour la partie Cauchy de la distribution, telle que pour toute valeur de $ B $, l'une des deux variables a été générée par un $ \ mathcal {U} ([0, 1]).
Sextus Empiricus
2020-05-28 21:17:00 UTC
view on stackexchange narkive permalink

Cette réponse n'est pas aussi générale que celle de Whuber, et se rapporte à des X et Y distribués identiques, mais je pense que c'est un bon ajout car cela donne une intuition différente. L'avantage de cette approche est qu'elle se généralise facilement à des statistiques d'ordre différent et à différents moments ou à d'autres fonctions $ T (X) $ . De même, lorsque la fonction quantile est connue, la possibilité ou l'impossibilité de «rendre une statistique finie» en utilisant une statistique d'ordre est facilement vue par le type de singularité à 0 et 1.

Une vue intuitive rapide de la possibilité qu'une statistique d'ordre puisse avoir une espérance finie finie même lorsque la variable sous-jacente ne le fait pas peut être effectuée via la fonction quantile.

Nous pouvons voir les moments d'une distribution comme les moments de la fonction quantile: https://stats.stackexchange.com/a/365385/164061

$$ E (T (x)) = \ int_ {0} ^ 1 T (Q (q)) dq \\ $$

Supposons que nous souhaitons calculer le premier moment, puis $ T (x) = x $ . Dans l'image ci-dessous, cela correspond à la zone entre F et la ligne verticale à $ x = 0 $ (où la zone sur le côté gauche peut compter comme négatif lorsque $ T (x) <0 $ ).

Cauchy versus Normal

Les courbes de l'image montrent la contribution de chaque quantile au calcul. Si la courbe $ T (Q (F)) $ va suffisamment vite à l'infini lorsque F s'approche de zéro ou un, alors l'aire peut être infinie.


Maintenant, pour une statistique d'ordre, l'intégrale sur les quantiles $ dq $ change quelque peu. Pour la variable normale, chaque quantile a une probabilité égale. Pour une distribution de commande, il s'agit d'une distribution bêta. L'intégrale devient donc pour un échantillon de taille $ n $ et utilisant le minimum:

$$ E (T (x _ {(n)})) = n! \ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) dq \\ $$

Ce terme $ (1-q) ^ {n-1} $ pourrait être capable de créer une fonction initialement intégrée à l'infini car elle avait un pôle de ordre 1 ou supérieur (son comportement près de $ q = 1 $ était comme $ T (Q (q)) \ sim ( 1-q) ^ {- a} $ avec $ a>1 $ ), est maintenant capable de s'intégrer à une valeur finie.


Exemple: la moyenne d'échantillon de la médiane d'un échantillon prélevé sur une variable distribuée de Cauchy est désormais finie car les pôles de 1er ordre sont supprimés. Autrement dit, $ q ^ a (1-q) ^ b \ tan (\ pi (q-0.5)) $ est fini pour $ a \ geq 1 $ et $ b \ geq 1 $ . (ceci se rapporte à la déclaration plus générale de Xi'an sur les statistiques d'ordre par rapport à une variable de Cauchy)

De plus: lorsque la fonction quantile a une singularité essentielle, par exemple $ Q (p) = e ^ {1 / (1-p)} - e $ alors le minimum de l'échantillon reste avec des moments infinis ou indéfinis quelle que soit la taille de l'échantillon (je viens de créer cette fonction de quantile à titre d'exemple, elle se rapporte à $ f (x) = \ frac { 1} {(x + a) \ log (x + a) ^ 2} $ , je ne suis pas sûr qu'il y ait des distributions plus connues qui ont une singularité essentielle dans la fonction quantile).

(+1) point très intéressant d'utiliser la transformée quantile.Je suggérerais d'écrire la dernière équation intégrale sous la forme $$ \ mathbb E [T (X _ {(n)})] = n!\ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) \ text {d} q $$ pour rendre les choses plus claires.
Aksakal
2020-05-27 21:35:23 UTC
view on stackexchange narkive permalink

C'est le cas avec presque toutes les distributions car les attentes sur un sous-ensemble croissent généralement beaucoup plus lentement que le sous-ensemble. Regardons l'attente sur un sous-ensemble pour une variable $ z $ avec PDF $ f (z) $ : $$ E_x [z] = \ int _ {- \ infty} ^ xzf (z) dz $$ Regardons le taux de croissance de cette exepctation: $$ \ frac d {dx} E_x [z] = xf (x) $$ Ainsi, l'attente sur un sous-ensemble croît beaucoup plus lentement que $ x $ , la limite d'un sous-ensemble. L'implication est que bien que pour une distribution sans moments comme le module de Cauchy $ | z | $ l'espérance est infinie $ E_ \ infty [| z |] = \ infty $ , sa croissance avec la limite supérieure du sous-ensemble ralentit beaucoup avec un gros $ z $ . En fait pour ce cas $ E_x [z] \ approx 1 / x $ .

Pourquoi est-ce pertinent? Voici pourquoi. Regardez l'attente de $ E [x | x<y] $ d'où proviennent les deux $ x, y $ la même distribution avec une densité $ f (.) $ qui a une moyenne infinie: regardons l'attente du minimum: $$ E [x | x<y] = \ int _ {- \ infty} ^ \ infty dyf (y) \ int _ {- \ infty} ^ {y} dxf (x) \ times X\\ = \ int _ {- \ infty} ^ \ infty dy f (y) E_y [x] $$ Puisque $ E_y [x] $ croît beaucoup plus lentement que $ y $ , cette intégrale sera très probablement finie . Il est certainement fini pour le module de Cauchy $ | x | $ et est égal à $ \ ln 4 / \ pi $ :

  • $ E_x [| z |] = \ int_0 ^ x \ frac 2 \ pi \ frac {z} {1 + z ^ 2} dz = \ int_0 ^ x \ frac1 \ pi \ frac {1} {1 + z ^ 2} dz ^ 2 = \ frac 1 \ pi \ ln (1 + z ^ 2) | _0 ^ x = \ frac {\ ln (1 + x ^ 2)} {\ pi} $ - nous voyons déjà ici comment l'attente sur le sous-ensemble a ralenti de $ x $ à $ \ ln x $ .
  • $ E [x | x<y] = \ int_ {0} ^ \ infty \ frac 2 \ pi \ frac 1 {1 + x ^ 2} \ frac {\ ln (1 + x ^ 2)} {\ pi} dx = \ frac 1 \ pi \ ln 4 $

Vous pouvez appliquer cette analyse à la fonction minimale de manière simple.

Puisque $ \ mathbb E [\ min (| X_1 |, | X_2 |)] = \ log (4 ^ 2) / π $, j'ai été déconcerté par l'écart.Je pense que c'est parce que vous avez oublié la normalisation $ \ mathbb P (x


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Loading...