Si c'est impossible, quelle est la preuve?
Si c'est impossible, quelle est la preuve?
Prenons deux variables iid Cauchy positives $ Y_1, Y_2 $ de densité commune $$ f (x) = \ frac {2} {\ pi} \ frac {\ mathbb I_ {x>0}} {1 + x ^ 2} $$ et une attente infinie.
La variable minimale $ \ min (Y_1, Y_2) $ a alors une densité $$ g (x) = \ frac {8} {\ pi ^ 2} \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ mathbb I_ {x>0} $$ Depuis (selon la règle de l'hôpital) $$ \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ equiv \ frac {1} {x ^ 3} $$ span > à l'infini, la fonction $ x \ mapsto xg (x) $ est intégrable. Ainsi, $ \ min (Y_1, Y_2) $ a une espérance finie en fait égale à $ \ log (16) / \ pi $ .
Plus généralement, dans un échantillon Cauchy normal $ X_1, \ ldots, X_n $ , avec $ n \ ge 3 $ , toutes les statistiques d'ordre sauf les extrêmes $ X _ {(1)} $ et $ X _ {(n )} $ bénéficie d'une attente (finie). (De plus, $ X _ {(1)} $ et $ X _ {(n)} $ ont tous deux attentes infinies, $ - \ infty $ et $ + \ infty $ resp., plutôt que pas d'attente. )
Trouvons une solution générale pour les variables indépendantes $ X $ et $ Y $ ayant des CDF $ F_X $ et $ F_Y, $ respectivement. Cela nous donnera des indices utiles sur ce qui se passe, sans la distraction du calcul des intégrales spécifiques.
Soit $ Z = \ min (X, Y). $ Ensuite, à partir des axiomes de base et des définitions, nous pouvons calculer cela pour n'importe quel nombre $ z, $
$$ \ eqalign { F_Z (z) & = \ Pr (Z \ le z) = 1 - \ Pr (Z > z) = 1 - \ Pr (X \ gt z, Y \ gt z) \\ & = 1 - (1-F_X (z)) (1-F_Y (z)).} $$
Pour tout CDF $ F $ , l'attente est
$$ E_F = \ int _ {- \ infty} ^ 0 F (z) \ mathrm {d} z + \ int_ {0} ^ \ infty (1-F ( z)) \ mathrm {d} z, $$
la somme d'une partie négative et d'une partie positive.
Par conséquent, la question demande si c'est possible pour $ E_ {F_Z} $ et $ E_ {F_Y} $ doit être infini mais pour $ E_ {F_Z} $ être fini. Cela nécessite à la fois la partie négative et la partie positive de $ E_ {F_Z} $ pour être fini. Plutôt que d'analyser cela complètement, il suffira d'étudier ce qui arrive aux parties positives: vous pouvez trouver l'analogue pour les parties négatives.
Dans le pire des cas, alors les intégrales $ \ int_0 ^ \ infty (1-F_X (z)) \ mathrm {d} z $ et $ \ int_0 ^ \ infty (1-F_Y (z)) \ mathrm {d} z $ divergera mais on se demande si l'intégrale du produit
$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z $$
diverge. De toute évidence, cela ne peut pas être pire que les deux intégrales d'origine, car puisque $ 0 \ le F (z) \ le 1 $ pour tout $ z, $
$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z \ le \ int_0 ^ \ infty ( 1-F_X (z)) \ mathrm {d} z \, \ sup_ {z \ ge 0} (1-F_Y (z)) \ le \ int_0 ^ \ infty (1-F_X (z)). $$
TCes informations sont suffisantes pour étudier le paysage. Supposons que comme $ z \ to \ infty, $ $ 1- F_X (z) $ est approximé par $ z ^ {- p} $ pour une puissance positive $ p , $ et de même $ 1-F_Y (z) $ est approximé par $ z ^ {- q} $ pour $ q \ gt 0. $ Nous écrivons $ 1-F_X \ sim O (Z ^ p) $ et $ 1-F_Y \ sim O (Z ^ q). $ Ensuite, lorsque les deux $ p $ et $ q $ sont inférieurs à $ 1, $ $ E_ {F_X} $ et $ E_ {F_Y} $ sont infinis.
Quand $ p + q \ le 1, $ parce que $ (1-F_X) (1- F_Y) \ sim O (z ^ {p + q}), $ $ E_ {F_Z} = \ infty. $
Mais quand $ p + q \ gt 1, $ $ E_ {F_Z} $ span > est fini car $ \ int_0 ^ t (1-F_Z (z)) \ mathrm {d} z $ est délimité au-dessus par $ \ int_0 ^ 1 (1-F_Z (z)) \ mathrm {d} z $ plus un multiple de $$ \ int_1 ^ tz ^ {- ( p + q)} \ mathrm {d} z = \ frac {1} {p + q-1} \ left (1 - t ^ {- (p + q-1)} \ right) \ to \ frac {1 } {p + q-1} \ lt \ infty. $$
En d'autres termes, les attentes infinies des parties positives de $ X $ et $ Y $ impliquent que leurs fonctions de survie $ 1-F_X $ et $ 1-F_Y $ s'approchent de leur limite inférieure de $ 0 $ seulement très lentement; mais le produit de ces fonctions de survie, qui est la fonction de survie de $ Z, $ peut approcher $ 0 $ suffisamment rapidement pour donner à $ Z $ une attente finie.
En bref,
Pour que $ Z $ ait une espérance finie, $ (1-F_X) (1-F_Y) $ span> doit converger vers $ 0 $ suffisamment rapidement à $ + \ infty. $ Cela peut se produire même lorsque ni $ 1-F_X $ ou $ 1-F_Y $ convergent suffisamment rapidement.
Eh bien, si vous n'imposez pas l'indépendance, oui.
Considérez $ Z \ sim Cauchy $ et $ B \ sim Bernouilli (\ frac {1} {2}) $ . Définissez $ X $ et $ Y $ par:
$$ X = \ left \ {\ begin {array} [ccc] 0 0 & \ text {if} & B = 0 \\ | Z | & \ text {if} & B = 1 \ end {array} \ right. $$
$$ Y = \ left \ {\ begin {array} [ccc]. | Z | & \ text {if} & B = 0 \\ 0 & \ text {if} & B = 1 \ end {array} \ right. $$
Où $ |. | $ désigne une valeur absolue. $ X $ et $ Y $ ont des attentes infinies, mais $ \ min (X, Y) = 0 $ donc $ E (\ min (X, Y)) = 0 $ .
Pour les variables aléatoires indépendantes, je ne sais pas, et je serais intéressé par un résultat!
Cette réponse n'est pas aussi générale que celle de Whuber, et se rapporte à des X et Y distribués identiques, mais je pense que c'est un bon ajout car cela donne une intuition différente. L'avantage de cette approche est qu'elle se généralise facilement à des statistiques d'ordre différent et à différents moments ou à d'autres fonctions $ T (X) $ . De même, lorsque la fonction quantile est connue, la possibilité ou l'impossibilité de «rendre une statistique finie» en utilisant une statistique d'ordre est facilement vue par le type de singularité à 0 et 1.
Une vue intuitive rapide de la possibilité qu'une statistique d'ordre puisse avoir une espérance finie finie même lorsque la variable sous-jacente ne le fait pas peut être effectuée via la fonction quantile.
Nous pouvons voir les moments d'une distribution comme les moments de la fonction quantile: https://stats.stackexchange.com/a/365385/164061
$$ E (T (x)) = \ int_ {0} ^ 1 T (Q (q)) dq \\ $$
Supposons que nous souhaitons calculer le premier moment, puis $ T (x) = x $ . Dans l'image ci-dessous, cela correspond à la zone entre F et la ligne verticale à $ x = 0 $ (où la zone sur le côté gauche peut compter comme négatif lorsque $ T (x) <0 $ ).
Les courbes de l'image montrent la contribution de chaque quantile au calcul. Si la courbe $ T (Q (F)) $ va suffisamment vite à l'infini lorsque F s'approche de zéro ou un, alors l'aire peut être infinie.
Maintenant, pour une statistique d'ordre, l'intégrale sur les quantiles $ dq $ change quelque peu. Pour la variable normale, chaque quantile a une probabilité égale. Pour une distribution de commande, il s'agit d'une distribution bêta. L'intégrale devient donc pour un échantillon de taille $ n $ et utilisant le minimum:
$$ E (T (x _ {(n)})) = n! \ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) dq \\ $$
Ce terme $ (1-q) ^ {n-1} $ pourrait être capable de créer une fonction initialement intégrée à l'infini car elle avait un pôle de ordre 1 ou supérieur (son comportement près de $ q = 1 $ était comme $ T (Q (q)) \ sim ( 1-q) ^ {- a} $ avec $ a>1 $ ), est maintenant capable de s'intégrer à une valeur finie.
Exemple: la moyenne d'échantillon de la médiane d'un échantillon prélevé sur une variable distribuée de Cauchy est désormais finie car les pôles de 1er ordre sont supprimés. Autrement dit, $ q ^ a (1-q) ^ b \ tan (\ pi (q-0.5)) $ est fini pour $ a \ geq 1 $ et $ b \ geq 1 $ . (ceci se rapporte à la déclaration plus générale de Xi'an sur les statistiques d'ordre par rapport à une variable de Cauchy)
De plus: lorsque la fonction quantile a une singularité essentielle, par exemple $ Q (p) = e ^ {1 / (1-p)} - e $ alors le minimum de l'échantillon reste avec des moments infinis ou indéfinis quelle que soit la taille de l'échantillon (je viens de créer cette fonction de quantile à titre d'exemple, elle se rapporte à $ f (x) = \ frac { 1} {(x + a) \ log (x + a) ^ 2} $ , je ne suis pas sûr qu'il y ait des distributions plus connues qui ont une singularité essentielle dans la fonction quantile).
C'est le cas avec presque toutes les distributions car les attentes sur un sous-ensemble croissent généralement beaucoup plus lentement que le sous-ensemble. Regardons l'attente sur un sous-ensemble pour une variable $ z $ avec PDF $ f (z) $ : $$ E_x [z] = \ int _ {- \ infty} ^ xzf (z) dz $$ Regardons le taux de croissance de cette exepctation: $$ \ frac d {dx} E_x [z] = xf (x) $$ Ainsi, l'attente sur un sous-ensemble croît beaucoup plus lentement que $ x $ , la limite d'un sous-ensemble. L'implication est que bien que pour une distribution sans moments comme le module de Cauchy $ | z | $ l'espérance est infinie $ E_ \ infty [| z |] = \ infty $ , sa croissance avec la limite supérieure du sous-ensemble ralentit beaucoup avec un gros $ z $ . En fait pour ce cas $ E_x [z] \ approx 1 / x $ .
Pourquoi est-ce pertinent? Voici pourquoi. Regardez l'attente de $ E [x | x<y] $ d'où proviennent les deux $ x, y $ la même distribution avec une densité $ f (.) $ qui a une moyenne infinie: regardons l'attente du minimum: $$ E [x | x<y] = \ int _ {- \ infty} ^ \ infty dyf (y) \ int _ {- \ infty} ^ {y} dxf (x) \ times X\\ = \ int _ {- \ infty} ^ \ infty dy f (y) E_y [x] $$ Puisque $ E_y [x] $ croît beaucoup plus lentement que $ y $ , cette intégrale sera très probablement finie . Il est certainement fini pour le module de Cauchy $ | x | $ et est égal à $ \ ln 4 / \ pi $ :
Vous pouvez appliquer cette analyse à la fonction minimale de manière simple.