Qu'est-ce qu'une limite inférieure stricte sur le temps de collecte des coupons?

20

Dans le problème classique du collecteur de coupons , il est bien connu que le temps nécessaire pour terminer un ensemble de coupons choisis au hasard satisfait , , et .TnE[T]nlnnVar(T)n2Pr(T>nlnn+cn)<ec

Cette limite supérieure est meilleure que celle donnée par l'inégalité de Tchebychev, qui serait d'environ 1/c2 .

Ma question est la suivante: existe-t-il une borne inférieure correspondante meilleure que celle de Tchebychev pour T ? (par exemple, quelque chose comme Pr(T<nlnncn)<ec )?

David
la source
Une limite inférieure évidente est Pr(T<n)=0 , mais je suppose que vous en êtes conscient ...
onestop

Réponses:

14

Je fournis cela comme une deuxième réponse car l'analyse est complètement élémentaire et fournit exactement le résultat souhaité.

Proposition Pour c>0 et n1 ,

P(T<nlogncn)<ec.

L'idée derrière la preuve est simple:

  1. Représentez le temps jusqu'à ce que tous les coupons soient collectés sous la forme T=i=1nTi , où Ti est le moment où le i ème (jusqu'ici) coupon unique est collecté. Les Ti sont des variables géométriques aléatoires avec des temps moyens de nni+1 .
  2. Appliquez une version de la borne Chernoff et simplifiez.

Preuve

Pour tout et tout , nous avons que s > 0 P ( T < t ) = P ( e - s T > e - s t ) e s t E e - s Tt s>0

P(T<t)=P(esT>est)estEesT.

Puisque et sont indépendants, nous pouvons écrire T i E e - s T = n i = 1 E e - s T iT=iTiTi

EesT=i=1nEesTi

Maintenant que est géométrique, disons avec une probabilité de succès , alors un calcul simple montre p i E e - s T i = p iTipi

EesTi=pies1+pi.

Les pour notre problème sont , , , etc. Par conséquent, p 1 = 1 p 2 = 1 - 1pip1=1p 3 = 1 - 2 / n n i = 1 E e - s T i = n i = 1 i / np2=11/np3=12/n

i=1nEesTi=i=1ni/nes1+i/n.

Nous allons choisir et pour certains . Alors et , donnant t = n log n - c n cs=1/nt=nlogncne s t = n e - c e s = e 1 / n1 + 1 / n n i = 1 i / nc>0

est=nec
es=e1/n1+1/n
i=1ni/nes1+i/ni=1nii+1=1n+1.

Ensemble, nous obtenons que

P(T<nlogncn)nn+1ec<ec

comme voulu.

cardinal
la source
C'est très bien et c'est exactement ce que le médecin a ordonné. Je vous remercie.
David
@David, juste curieux: Quelle est l'application prévue?
Cardinal
Longue histoire. J'essaie de prouver une limite inférieure pour le temps de mélange d'une chaîne de Markov que j'ai préparée afin d'analyser le temps de fonctionnement d'un algorithme qui m'intéresse - qui se révèle réduire à la limite inférieure du c problème de .collector. BTW, j'avais essayé de trouver exactement ce genre de reliure de style Chernoff, mais n'avais pas compris comment se débarrasser de ce produit dans . Bon appel en choisissant :-). s = 1 / nis=1/n
David
@David, , bien que presque certainement sous-optimal, semblait être la chose évidente à essayer car cela donnait , qui est le même terme que celui obtenu dans la dérivation pour la limite supérieure. e s t = n e -s=1/nest=nec
cardinal
1
Demande : La preuve que j'ai donnée ci-dessus est la mienne. J'y ai travaillé par plaisir, car le problème m'a intrigué. Cependant, je ne revendique aucune nouveauté. En effet, je ne peux pas imaginer qu'une preuve similaire utilisant une technique similaire n'existe pas déjà dans la littérature. Si quelqu'un connaît une référence, veuillez la poster en tant que commentaire ici. Je serais très intéressé d'en connaître un.
Cardinal
9

Bien que @cardinal ait déjà donné une réponse qui donne précisément la limite que je cherchais, j'ai trouvé un argument similaire à Chernoff qui peut donner une limite plus forte:

Proposition : (c'est plus fort pour )

Pr(Tnlogncn)exp(3c2π2).
c>π23

Preuve :

Comme dans la réponse de @ cardinal, nous pouvons utiliser le fait que est une somme de variables aléatoires géométriques indépendantes avec des probabilités de succès . Il s'ensuit que et .T i p i = 1 - i / n E [ T i ] = 1 /TTipi=1i/nE[Ti]=1/piE[T]=i=1nE[Ti]=ni=1n1inlogn

Définissez maintenant de nouvelles variables , et . On peut alors écrire S : = i S i Pr (Si:=TiE[Ti]S:=iSi

Pr(Tnlogncn)Pr(TE[T]cn)=Pr(Scn)
=Pr(exp(sS)exp(scn))escnE[esS]

En calculant les moyennes, nous avons

E[esS]=iE[esSi]=ies/pi1+1pi(es1)e12s2ipi2
où l'inégalité découle des faits que et aussi pour .es1sez1+ze12z2z0

Ainsi, puisque , nous pouvons écrire ipi2=n2i=1n11i2n2π2/6

Pr(Tnlogncn)e112(nπs)2scn.

En minimisant sur , on obtient enfin s>0

Pr(Tnlogncn)e3c2π2
David
la source
1
(+1) Modulo quelques fautes de frappe mineures, c'est bien. Se développer autour de quelque chose de proche de la moyenne comme vous l'avez souvent fait fonctionne mieux. Je ne suis pas surpris de voir la convergence d'ordre supérieur à la lumière des résultats asymptotiques. Maintenant, si vous montrez une telle limite supérieure similaire, cela prouve que est sous- exponentiel dans la terminologie de Vershynin, ce qui a de nombreuses implications concernant la concentration de mesure. (Tnlogn)/n
Cardinal
1
L'argument ne semble pas se généraliser directement à la limite supérieure. En échangeant pour (et pour ), on peut suivre les mêmes étapes jusqu'au point de calculer . À ce stade, cependant, le mieux que je puisse faire est d'utiliser , ce qui laisse toujours et je ne sais pas quoi faire avec ça-ccssE[esS]ies/pi1spiez1zexp(z22(1z))
E[esS]e12s2ipi2(1s/pi)
David
2
Chose intéressante, cependant, l'argument entier (pour la borne inférieure) semble fonctionner non seulement pour le problème du collecteur de coupons, mais pour toute somme de variables géométriques indépendantes non identiques avec une variance bornée. Plus précisément: étant donné , où chaque est un GV indépendant avec une probabilité de succès , et où , alors T i p i i p - 2T=iTiTipiipi2A<
Pr(TE[T]a)ea22A
David
4

Remarque importante : j'ai décidé de supprimer la preuve que j'ai donnée à l'origine dans cette réponse. Il était plus long, plus computationnel, utilisait des marteaux plus gros, et s'est avéré un résultat plus faible par rapport à l'autre preuve que j'ai donnée. Tout autour, une approche inférieure (à mon avis). Si vous êtes vraiment intéressé, je suppose que vous pouvez regarder les modifications.

Les résultats asymptotiques que j'ai cités à l'origine et qui se trouvent encore ci-dessous dans cette réponse montrent qu'en tant que nous pouvons faire un peu mieux que la limite prouvée dans l'autre réponse, qui vaut pour tout .n n


Les résultats asymptotiques suivants sont valables

P(T>nlogn+cn)1eec

et

P(Tnlogncn)eec.

La constante et les limites sont considérées comme . Notez que, bien qu'ils soient séparés en deux résultats, ils sont à peu près le même résultat puisque n'est pas contraint d'être non négatif dans les deux cas. n ccRnc

Voir, par exemple, Motwani et Raghavan, Randomized Algorithms , pp.60-63 pour une preuve.


Aussi : David fournit aimablement une preuve de sa limite supérieure indiquée dans les commentaires de cette réponse.

cardinal
la source
Oui, cela vaut pour chaque fixe . Une preuve (très simple) peut être trouvée, par exemple dans le livre de Levin, Peres et Wilmer, Markov Chains and Mixing Times, Proposition 2.4. Cependant, la preuve ne fonctionne pas pour la borne inférieure. n
David
1
En fait, je pourrais aussi bien transcrire la preuve ici: "Soit l'événement si le ème [coupon] n'apparaît pas parmi les premiers coupons tirés. Observez d'abord que . Puisque chaque essai a une probabilité de ne pas tirer le coupon et que les essais sont indépendants, le côté droit ci-dessus est délimité au-dessus par , prouvant (2.7). " Aiinlogn+cnP(τ>nlogn+cn)=P(iAi)iP(Ai)1n1ii(11/n)nlogn+cnnexp(nlogn+cnn)=ec
David
@ David, c'est sympa et assez simple. J'ai rapidement joué avec l'élargissement de la formule d'inclusion-exclusion par un autre terme, mais je n'ai pas réussi à aller vite et je n'ai pas eu le temps de l'examiner davantage. L'événement est équivalent à l'événement où aucun coupon n'est laissé après les essais de . Il devrait y avoir une martingale associée à cela. Avez-vous essayé l'inégalité de Hoeffding sur la martingale associée (présumée)? Le résultat asymptotique suggère une forte concentration de mesure. t n{T<tn}tn
cardinal
@ David, il y a un flip signe dans votre preuve ci-dessus, mais je suis sûr que cela est évident pour les autres lecteurs aussi.
cardinal
@David, veuillez consulter mon autre réponse publiée à votre question. La méthode est différente de la limite supérieure que vous donnez, mais les outils utilisés sont presque aussi élémentaires, contrairement à la réponse que j'ai donnée ici.
cardinal
2

Benjamin Doerr donne (dans le chapitre "Analyse de l'heuristique de recherche aléatoire: outils de la théorie des probabilités" dans le livre "Théorie de l'heuristique de recherche aléatoire", voir le lien pour un PDF en ligne) une preuve assez simple de

Proposition Soit l'heure d'arrêt du processus de collecte des coupons. Alors .TPr[T(1ϵ)(n1)lnn]enϵ

Cela semble donner l'asymptotique souhaitée (d'après la deuxième réponse de @ cardinal), mais avec l'avantage d'être vrai pour tous les et .nϵ

Voici un croquis de preuve.

Esquisse de preuve: Soit l'événement où le ème coupon est collecté lors des premiers tirages. Ainsi, . Le fait clé est que les sont corrélés négativement, pour tout , . Intuitivement, cela est assez clair, car sachant que le ème coupon dans les premiers tirages rendrait moins probable que le ème coupon soit également tiré dans les premiers tirages. XiitPr[Xi=1]=(11/n)tXiI[n]Pr[iI,Xi=1]iIPr[Xi=1]itjt

On peut prouver la revendication, mais en agrandissant l'ensemble de 1 à chaque étape. Ensuite , il se réduit à montrer que , pour . De manière équivalente, en faisant la moyenne, cela revient à montrer que . Doerr ne donne qu'un argument intuitif pour cela. Une voie vers une preuve est la suivante. On peut observer que conditionnée par le coupon venant après tous les coupons dans , que la probabilité de tirer un nouveau coupon de après avoir tiré jusqu'à présent soit maintenant , au lieu du précédentIPr[iI,Xi=1|Xj=1]Pr[iI,Xi=1]jIj I I k | Je | - kPr[iI,Xi=1|Xj=0]Pr[iI,Xi=1]jIIk | Je| -k|I|kn1 jI|I|kn . Ainsi, en décomposant le temps de collecte de tous les coupons sous la forme d'une somme de variables géométriques aléatoires, nous pouvons voir que le conditionnement sur le -coupon à venir après augmente les probabilités de succès, et donc faire le conditionnement ne fait que rendre plus probable la collecte des coupons plus tôt ( par dominance stochastique: chaque variable géométrique aléatoire est augmentée, en termes de dominance stochastique, par le conditionnement, et cette dominance peut alors être appliquée à la somme).jI

Compte tenu de cette corrélation négative, il s'ensuit que , ce qui donne la borne souhaitée avec . t = ( 1 - ϵ ) ( n - 1 ) ln nPr[T(1ϵ)(n1)lnn](1(11/n)t)nt=(1ϵ)(n1)lnn

miforbes
la source