Pour les algorithmes randomisés prenant des valeurs réelles, le "tour médian" est un moyen simple de réduire la probabilité d'échec à n'importe quel seuil , au prix d'un multiplicatif seulement frais généraux. A savoir, si la sortie de tombe dans une "bonne plage" avec probabilité (au moins) , puis exécuter des copies indépendantes A 1 , … , A t et prendre la médiane de leurs sorties a 1 , … , a t se traduira par une valeur tombant dans I δ > 0 t = O ( log 1AI=[a,b]2/3avec une probabilité d'au moins par les bornes de Chernoff / Hoeffding.
Y a-t-il une généralisation de ce "truc" à des dimensions plus élevées, disons , où la bonne plage est maintenant un ensemble convexe (ou une balle, ou tout ensemble suffisamment agréable et structuré)? Autrement dit, étant donné un algorithme aléatoire délivrer en sortie les valeurs de , et un "bon jeu" de telle sorte que pour tout , comment une impulsion la probabilité de réussite à avec seulement un coût logarithmique en ?
(Formulé différemment: étant donné fixe, arbitraire avec la garantie qu'au moins des appartiennent à , existe-t-il une procédure produisant une valeur à partir de ? Si oui, existe-t-il un système efficace?) aiSS
Et quel est l'ensemble minimum d'hypothèses dont on a besoin sur pour que ce qui précède soit réalisable?
Désolé si cela s'avère insignifiant - je n'ai pas pu trouver de référence sur cette question ...
la source
Réponses:
Ce que vous recherchez est à peu près la même une tendance centrale robuste : un moyen de réduire un nuage de points de données à un seul point, de sorte que si beaucoup de points de données sont proches d'une certaine "vérité de fond" mais le reste d'entre eux sont arbitrairement éloignés, alors votre sortie sera également proche de la vérité du terrain. Le «point de rupture» d'une telle méthode est la fraction de valeurs aberrantes arbitrairement mauvaises qu'elle peut tolérer. La différence est que dans votre cas, vous voulez remplacer "près de" par "dans la coque convexe de".
Une façon de saisir cela est avec la notion de profondeur de Tukey. Un point a une profondeur de Tukey (par rapport à un ensemble donné de n points de données) si chaque demi-espace contenant le point donné contient également au moins p n points de données. S'il y a un bon sous-espace convexe dans lequel vous voulez être, alors un point avec la profondeur de Tukey p sera à l'intérieur tant qu'il y aura au moins ( 1 - p ) n des points de données à l'intérieur. Le point de rupture de cette méthode est donc la plus grande valeur de p que vous puissiez atteindre.p n p n p ( 1 - p ) n p
Malheureusement, ce point de panne est de , pas proche de 1/2, à la fois pour la profondeur de Tukey et pour votre problème. Voici pourquoi: si vos données sont regroupées près des d + 1 sommets d'un simplexe, tant que moins de 1 / ( d + 1 ) fraction d'entre elles sont aberrantes (mais vous ne savez pas lesquelles), alors n'importe quel point dans le simplex est sûr à prendre car il sera toujours dans la coque convexe des non-aberrants. Mais si plus de 1 / ( d + 1 )1 / ( d+ 1 ) ré+ 1 1 / ( d+ 1 ) 1 / ( d+ 1 ) des points peuvent être des valeurs aberrantes, il n'y a nulle part où il est sûr de choisir: quel que soit le point du simplexe que vous choisissez, les valeurs aberrantes pourraient être tous les points du sommet du simplexe le plus proche, et vous seriez en dehors de la coque du non valeurs aberrantes.
Si vous êtes prêt à tolérer un point de dégradation pire, plus comme , il existe une méthode aléatoire pour trouver un point profond qui est polynomial à la fois en n et en d : voir mon articleO ( 1 / d2) n ré
Approximation des points centraux avec des points de radon itérés, K. Clarkson, D. Eppstein, GL Miller, C. Sturtivant et S.-H. Teng, 9e ACM Symp. Comp. Geom. , San Diego, 1993, pp. 91–98, Int. J. Comp. Geom. & Appl. 6 (3): 357–377, 1996, http://kenclarkson.org/center/p.pdf
la source
C'est une bonne question et j'y ai déjà pensé. Voici ce que nous avons trouvé:
Vous exécutez votre algorithme fois pour obtenir des sorties x 1 , ⋯ , x n ∈ R d et vous savez ce avec une forte probabilité d' une fraction importante de x i chute s dans une bonne série G . Vous ne savez pas ce qu'est G , juste qu'il est convexe. La bonne nouvelle est qu'il existe un moyen d'obtenir un point en G sans plus d'informations à ce sujet. Appelons ce point f ( x 1 , ⋯ , x n ) .n X1, ⋯ , xn∈ Rré Xje g G G f(x1,⋯,xn)
Notez que, pour , nous pouvons définir f pour être la médiane. Cela montre donc comment généraliser la médiane pour d > 1 .d=1 f d>1
Avant de prouver ce résultat, notez qu'il est serré: Soit et soit x 1 , ⋯ , x d les éléments de base standard et x d + 1 = 0 . Tout sous-ensemble de d des points est contenu dans un espace affine G de dimension d - 1 (qui est uniquement défini par ces points). Mais aucun point n'est contenu dans tous ces espaces affines. Il existe donc un certain G convexe qui contient n ⋅ d / ( d +n=d+1 x1,⋯,xd xd+1=0 d G d−1 G points mais ne contient pas f ( x 1 , ⋯ , x n ) , quelle que soit la valeur qui prend.n⋅d/(d+1)=d f(x1,⋯,xn)
Malheureusement, ce résultat n'est pas très pratique dans le cadre de grande dimension. Une bonne question est de savoir si nous pouvons calculer plus efficacement:f
A part: On peut aussi changer le problème pour obtenir une solution efficace: si ont la propriété que strictement plus de la moitié d'entre eux se trouvent dans une boule B ( y , ε ) , alors on peut trouver un point z qui se trouve dans B ( y , 3 ε ) dans le polynôme temporel en n et d . En particulier, nous pouvons définir z = x i pour un arbitraire i tel que strictement plus de la moitié des points sont dans Bx1,⋯,xn B(y,ε) z B(y,3ε) n d z=xi i .B(z,2ε)
la source
Il existe une notion de la médiane d'un ensemble de points de grande dimension et de normes générales connue sous différents noms. C'est juste le point qui minimise la somme des distances à tous les points de l'ensemble. Il est connu pour avoir une propriété d'amplification de confiance similaire à la médiane habituelle avec une petite augmentation multiplicative de la distance. Vous pouvez trouver les détails dans le théorème 3.1 de cet article: http://arxiv.org/pdf/1308.1334.pdf
Une bonne chose que cet article montre est que le facteur par lequel la distance augmente peut être rendu constant> 1 si vous pouvez amplifier à partir d'une confiance arbitrairement élevée (mais constante <1).
Edit: il y a un autre article récent sur le sujet par Hsu et Sabato http://arxiv.org/pdf/1307.1827v6.pdf Il analyse et applique principalement la procédure dans laquelle le point dans l'ensemble avec la plus petite distance médiane au reste des points est utilisé. Cette procédure peut être utilisée avec n'importe quelle métrique mais ne donne qu'un facteur d'approximation de 3.
la source