Questions marquées «machine-learning»

13
Algorithmes de modèle de requête statistique?

J'ai posé cette question dans des questions- réponses validées de manière croisée, mais il semble qu'elle soit beaucoup plus liée à CS qu'aux statistiques. Pouvez-vous me donner des exemples d'algorithmes d'apprentissage automatique qui apprennent des propriétés statistiques de l'ensemble de...

12
Quand utiliser le lemme de Johnson-Lindenstrauss sur SVD?

Le lemme de Johnson-Lindenstrauss permet de représenter des points dans un espace de grande dimension en points de dimension inférieure. Lors de la recherche d'espaces de dimension inférieure de meilleur ajustement, une technique standard consiste à trouver la décomposition des valeurs singulières,...

11
Étant donné

Voici un problème avec une saveur similaire à l'apprentissage des juntes: Entrée: Une fonction F: { 0 , 1 }n→ { - 1 , 1 }f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , représentée par un oracle d'appartenance, c'est-à-dire un oracle qui a donné XXx , renvoie F( x )F(X)f(x) . Objectif: trouver...

11
Existe-t-il une technique basée sur la descente de gradient pour rechercher le minimum absolu (maximum) d'une fonction dans un espace multidimensionnel?

Je connais l'algorithme de descente de gradient qui peut trouver le minimum local (maximum) d'une fonction donnée. Y a-t-il une modification de la descente du gradient qui permet de trouver le minimum absolu (maximum), où la fonction a plusieurs extrema locaux? Existe-t-il des techniques générales,...

10
Échantillonnage PAC agnostique borne inférieure

Il est bien connu que pour l'apprentissage PAC classique, des exemples de sont nécessaires afin d'obtenir une limite d'erreur de ε whp, où d est la dimension VC de la classe de concept.Ω ( d/ ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Est-il connu que des exemples de sont nécessaires dans le cas...