J'essaie de comprendre la complexité des fonctions exprimables via les portes de seuil et cela m'a conduit à . En particulier, je suis intéressé par ce que l'on sait actuellement sur l'apprentissage dans , car je ne suis pas un expert dans le domaine.
Ce que j'ai découvert jusqu'à présent, c'est:
- Tout peut être appris en temps quasi-polynomial sous la distribution uniforme via Linial-Mansour-Nisan .
- Leur article souligne également que l'existence d'un générateur de fonction pseudo-aléatoire empêche l'apprentissage, et cela, couplé à un résultat ultérieur de Naor-Reingold selon lequel admet les PRFG, suggère que représente les limites d'apprentissage (au moins dans un sens PAC)
- Il y a un article de 2002 de Jackson / Klivans / Servedio qui peut apprendre un fragment de (avec au plus des portes à majorité polylogarithmique).
J'ai fait la recherche Google habituelle, mais j'espère que la sagesse collective de cstheory pourrait avoir une réponse plus rapide:
Est-ce que j'ai décrit l'état de l'art pour notre compréhension de la complexité de l'apprentissage (en termes de quelles classes prennent en sandwich des apprenants efficaces)? Et y a-t-il une bonne enquête / référence qui cartographie l'état actuel du paysage?
cc.complexity-theory
reference-request
cr.crypto-security
lg.learning
boolean-functions
Suresh Venkat
la source
la source
Réponses:
La principale chose qui manque à votre liste est le magnifique papier 2006 de Klivans et Sherstov . Ils y montrent que l'apprentissage par PAC même des circuits de seuil de profondeur 2 est aussi difficile que de résoudre le problème de vecteur le plus court approximatif.
la source
La profondeur-2 TC0 ne peut probablement pas être apprise par PAC en temps sous-exponentiel sur la distribution uniforme avec un accès aléatoire à l'oracle. Je ne connais pas de référence pour cela, mais voici mon raisonnement: nous savons que la parité est à peine apprenable, dans le sens où la classe des fonctions de parité est apprenable en soi, mais une fois que vous faites à peu près tout ( comme ajoutant un peu de bruit aléatoire), il cesse d'être apprenable. Mais la profondeur-2 TC0 est assez forte pour représenter toutes les fonctions de parité et assez forte pour représenter les versions perturbées des parités, donc je pense qu'il est sûr de deviner que la profondeur-2 TC0 ne peut pas être apprise par PAC.
la source