Y a-t-il des résultats contre-intuitifs en informatique théorique?

30

Certains paradoxes mathématiques et logiques pourraient probablement être automatiquement appliqués aux ordinateurs, mais y a-t-il des paradoxes découverts en informatique elle-même?

Par paradoxes, j'entends des résultats contre-intuitifs qui ressemblent à une contradiction.

serg
la source
2
Cherchez-vous des choses qui semblent paradoxales ou de vraies incohérences (par exemple le paradoxe de Russell)?
Raphael
2
Je ne connais pas de balise appropriée pour cette question, peut-être [vue d'ensemble] ou [question douce]. Pouvez-vous donner un exemple des paradoxes mathématiques que vous avez mentionnés afin que nous puissions savoir de quoi vous parlez?
Kaveh
2
De toute évidence, il n'y a pas d'incohérences connues en informatique --- ce serait inquiétant. Cherchez-vous simplement des résultats contre-intuitifs? Les résultats comme le théorème du PCP, le théorème de récursivité de Kleene et les cryptosystèmes à clé publique sont-ils assez bizarres pour être considérés comme des paradoxes?
Thomas soutient Monica
4
@serg, il serait vraiment utile que vous puissiez répondre pour clarifier votre question. Soit vous entendez votre question dans un sens très "doux" que Thomas suggère - auquel cas la question est correctement étiquetée comme une vue d'ensemble et ma réponse ci-dessous est hors sujet, soit vous la entendez dans un sens quelque peu technique ("applications et impacts des paradoxes logiques en informatique "), auquel cas votre question doit être étiquetée lo.logic, et non dans son ensemble. Ou vous voulez dire autre chose que nous, les quatre commentateurs, n'avons pas deviné!
Rob Simmons
4
La contre-intuitivité est fonction du temps. Le fait que tant de questions différentes soient toutes NP-complètes était sans aucun doute contre-intuitif avant le document de Karp, tout comme le fait que les canaux ont des capacités d'information définies avant Shannon. Cependant, les gens sont maintenant habitués à ces résultats.
Peter Shor

Réponses:

28

Je trouve que le flux réseau est contre-temps polynomial intuitif. Il semble beaucoup plus difficile à première vue que de nombreux problèmes NP-Hard. Autrement dit, il existe de nombreux résultats dans CS où le temps d'exécution pour les résoudre est bien meilleur que ce que vous attendez.

Sariel Har-Peled
la source
6
idem: des étudiants ont commenté la non-intuitivité du flux réseau, et même le fait que des appariements puissent être effectués en poly temps semble très surprenant.
Suresh Venkat
9
Je ne suis pas tout à fait d'accord. Le flux réseau peut être facilement réduit à une programmation linéaire, vous prétendez donc que la programmation linéaire en P est contre-intuitive. Peut-être. Mais la dualité montre que LP est en NP et co-NP, ce qui suggère au moins que ce n'est peut-être pas si difficile. Ce qui est moins intuitif, c'est que le min-cut est résoluble en P car ce n'est pas naturellement un problème "fractionnaire".
Chandra Chekuri
21

P=NPEXPP/polyNEXPACC

Suresh Venkat
la source
Bien sûr, veuillez faire référence au résultat de Meyer.
Mohammad Al-Turkistany
1
Je ne sais pas s'il y a une référence directe. L'article de Karp-Lipton ( faculty.cs.tamu.edu/chen/courses/637/2008/pres/ashraf.pdf ) attribue à Meyer ce résultat, mais il n'y a aucune citation.
Suresh Venkat
20

SAT a un algorithme polynomial en temps uniquement si P = NP. Nous ne savons pas si P = NP. Cependant, je peux écrire un algorithme pour SAT qui est polynomial si P = NP est vrai. Je ne connais pas la référence correcte pour cela, mais la page wikipedia donne un tel algorithme et crédite Levin.

mikero
la source
5
De même, nous avons un algorithme prouvablement optimal pour l'affacturage qui s'exécute en temps polynomial si l'affacturage est en P, mais nous ne savons pas si l'affacturage est en P (ou comment analyser le temps d'exécution de cette fonction optimale).
Ross Snider
9
Ceci est généralement appelé «recherche universelle Levin» et la référence correcte est: L. Levin, Problèmes d'énumération universels. Problems of Information Transmission, 9 (3): 265--266, 1973 (traduit du russe). C'est le même article dans lequel Levin a introduit la complétude NP (voir aussi Cook & Karp, mais pour autant que je sache, aucun d'eux n'a introduit la notion d'algorithme de recherche universel optimal). La traduction anglaise peut être trouvée dans la célèbre enquête de Trakhtenbrot: doi.ieeecomputersociety.org/10.1109/MAHC.1984.10036
Joshua Grochow
18

La calculabilité visse certainement la plupart des étudiants. Un bel exemple avec un taux de confusion élevé est le suivant:

f(n):={1,π has 0n in its decimals0,else

f

f

Raphael
la source
7
Cela me semble être l'un de ces problèmes où tout son ruse réside dans la façon dont il est énoncé. Cela me rappelle un peu de prendre un algorithme, sachant que n est une constante et proclamant que l'algorithme fonctionne maintenant en temps constant. La question difficile que les gens pensent généralement que vous posez est de savoir si nous pouvons écrire un programme qui prouvera que pi contient une chaîne 0 ^ n pour tout n ou qui déterminera le plus grand n pour lequel il est vrai.
Joseph Garvin
4
Bien sûr, mais le fait qu'ils pensent ainsi n'illustre pas la complexité de la formulation de la fonction mais que les gens ne comprennent pas la différence entre l'existence et la construction.
Raphael
18

IP=PSPACE

Comme le disent Arora et Barak (p. 157) "Nous savons que l'interaction à elle seule ne nous donne pas de langues en dehors de NP. Nous soupçonnons également que la randomisation à elle seule n'ajoute pas de puissance significative au calcul. interaction fournir? "

Apparemment pas mal!

Huck Bennett
la source
13

Comme l'a dit Philip, le théorème de Rice est un bon exemple: l'intuition avant d'étudier la calculabilité est qu'il doit sûrement y avoir quelque chose que nous pouvons calculer à propos des calculs. Il s'avère que nous ne pouvons calculer que quelque chose sur certains calculs.

Max
la source
13

Que diriez-vous des publications de Martin Escardo montrant qu'il existe des ensembles infinis qui peuvent être recherchés de manière exhaustive en temps fini? Voir le blog invité d'Escardo sur le blog d'Andrej Bauer, par exemple, sur "Programmes fonctionnels apparemment impossibles" .

Dominic Mulligan
la source
12

Le théorème de récursion semble certainement contre-intuitif la première fois que vous le voyez. Essentiellement, il dit que lorsque vous décrivez une machine de Turing, vous pouvez supposer qu'elle a accès à sa propre description. En d'autres termes, je peux construire des machines de Turing comme:

TM M accepte n ssi n est un multiple du nombre de fois où "1" apparaît dans la représentation sous forme de chaîne de M.

TM N prend un nombre n et sort n copies de lui-même.

Notez que la "représentation de chaîne" ne fait pas référence ici à la description textuelle informelle, mais plutôt à un codage.

Mark Reitblatt
la source
11

Prouver des résultats théoriques de l'information basés sur des hypothèses théoriques de complexité est un autre résultat contre-intuitif. Par exemple, Bellare et al. dans leur article The (True) Complexity of Statistical Zero Knowledge a prouvé de manière constructive que, dans l' hypothèse de log discret certifié , toute langue qui admet la connaissance zéro statistique du vérificateur honnête admet également la connaissance zéro statistique.

Le résultat était si étrange qu'il a surpris les auteurs. Ils ont souligné ce fait plusieurs fois; par exemple, dans l'introduction:

Étant donné que la connaissance zéro statistique est une notion indépendante du calcul, il est quelque peu étrange que des propriétés à ce sujet puissent être prouvées sous une hypothèse d'intractabilité informatique.

PS: Un résultat plus fort a ensuite été prouvé inconditionnellement par Okamoto ( sur les relations entre les preuves statistiques de connaissances nulles ).

Description de certains termes

Étant donné que le résultat ci-dessus comprend beaucoup de jargon cryptographique, j'essaie de définir de manière informelle chaque terme.

  1. pp1
  2. Zéro connaissance : protocole qui ne fournit aucune connaissance aux parties limitées dans le temps polynomial.
  3. Connaissances statistiques nulles: protocole qui ne fournit aucune information, même à des parties sans limite de calcul, sauf avec une probabilité négligeable.
  4. Honest-verifier zero knowledge: Un protocole qui ne fournit aucune connaissance aux parties limitées dans le temps polynomial, si elles agissent comme spécifié par le protocole.
MS Dousti
la source
11

Que diriez-vous du fait que le calcul permanent est # P-complet mais déterminant de l'informatique - une manière dont le fonctionnement plus étrange se trouve être dans la classe NC?

Cela semble plutôt étrange - il ne devait pas en être ainsi (ou peut-être que oui ;-))

Akash Kumar
la source
7

Le problème de programmation linéaire peut être résolu en temps (faiblement) polynomial. Cela semble très surprenant: pourquoi pourrions-nous en trouver un parmi un nombre exponentiel de sommets d'un polytope de grande dimension? Pourquoi pourrions-nous résoudre un problème si ridiculement expressif?

Sans parler de tous les programmes linéaires de taille exponentielle que nous pouvons résoudre en utilisant la méthode ellipsoïde et les oracles de séparation, et d'autres méthodes (ajout de variables, etc.). Par exemple, il est étonnant qu'un LP avec un nombre exponentiel de variables comme la relaxation de Karmakar-Karp de Bin Packing puisse être efficacement approché.

Sasho Nikolov
la source
2
Le fait qu'il existe un nombre exponentiel de solutions n'est pas unique à LP. La plupart des problèmes d'optimisation discrets ont la même caractéristique mais ils ont des algorithmes poly-temps, non? LP est un cas particulier d'optimisation convexe où un optimum local est un optimum global. Nous pouvons également résoudre l'optimisation convexe modulo un problème epsilon en raison de l'irrationalité et d'autres raisons techniques. Pour LP, en raison de la structure combinatoire, on peut passer de cette petite solution d'erreur à un sommet qui donne une solution exacte. L'équivalence de la séparation et de l'optimisation est cependant surprenante.
Chandra Chekuri
2
@ChandraChekuri ce que j'avais à l'esprit, c'est qu'un problème de recherche géométrique de grande dimension semble être difficile ... mais bien sûr il y a aussi de bonnes raisons pour lesquelles ce n'est pas le cas (convexité). Je devrais probablement insister plutôt sur l'équivalence de la séparation et de l'optimisation. Beaucoup de conséquences surprenantes, comme la résolution de problèmes d'optimisation difficiles sur des graphiques parfaits, par exemple.
Sasho Nikolov
3

Chaque fois que j'enseigne des automates, je demande toujours à mes élèves s'ils trouvent surprenant que le non-déterminisme n'ajoute aucun pouvoir aux automates à états finis (c'est-à-dire que pour chaque NFA, il existe un équivalent - peut-être beaucoup plus grand - DFA). Environ la moitié des élèves disent être surpris, alors voilà. [J'ai moi-même perdu la "sensation" de ce qui est surprenant au niveau de l'intro.]

RRE

Aryeh
la source