La cupidité, faute d'un meilleur mot, est bonne. L' approche gloutonne est l'un des premiers paradigmes algorithmiques enseignés dans le cours d'introduction aux algorithmes . Une approche gloutonne donne des algorithmes simples et intuitifs pour de nombreux problèmes de P. Plus intéressant, pour certains problèmes complexes, l'algorithme glouton / local évident et naturel résulte en un facteur d'approximation (prouvable) optimal (sous des hypothèses théoriques de complexité appropriées). Un exemple classique est le problème de la couverture d'ensemble . Un algorithme glouton naturel donne un facteur d'approximation O (ln n) optimal, sauf si P = NP.
Nommez des algorithmes naturels gloutons / locaux pour les problèmes NP-difficiles qui sont manifestement optimaux sous des hypothèses théoriques de complexité appropriées.
la source
Réponses:
La méthode des attentes conditionnelles (pour dérandonner les algorithmes "d'assignation aléatoire" pour Max-Cut et Max-SAT) peut être considérée comme une stratégie gloutonne: pour , vous choisissez la valeur d'une variable x i telle que le nombre attendu de contraintes satisfaites dans l'instance réduite résultante dépasse le nombre attendu de contraintes satisfaites dans l'instance actuelle. (En fait, l'algorithme glouton pour une / deuxi=1,…,n xi 1/2 -approximating Max-Cut est la même que la "méthode des attentes conditionnelles" algorithme de -approximating Max-Cut.)1/2
Etant donné que la méthode fonctionne également pour Max-E3-SAT et réalise un -approximation, ceci est un exemple d'un algorithme glouton qui est une approximation optimale de moins que7/8 (cf. Hastad et Moshkovitz-Raz 'Résultats de inapproximabilité pour Max -E3-SAT).P=NP
la source
Couverture de vertex: Le meilleur algorithme d'approximation en facteurs constants consiste à trouver (avec avidité) une correspondance maximale et à choisir tous les sommets impliqués comme solution approchée. Cela donne une solution approximative à deux et aucune meilleure approximation à facteur constant n'est possible à moins que la conjecture de Games unique ne soit fausse.
Subhash Khot et Oded Regev, la couverture de Vertex pourrait être difficile à estimer à 2 − −2, JCSS 74 (3), 2008.
Hors sujet: Je pense que c'est un algorithme d'approximation vraiment mignon, d'autant plus qu'il est tellement trivial avec l'avantage du recul.
la source
Algorithme à 2 approximations trivial: Choisissez un ordre arbitraire des sommets et prenez les arêtes avant ou arrière.
Battre l'approximation 2 est connu pour être Unique-games hard (bien que cela ne soit peut-être pas NP-difficile).
la source
La maximisation submodulaire par rapport à la contrainte de cardinalité a une approximation gloutonne de 1-1 / e. L'algorithme est dû à Nemhauser, Wolsey, Fisher. La dureté NP résulte de np-hardness de la couverture du set, car la max-couverture est un cas particulier de maximisation sous-modulaire.
la source
Greedy donne une approximation (1-1 / e) de Max-k-cover et ne peut être améliorée que si P = NP.
la source
Trouver un degré minimum MST. Il est difficile car trouver un chemin hamiltonien est un cas particulier. Un algorithme de recherche locale donne à l'intérieur d'une constante additive 1.
Référence
Rapprocher l’arbre de Steiner au degré minimum à l’un des meilleurs.
la source
Le problème des centres est un problème de groupement, dans lequel on nous donne un graphe complet non orienté G = ( V , E ) avec une distance d i j ≥ 0 entre chaque paire de sommets i , j ∈ Vk G=(V,E) dij≥0 i,j∈V k
la source
La procédure d'ordonnancement de liste de Graham est optimale pour l'ordonnancement contraint de priorité sur des machines identiquesP| prec | Cm a x à moins qu'une nouvelle variante de la conjecture unique des jeux de Bansal et Khot soit fausse.
Dureté conditionnelle de priorité Ordonnancement contraint sur des machines identiques par Ola Svensson
la source
Peut-être que cela vous intéresserait également (adapté de Méthodes pour traduire les contraintes globales en contraintes locales )
Etant donné que les méthodes gourmandes (plus correctement les méthodes locales ) n'utilisent que des informations locales pour obtenir une optimisation globale, si l'on trouve des moyens capables de transformer des conditions globales en conditions pouvant être utilisées en utilisant uniquement des informations locales, ceci fournit une solution (globale) optimale aux problèmes utilisant uniquement des techniques gourmandes / locales.
Les références:
Quelques références abordent le problème de la traduction des fonctions d'évaluation globales (ou contraintes) en fonctions locales (en utilisant des informations locales) et leur cohérence (c'est-à-dire la convergence vers le même optimum global):
Résumé (de 1. ci-dessus)
Le document traite en particulier des méthodes permettant de déterminer si une fonction locale (LEF) est cohérente avec une fonction globale (GEF) et des méthodes permettant de construire des LEF cohérents à partir de GEF donnés ( théorème de cohérence ).
Extrait de la section Conclusion (à partir de 1. ci-dessus)
la source