Signification des méthodes de recherche et des méthodes d'optimisation

9

Je me demandais quelles sont les différences et les relations entre les "méthodes de recherche" et les "méthodes d'optimisation"?

Surtout lors de la résolution d'un problème d'optimisation? J'insiste sur le contexte de la résolution des problèmes d'optimisation, car je suppose que les méthodes de recherche ne sont pas seulement destinées à résoudre des problèmes d'optimisation, mais aussi des problèmes de non-optimisation?

Ma confusion vient des faits suivants:

  1. Il existe certaines méthodes d'optimisation, appelées "recherche xxx", telles que la recherche locale , la recherche stochastique , .... Que signifie réellement "recherche"? Je me demande s'il y a des méthodes d'optimisation qui ne sont pas "recherche"?
  2. Toujours dans ce livre Introduction à la recherche stochastique et à l'optimisation par Spall , je ne comprends pas très bien la différence entre "Recherche" et "Optimisation" dans son titre ainsi que dans son contenu. Pourquoi faut-il faire la distinction entre "Recherche" et "Optimisation", si elles signifient la même chose? Ou "Optimisation" signifie-t-il des tâches / problèmes d'optimisation stochastiques au lieu de méthodes d'optimisation, par opposition à "recherche" signifie les méthodes pour résoudre les tâches / problèmes d'optimisation?
  3. De plus, aucun déjeuner gratuit dans la recherche et l'optimisation ne distingue à nouveau la recherche et l'optimisation.

Merci et salutations!

Tim
la source

Réponses:

11

search = tentative de trouver un point réalisable qui satisfait toutes les contraintes (et pour l'optimisation un meilleur point que celui trouvé jusqu'à présent), en utilisant généralement des valeurs de fonction uniquement.

recherche locale: amélioration d'un point réalisable (ou d'une distance par rapport à la mesure de faisabilité) en recherchant parmi les points voisins.

recherche stochastique: recherche utilisant un critère non déterministe pour choisir des points d'essai.

Cela est indépendant du fait qu'un critère d'optimisation soit donné ou non. En particulier, dans «Pas de repas gratuit dans la recherche et l'optimisation», la recherche fait référence à la recherche de faisabilité, tandis que l'optimisation fait référence à la recherche d'optimalité.

D'une manière générale, pour un problème d'optimisation, la recherche et l'optimisation sont équivalentes. Cependant, ils ont des connotations qui font une différence dans l'utilisation du terme.

méthode d'optimisation = une méthode pour résoudre un problème d'optimisation, souvent (mais pas nécessairement) en utilisant des informations de gradient (ou de premier cycle ou même de Hesse).

La possibilité d'utiliser des dégradés augmente considérablement l'efficacité des méthodes d'optimisation. On utilise dans ce contexte (c'est-à-dire avec des gradients connus) le terme recherche uniquement dans la combinaison «recherche de ligne» qui signifie rechercher un meilleur point le long d'une direction choisie.

Arnold Neumaier
la source
(3) Les méthodes de recherche au sens strict sont-elles toutes métaheuristiques?
Tim
@Tim: Une recherche de ligne peut ou non utiliser des dégradés dans sa recherche (par exemple, une recherche de ligne Wolfe en a besoin). Vous ne devez pas attacher à ces mots un sens trop précis; ils suggèrent quelque chose, pas des concepts mathématiques avec une signification précise. - La méthode de Newton utilise des gradients et des Hessois. - Une méthode est stochastique une fois que la recherche implique un générateur de nombres aléatoires. - la recherche locale peut être utilisée dans le sens général d'une méthode qui ne garantit pas la convergence vers un optimum global, ou signifie une recherche directe basée sur l'inspection des quartiers locaux du meilleur point actuel uniquement.
Arnold Neumaier
Une métaheuristique doit contenir des principes plus spécifiques qu'une simple «recherche locale» pour mériter son nom; Je ne l'ai jamais entendu l'appliquer de manière générale. Mais la terminologie n'est pas très précise
Arnold Neumaier
4

Xg(X)g(X)=0XF(X)min!Fg(X)=F(X)

Wolfgang Bangerth
la source
g(X)=0,F(X)Fbestg(X)