Thèmes interdisciplinaires entre théorie du contrôle et informatique théorique

12

Je suis dans ma deuxième année dans un MSc qui ne se rapporte pas trop au TCS bien que je le souhaite. Il s'agit essentiellement de la théorie du contrôle, des signaux et des systèmes et j'ai suivi des cours dans les systèmes avancés (robuste, non linéaire, optimal, stochastique), le traitement avancé du signal et l'optimisation convexe.

J'essaie de trouver un bon domaine à aborder pour mon mémoire et je me demandais si je pouvais me rapporter à un sujet TCS.

Le seul domaine auquel je peux penser pourrait être lié à l'optimisation, mais je n'ai rien de particulier à l'esprit, tout le sujet étant très intéressant.

Ce serait formidable si vous pouviez partager le sujet qui, selon vous, appartient aux deux mondes.

PS: Cette question pourrait être totalement hors de portée de ce site de questions-réponses, donc je suis totalement d'accord si vous pensez que cela vaut la peine de fermer. Merci!

hyperboreean
la source
1
Donc, vous demandez essentiellement s'il existe des approches théoriques de l'informatique pour contrôler la théorie?
András Salamon
Oui, il devrait y avoir beaucoup de résultats du TCS qui peuvent être appliqués à la théorie du contrôle et je suis intéressé par ceux-là.
hyperboreean
Merci Kaveh, j'ai édité le titre pour être plus suggestif.
hyperboreean

Réponses:

7

Vous voudrez peut-être voir s'il y a des problèmes dans la vérification des systèmes hybrides (aka systèmes cyberphysiques) que vous souhaitez résoudre. L'interaction du contrôle discret avec des systèmes continus est assez fascinante et vous permet d'ajouter de la logique et de la théorie des modèles à la théorie du contrôle, et elle a également de nombreuses applications utiles (c'est-à-dire à chaque fois qu'un ordinateur interagit avec le monde!).

La page d'accueil d'Andre Platzer a un assez bon résumé de ce domaine.

Neel Krishnaswami
la source
6

Un autre lien possible à explorer est l'utilisation des techniques de coinduction et de charbon-charbon pour raisonner sur les systèmes théoriques de contrôle. Il y a quelques années, Jan Rutten a travaillé dans ce sens, à savoir:

  • JJMM Rutten Coalgebra, concurrence et contrôle. Dans: R. Boel et G. Stremersch (éd.), Discrete Event Systems (analyse et contrôle), Proceedings of WODES 2000 (5th Workshop on Discrete Event Systems), Kluwer, 2000, p. 31--38. (Ce lien vers le document semble cependant rompu).

La tecnologie houillère a progressé au cours des 10 dernières années, mais je ne sais pas si la connexion a été explorée plus avant. Edit Jan Komenda (et ici ) semble avoir suivi la connexion.

D'autres approches possibles pourraient impliquer l'utilisation d'algèbre de processus, d'automates d'E / S, d'automates d'interface et de variantes hybrides de ces choses. Les automates d'interface ont un sentiment de théorie du jeu très fort qui correspond étroitement à certaines choses faites dans la théorie du contrôle, à savoir que la distinction entre les actions contrôlables et incontrôlables peut être considérée comme des actions jouées par deux joueurs différents. Je ne sais pas si quelque chose a été fait dans ce domaine. La connexion semble assez évidente.

Un dernier lien qui pourrait être intéressant à explorer est entre la théorie du contrôle et la logique épistémique. La connexion peut être vue via l'analogie des jeux. Que sait chaque partie? Comment peuvent-ils l'utiliser pour obtenir un résultat approprié dans le système contrôlé?

Dave Clarke
la source
5

La robotique (ou comme on l'appelle trop souvent de nos jours «systèmes cyberphysiques») est une bonne source de problèmes qui nécessitent à la fois la théorie du contrôle et des algorithmes. Voir les algorithmes de planification de Steve Lavalle pour une bonne introduction.

Jeffε
la source
3

Le choix social semble être un bel espace au carrefour de nombreux domaines: théorie du contrôle, complexité, etc. De plus, c'est toujours une surprise (je veux dire pour moi) de voir que les problèmes des mecs du département d'économie sont presque les mêmes que ceux que nous essayons de résoudre ... Croyez-moi, cela vaut la peine de prendre un café avec eux (et laissez-les payer, cela ne les dérange pas;)).

Sylvain Peyronnet
la source
3

Un bon domaine à explorer pourrait être la théorie du contrôle optimal (c'est-à-dire contrôler un système tout en minimisant une fonction de coût donnée), qui a été principalement développée par Richard Bellman, en collaboration avec le paradigme de programmation dynamique, qui est maintenant omniprésent en informatique.

Une application très utile du contrôle optimal se trouve, par exemple, dans les processus de décision de Markov: un système dynamique est modélisé par une chaîne de Markov qui peut être modifiée en utilisant certaines politiques admissibles. Les coûts sont donnés pour les transitions et / ou les contrôles et l'on est généralement intéressé à trouver une politique qui minimise le coût total / moyen / actualisé pour un horizon temporel fini / infini. Cela peut être accompli, par exemple, en formulant une équation Hamilton-Jacobi-Bellman appropriée pour le système, puis en la résolvant au moyen de la programmation dynamique (de nombreuses autres méthodes existent selon les systèmes).

Par conséquent, une application naturelle est dans les paramètres d'optimisation stochastique dans lesquels le système dynamique peut être modélisé comme markovien. Une référence standard pour un contrôle optimal est:

  • Dimitri P. Bertsekas, Programmation dynamique et contrôle optimal , Athena Scientific.
cesco
la source
1

Que diriez-vous d'utiliser des algorithmes d'optimisation (tels que le recuit simulé ou génétique) pour régler les paramètres de votre choix d'algorithme de boucle de contrôle?

David Reis
la source