J'étudie actuellement les mathématiques. Cependant, je ne pense pas vouloir devenir mathématicien professionnel à l'avenir. Je pense appliquer mes connaissances en mathématiques pour faire de la recherche en intelligence artificielle. Cependant, je ne sais pas combien de cours de mathématiques je devrais suivre. (Et quels cours de théorie CS je devrais suivre.)
De Quora, j'ai appris que les sujets d'algèbre linéaire, de statistique et d'optimisation convexe sont les plus pertinents pour l'apprentissage automatique (voir cette question). Quelqu'un d'autre a mentionné que l'apprentissage de l'algèbre linéaire, de la probabilité / statistique, du calcul, des algorithmes de base et de la logique est nécessaire pour étudier l'intelligence artificielle (voir cette question).
Je peux en apprendre davantage sur toutes ces matières au cours de mes premiers 1,5 ans de baccalauréat en mathématiques dans notre université.
Je me demandais, cependant, s'il y avait des matières mathématiques de premier cycle, même supérieures, qui sont utiles ou même nécessaires pour étudier l'intelligence artificielle. Qu'en est-il des ODE, des PDE, de la topologie, de la théorie des mesures, de l'analyse linéaire, de l'analyse de Fourier et de l'analyse sur les collecteurs?
Un livre qui suggère que certaines mathématiques assez avancées sont utiles dans l'étude de l'intelligence artificielle est la théorie des motifs: l'analyse stochastique des signaux du monde réel par David Mumford et Agnes Desolneux (voir cette page). Il comprend des chapitres sur les chaînes de Markov, les modèles gaussiens par morceaux, les champs de Gibbs, les collecteurs, les groupes de Lie et les algèbres de Lie et leurs applications à la théorie des modèles. Dans quelle mesure ce livre est-il utile dans la recherche sur l'IA?
Réponses:
Je ne veux pas paraître condescendant, mais les mathématiques que vous étudiez au premier cycle et même aux cycles supérieurs ne sont pas avancées. Ce sont les bases . Le titre de votre question devrait être: les mathématiques "de base" sont-elles nécessaires / utiles dans la recherche sur l'IA? Donc, engloutissez autant que vous le pouvez, je n'ai jamais rencontré d'informaticien qui se plaignait de trop connaître les mathématiques, bien que j'en ai rencontré beaucoup qui se plaignaient de ne pas en savoir assez. Je me souviens avoir aidé un autre étudiant diplômé en IA à comprendre un algorithme de style de classement des pages. C'était juste une algèbre linéaire assez facile pour moi, mais il a souffert parce qu'il n'avait aucune idée de ce qu'étaient les valeurs propres et les vecteurs propres. Imaginez les choses que les gens de l'IA pourraient faire s'ils connaissaient réellement beaucoup de mathématiques!
J'enseigne dans un département de mathématiques et je reçois régulièrement des demandes de mes collègues CS pour recommander des majors en mathématiques pour les doctorants CS car ils préfèrent les étudiants en mathématiques. Vous voyez, les mathématiques sont vraiment, vraiment difficiles à apprendre par vous-même, mais la plupart des aspects de l'informatique ne le sont pas. Je sais, j'étais un étudiant en mathématiques qui est entré dans une école supérieure CS. Bien sûr, j'étais "en retard" sur la connaissance des systèmes d'exploitation (malgré une connaissance décente d'Unix et de VMS), mais j'étais bien en avance sur la "théorie". Ce n'est pas une situation symétrique.
la source
Max, voici une liste (nécessairement) partielle:
L'algèbre linéaire de base et la probabilité sont nécessaires partout. Je suppose que vous n'avez pas besoin de références pour cela.
À ma connaissance, l'analyse de Fourier a été utilisée dans certaines recherches liées à la théorie de l'apprentissage. Consultez ce document , par exemple.
Le concept d'apprentissage multiple devient populaire, et vous pouvez commencer à jeter un œil aux œuvres de Mikhail belkin et Partha Niyogi. Cette ligne de travail nécessite la compréhension de divers concepts liés aux variétés et à la géométrie riemannienne.
Il existe un autre aspect de l'apprentissage automatique, qui a des racines plus profondes dans les statistiques, à savoir la géométrie de l'information. Cette zone est liée à divers concepts de la géométrie riemannienne, de la théorie de l'information, de l'information de Fisher, etc.
Sumio Watanabe, a étudié une autre frontière, à savoir, l'existence de singularités dans les modèles d'apprentissage et comment appliquer les résultats profonds des résolutions de la géométrie algébrique pour répondre à de nombreuses questions. Les résultats de Watanabe s'appuient largement sur le célèbre travail de Heisuke Hironaka qui lui a valu la médaille Fields.
Je suppose que j'omet de nombreux autres domaines qui nécessitent des calculs relativement lourds. Mais comme Andrej l'a souligné, la plupart d'entre eux ne se situent probablement pas aux frontières des mathématiques, mais sont des domaines relativement anciens et établis.
Quoi qu'il en soit, je suppose que l'état actuel de l'IA qui est entré dans l' informatique grand public - comme dans les systèmes de recommandation d'Amazon ou les bibliothèques d'apprentissage automatique trouvées dans Apache Mahout, ne nécessite aucun calcul avancé. J'ai peut-être tort.
la source
Cela dépend de votre définition de avancé et du type d'IA que vous souhaitez étudier.
De nombreux problèmes en IA sont prouvables - les solutions optimales aux POMDP sont sans aucun doute NP-Complete, les solutions optimales aux DEC-POMDPs sont sans doute NEXP-Complete, etc. Donc, en l'absence de percée inattendue dans la théorie de la complexité, plus on en sait sur les algorithmes d'approximation et leurs fondements théoriques, mieux c'est. (En plus de la théorie des mesures, etc., il fallait vraiment comprendre la probabilité bayésienne qui sous-tend le modèle POMDP.)
L'intelligence artificielle multi-agents, en particulier, recoupe la théorie des jeux; il est donc utile de connaître la théorie des jeux qui dépend à son tour de la topologie, de la théorie des mesures, etc. Et de même, de nombreux problèmes en théorie des jeux sont insolubles. Certains sont même intraitables sous l'approximation et même la compréhension quand il est possible d'approximer utilement prend une quantité considérable de mathématiques à travailler.
(Je note que les théoriciens du jeu ont eu un assez bon parcours dans le domaine de l'économie Nobel, au cours des dernières années, et c'est de nature fortement mathématique. Je prédis que dans vingt années impaires, les théoriciens du jeu algorithmique d'aujourd'hui seront à peu près les mêmes position.)
la source
Les mathématiques impliquées dans l'IA ne sont pas avancées et sont enseignées au premier cycle. Les algorithmes de formation et d'inférence de l'IA sont dans le domaine de l'informatique avancée.
C'est un peu un jeu de mots. Un peu d'histoire devrait également être incluse lors de la recherche sur l'IA.
Par exemple, dans la nomenclature actuelle, le Deep Learning semble être un mot-clé tendance en IA.
L'apprentissage profond est ce que l'on appelait auparavant les réseaux de neurones artificiels (RNA) tels que le modèle de réseau de perceptrons rétropropagation de Hinton (BACKPROP), etc.
Les mathématiques impliquées avec un ANN BACKPROP (par exemple) sont essentiellement le calcul dérivé pour la formation et l'algèbre matricielle pour l'inférence.
Le nouvel aspect du Deep Learning est la séparation physique des algorithmes de formation et d'inférence. Les CPU sont toujours utilisés pour la formation, mais maintenant les GPU sont utilisés pour l'inférence.
Par exemple, les matrices ANN sont entraînées (pondérées) par rétropropagation des erreurs à l'aide du calcul dérivé correctif. Cela convient mieux aux processeurs et ne doit être effectué qu'une fois par déploiement ANN.
L'ANN est ensuite déployé dans une architecture GPU hautement parallélisée. Les mathématiques d'inférence directe impliquent une algèbre matricielle intensive, pour laquelle les GPU sont conçus.
Cela augmente les performances d'un ANN déployé de plusieurs ordres de grandeur par rapport aux déploiements précédents basés sur le processeur, et peut être mis à l'échelle plus efficacement sur n'importe quel nombre de GPU dédiés.
Des sociétés telles que Nvidia et AMD commercialisent désormais des chipsets GPU très haut de gamme en tant que Deep Learning Machines. Le terme GPU a toujours été un peu impropre, car ce sont vraiment des processeurs parallèles à usage général. Par exemple, les GPU sont parfois appelés Bitminers dans les applications blockchain.
Ce qui était ancien est donc nouveau. Les mathématiques impliquées n'ont pas changé, juste la terminologie de l'informatique (principalement en raison des pressions marketing).
Le terme IA a toujours été considéré comme un cheval noir. Le Deep Learning est désormais le terme politiquement correct et favorable au marché.
la source
L'IA est un domaine incroyablement large avec un large éventail de routes possibles. Certains sont extrêmement mathématiques, certains touchent à peine les mathématiques. D'autres ont déjà donné de bonnes réponses pour les approches plus mathématiques. Parmi les sujets que vous avez mentionnés -
"Algèbre linéaire, probabilité / statistique, calcul, algorithmes de base et logique"
-vous avez essentiellement besoin ou bénéficierez de tous. De nombreuses approches sont au moins en partie directement basées sur les probabilités et les statistiques - heuristique, réseaux de neurones, algorithmes génétiques, logique floue. Le calcul est également utile - en IA ou en informatique générale, vous le trouverez presque partout. L'algèbre linéaire est également quelque chose dont vous avez absolument besoin.
Les deux sujets les plus essentiels du point de vue CS / AI sont les algorithmes et la logique, les algorithmes sont le véritable cœur de l'informatique et la logique est le «langage» sous-jacent des algorithmes. La clé de l'apprentissage des algorithmes est cependant d'apprendre à programmer, la compétence et la pratique de la programmation de base est l'un des fondements les plus importants de presque tous les sujets de l'informatique ou de l'IA. La programmation est également une compétence que les universités ne sont pas toujours particulièrement douées pour enseigner. La logique est également vraiment essentielle pour la plupart des branches de l'IA; Logique booléenne, calcul des prédicats, logique symbolique, théories sous-jacentes de la permutation, hiérarchie de la conception, récursivité, machines à états finis, machines de Turing, conception du CPU, etc.
S'étendre à mon propre domaine des mathématiques de l'IA forte joue un rôle sous-jacent mais absolument essentiel. Une très bonne compréhension des mathématiques de base est probablement plus importante que des mathématiques supérieures, mais vraiment tout ce que vous prenez peut être utile. Le vrai problème dans un champ naissant comme Strong AI est que tout est en l'air et donc le champ est en flux total.
Les sujets potentiellement utiles comprennent - les réseaux de neurones, les algorithmes génétiques, la neurologie, la génétique, la psychologie, la cybernétique et la robotique, la théorie graphique 3D, la théorie du traitement d'image, la conception de jeux informatiques, la philosophie, la théorie de l'art, l'électronique numérique, la théorie linguistique. comme cette lecture est l'un des moyens les plus importants d'apprendre. Quelques livres qui ont été des points de départ pour moi étaient - The Emperors New Mind de Roger Penrose, Eye and Brain de RL Gregory, mais vraiment les idées peuvent venir de presque n'importe où
la source