La logique floue semblait être un domaine de recherche actif dans l'apprentissage automatique et l'exploration de données lorsque j'étais à l'école (début des années 2000). Les systèmes d'inférence floue, les moyens c flous, les versions floues des divers réseaux de neurones et les architectures de machines à vecteurs de support étaient tous enseignés dans des cours de troisième cycle et discutés lors de conférences.
Depuis que j'ai recommencé à prêter attention au ML (~ 2013), Fuzzy Logic semble avoir complètement disparu de la carte et son absence dans le paysage ML actuel est remarquable compte tenu de tout le battage médiatique de l'IA.
Était-ce le cas d'un sujet tombant simplement en désuétude, ou y avait-il une limitation spécifique de la logique floue et de l'inférence floue qui a conduit à l'abandon du sujet par les chercheurs?
Pour clarifier, sur la base du commentaire de jbowman: Y a-t-il eu un événement ou une découverte qui a fait que FL est passé de mode, similaire par exemple aux réseaux de neurones dans les années 60, quand ils sont passés de mode parce qu'il a été prouvé qu'ils ne pouvaient pas résoudre XOR ? Ou les systèmes flous ont-ils été surclassés par un paradigme concurrent?
la source
Réponses:
Ma réponse est techniquement plus pertinente pour les ensembles flous que pour la logique floue, mais les deux concepts sont pratiquement inséparables. J'ai fouillé dans les articles de revues universitaires sur la logique floue il y a quelques années afin d'écrire une série de tutoriels sur l' implémentation d'ensembles flous dans SQL Server . Bien que je puisse difficilement être considéré comme un expert, je connais assez bien la littérature et j'utilise régulièrement les techniques pour résoudre des problèmes pratiques. La forte impression que j'ai tirée des recherches publiées est que le potentiel pratique des ensembles flous est encore inexploité, principalement en raison d'un déluge de recherches sur des dizaines d'autres familles de techniques qui peuvent résoudre des ensembles de questions complémentaires.
Le marché bondé d'idées en science des données / apprentissage automatique, etc.
Il y a eu des progrès si rapides dans les machines à vecteurs de support, les réseaux de neurones, les forêts aléatoires, etc. qu'il est impossible pour les spécialistes, les analystes, les scientifiques des données, les programmeurs ou les consommateurs de leurs produits de suivre tout cela. Dans ma série d'articles de blog, je parle longuement de la façon dont le développement d'algorithmes pour les ensembles flous et logiques a généralement plus de 20 ans d'avance sur les logiciels disponibles, mais on peut en dire autant de nombreux domaines connexes; Je lis intensément sur les réseaux neuronaux et je pense à des dizaines d'architectures neuronales intéressantes qui ont été développées il y a des décennies mais qui n'ont jamais été largement mises en pratique, et encore moins codées dans des logiciels facilement disponibles. Cela étant dit, la logique floue et les décors sont désavantagés dans ce marché d'idées bondé, principalement en raison de leur surnom, qui était controversé à l'époque où Lofti A. Zadeh l'a inventé. Le but des techniques floues est simplement d'approximer certaines classes de données discrètement évaluées sur des échelles continues, mais des termes comme «logique approximative à valeur continue» et «ensembles gradués» ne sont pas exactement accrocheurs. Zadeh a admis qu'il avait utilisé le terme "flou" en partie parce qu'il attirait l'attention, mais en y repensant, cela peut avoir subtilement attiré le mauvais type d'attention.
Comment le terme "Fuzz" se retourne contre
Pour un data scientist, analyste ou programmeur, c'est un terme qui peut évoquer une ambiance de "cool tech"; à ceux intéressés par l'IA / l'exploration de données / etc. etc. uniquement dans la mesure où il peut résoudre des problèmes commerciaux, "flou" sonne comme un tracas peu pratique. Pour un chef d'entreprise, un médecin impliqué dans la recherche médicale ou tout autre consommateur non averti, cela peut évoquer des images d'animaux en peluche, des émissions de flics des années 70 ou quelque chose du réfrigérateur de George Carlin. Il y a toujours eu une tension dans l'industrie entre les deux groupes, ces derniers s'empêchant souvent d'écrire du code et de faire des recherches simplement pour la curiosité intellectuelle plutôt que pour le profit; à moins que le premier groupe ne puisse expliquer pourquoi ces techniques floues sont rentables, la méfiance du premier empêchera leur adoption.
Gestion de l'incertitude et la famille d'applications d'ensemble flou
Le point des techniques d'ensemble floue est de supprimerfuzz qui est déjà inhérent aux données, sous la forme de valeurs discrètes imprécises qui peuvent être mieux modélisées sur des échelles continues approximatives, contrairement à la perception erronée répandue que le "fuzz" est quelque chose que vous ajoutez, comme un nappage spécial sur une pizza. Cette distinction peut être simple mais elle englobe une grande variété d'applications potentielles, allant du traitement du langage naturel à la théorie de la décision en passant par le contrôle des systèmes non linéaires. La probabilité n'a pas absorbé la logique floue comme Cliff AB l'a suggéré principalement parce que ce n'est qu'un petit sous-ensemble des interprétations qui peuvent être attachées aux valeurs floues. Les fonctions d'appartenance floues sont assez simples en ce qu'elles notent simplement à quel point un enregistrement appartient à un ensemble particulier en attribuant une ou plusieurs valeurs continues, généralement sur une échelle de 0 à 1 (bien que pour certaines applications, je ' ai trouvé que -1 à 1 peut être plus utile). La signification que nous attribuons à ces nombres dépend de nous, car ils peuvent signifier tout ce que nous voulons, tels que les degrés de croyance bayésienne, la confiance dans une décision particulière, les distributions de possibilités, les activations du réseau neuronal, la variance à l'échelle, la corrélation, etc., etc., pas seulement les valeurs PDF, EDF ou CDF. Je vais beaucoup plus en détail dans ma série de blogs etce poste de CV , dont une grande partie a été dérivée en travaillant à travers ma ressource floue préférée, George J. Klir, et les ensembles flous et la logique floue de Bo Yuan: théorie et applications (1995). Ils expliquent plus en détail comment dériver des programmes entiers de «gestion de l'incertitude» à partir d'ensembles flous.
Si la logique floue et les décors étaient un produit de consommation, nous pourrions dire qu'il n'a pas réussi à ce jour en raison d'un manque de marketing et d'évangélisation des produits, ainsi que d'un choix paradoxal de nom de marque. Pendant mes recherches, je ne me souviens pas avoir rencontré un seul article de journal universitaire qui a tenté de démystifier l'une de ces applications d'une manière similaire à l'article tristement célèbre de Minksy et Papert sur les perceptrons. Il y a juste beaucoup de concurrence sur le marché des idées ces jours-ci à l'attention des développeurs, des théoriciens, des scientifiques des données et autres pour les produits qui sont applicables à des ensembles de problèmes similaires, ce qui est un effet secondaire positif d'un progrès technique rapide. L'inconvénient est qu'il y a beaucoup de fruits bas qui ne sont pas cueillis, en particulier dans le domaine de la modélisation des données où ils sont les plus applicables.
la source
La raison pour laquelle les idées de logique floue ont abandonné la mode (en ML) n'est pas claire pour moi. Cela peut bien être un peu de plusieurs raisons, qu'elles soient techniques, sociologiques, etc ... Une chose est sûre, c'est que les mathématiques du ML au cours des dernières années ont été dominées par la probabilité / statistique et l'optimisation, deux domaines dans lesquels la logique floue (ou des idées issues de la littérature floue) peuvent être remplies, mais dans lesquelles elles apportent généralement plus de réponses que de questions. Un autre avantage des probabilités et de l'optimisation est que, même s'il peut y avoir différentes tendances / interprétations en leur sein (par exemple, bayésien vs fréquentistes), le cadre formel / mathématique de base est plutôt stable pour ceux-ci (il est moins clair, à mon avis, pour la logique floue compris au sens large).
Je pense que l'une des idées de base de la logique floue, qui est de modéliser des concepts qui sont progressifs et de fournir des outils de raisonnement (principalement étendant la logique, mais pas seulement) qui lui est associée, est toujours présente dans certaines idées de ML, y compris les plus récentes. Il suffit de le rechercher attentivement car il est plutôt rare. Deux exemples:
Dans l'ensemble, pour répondre à votre question sur un terrain plus personnel, mon sentiment est qu'il n'y a pas une perception claire de ce que la logique floue pourrait accomplir (dans les vues récentes de ML) que les probabilités ne pourraient pas, et puisque ce dernier est beaucoup plus ancien et correspond clairement mieux avec le cadre ML de voir les données issues d'une population probabiliste, il était plus naturel d'aller avec la probabilité et les statistiques qu'avec la logique floue. Cela signifie également que si vous souhaitez utiliser la logique floue en ML, vous devez présenter une bonne raison convaincante de le faire (par exemple, en utilisant le fait qu'ils étendent la logique en fournissant des fonctions différenciables afin que vous puissiez inclure des règles logiques dans l'apprentissage en profondeur techniques).
la source