pensez que vous pouvez être quelque peu mal interpréter le point de la question. L'intention de la question d'examen semble être «quels bons poids de perceptron résulteraient de ce problème de classification». la raison en est que l'on ne peut pas passer par toutes les étapes d'un algorithme de longue durée lors d'un examen ou même des devoirs.
pour revenir à la théorie du perceptron [qui a plusieurs décennies], le fait est que c'est un classifieur basé sur des fonctions linéairement séparables , c'est-à-dire des inégalités linéaires . pour le cas 2d, cela donne une géométrie algébrique simple. en d'autres termes, le perceptron peut mettre en œuvre un certain nombre d'inégalités linéaires pour tenter de créer la classification. ici, il est donnén=2. la question probablement posée est donc "quelles sont les deux inégalités linéaires vers lesquelles un bon algorithme perceptron convergerait pour ce problème".
il semble donc se réduire pour trouver les coefficients de:
y<m1x+b2
y>m2x+b2
alors utilisez l'algèbre géométrique de base pour déterminer les coefficients m1,m2,b1,b2qui fonctionnent pour le diagramme ci-dessus. sur la base du schéma, il n'y a pas de solution parfaite, mais une "bonne" solution. (notez également que les équations doivent uniquement[0,1]2.)
intuitivement, cela implique aussi quelque peu de cette analyse pourquoi les perceptrons sont si limités. car il est facile, même en 2D, de dessiner des problèmes de classification pour lesquels il n'y a pas de solution séparable linéairement (formes concaves, formes avec des trous dedans, etc.) - un indice de cela est visible en notant que la forme ci-dessus est légèrement concave). cette observation, étoffée d'une manière plus sophistiquée / formelle / mathématique / rigoureuse dans [1], a suscité beaucoup de controverses à l'époque et a été un débat important dans l'histoire de l'IA, et a même apparemment découragé certains scientifiques d'enquêter sur des techniques plus sophistiquées. simulé des modèles de réseaux de neurones pendant un certain temps, bien que Minsky ait nié catégoriquement que c'était son intention et ait déclaré que son travail était mal interprété.
[1] Perceptrons, par Minsky & Papert