Nassim Taleb a-t-il raison de dire que l'IA n'est pas en mesure de prédire avec précision certains types de distributions?

8

Taleb a donc deux heuristiques pour décrire généralement les distributions de données. L'un est Médiocristan, ce qui signifie essentiellement des choses qui sont sur une distribution gaussienne telles que la taille et / ou le poids des personnes.

L'autre est appelé Extremistan, qui décrit une distribution plus semblable à Pareto ou à queue grasse. Un exemple est la distribution de la richesse, 1% des personnes possèdent 50% de la richesse ou quelque chose de proche et donc la prévisibilité à partir d'ensembles de données limités est beaucoup plus difficile, voire impossible. En effet, vous pouvez ajouter un seul échantillon à votre ensemble de données et les conséquences sont si importantes qu'elles cassent le modèle, ou ont un effet si important qu'il annule tous les avantages des prédictions précises antérieures. En fait, c'est ainsi qu'il prétend avoir gagné de l'argent en bourse, parce que tout le monde utilisait de mauvais modèles de distribution gaussiens pour prédire le marché, qui fonctionnerait en fait pendant une courte période, mais quand les choses allaient mal, ils allaient vraiment mal qui vous ferait subir des pertes nettes sur le marché.

J'ai trouvé cette vidéo de Taleb interrogé sur l'IA. Son affirmation est que l'IA ne fonctionne pas (également) pour les choses qui tombent dans l'extrémistan.

A-t-il raison? Certaines choses seront-elles intrinsèquement imprévisibles même avec l'IA?

Voici la vidéo à laquelle je fais référence https://youtu.be/B2-QCv-hChY?t=43m08s

Josiah Swaim
la source

Réponses:

6

Oui et non!

Il n'y a aucune raison intrinsèque que les systèmes d'apprentissage automatique ne puissent pas faire face aux événements extrêmes. En tant que version simple, vous pouvez apprendre les paramètres d'une distribution de Weibull ou d'un autre modèle de valeur extrême à partir de données.

Le plus gros problème concerne les inconnus connus et les inconnus inconnus. Si vous savez que des événements rares sont possibles (comme, par exemple, la prédiction de tremblement de terre), vous pouvez intégrer ces connaissances dans les modèles que vous développez, et vous obtiendrez quelque chose qui fonctionne aussi bien ou mieux que les humains dans ce domaine. Si vous ne savez pas que des événements rares sont possibles (comme, par exemple, un krach boursier produit par des défauts de logement corrélés), votre modèle le reflétera également.

J'ai tendance à penser que Taleb est un peu injuste ici: l'IA ne peut pas gérer ce genre d'événements précisément parce que ses créateurs (nous) ne peuvent pas les gérer! Si nous savions qu'elles étaient possibles, nous pourrions les gérer assez bien, et l'IA le pourrait aussi.

John Doucette
la source
1
L'incapacité de ces modèles (y compris des modèles humains dans le cerveau) n'est-elle pas à la hauteur de son argument? Puisqu'il y a toujours une limite à la quantité de données précises que nous pouvons recueillir dans nos échantillons et dans les cas de distributions à queue grasse, l'effet d'une valeur aberrante peut être énorme, alors que dans une distribution normale, l'effet ou les dommages d'une valeur aberrante extrême seront généralement être assez petit. C'est comme s'il disait que c'est une caractéristique fondamentale des connaissances et des systèmes prédictifs, biologiques ou basés sur la machine, d'où la raison pour laquelle l'IA sera limitée dans certains domaines.
Josiah Swaim
2
Hmm. Je pense qu'il y a deux problèmes. La première est l'affirmation selon laquelle nous ne pouvons pas gérer les distributions à grande échelle avec l'IA. C'est faux. L'autre est que si vous ne savez pas quelles distributions sont adaptées au problème que vous étudiez (c'est-à-dire si vous ne comprenez pas vraiment votre problème), vous serez surpris par des événements inattendus. C'est vrai. Je pense que Taleb confond les deux problèmes, alors qu'en réalité ils sont séparés.
John Doucette