Pourquoi les poids initiaux des réseaux de neurones sont-ils initialisés sous forme de nombres aléatoires? J'avais lu quelque part que cela est fait pour "briser la symétrie" et que le réseau neuronal apprend plus vite. Comment briser la symétrie permet-elle d'apprendre plus rapidement?
Est-ce que l'initialisation des poids à 0 ne serait pas une meilleure idée? De cette façon, les poids pourraient trouver leurs valeurs (positives ou négatives) plus rapidement?
Y a-t-il une autre philosophie sous-jacente derrière la randomisation des poids en plus d'espérer qu'ils seraient proches de leurs valeurs optimales une fois initialisés?