Je me bats avec le concept de matrice de covariance. Maintenant, ma compréhension de , , et qu'ils décrivent l'incertitude. Par exemple, pour , il décrit l'incertitude de la valeur de x. Maintenant, ma question sur le reste des sigmas, que représentent-ils? Qu'est-ce que cela signifie si ce sont des zéros? Je peux interpréter que si est nul, cela signifie que je n'ai pas d'incertitude sur la valeur de x. σ x x σ y y σ θ θ σ x x σ x x
Remarque, je lis les principes du mouvement du robot - Théorie, algorithmes et implémentations par Howie Choset et. al., qui déclare que
Par cette définition, est identique à la variance de . Pour , si , alors et sont indépendants l'un de l'autre. σ 2 i X i i ≠ j σ i j = 0 X i X j
Cela peut répondre à ma question si le reste des sigmas sont des zéros cependant, je suis toujours confus quant à la relation entre ces variables, par exemple et . Quand cela se produit-il? Je veux dire la corrélation entre eux. Ou en d'autres termes, puis-je supposer qu'il s'agit de zéros?
Un autre livre à savoir FastSLAM: A Scalable Method ... de Michael et Sebastian qui déclare
Les éléments hors diagonale de la matrice de covariance de cette gaussienne multivariée codent les corrélations entre les paires de variables d'état.
Ils ne mentionnent pas quand la corrélation pourrait se produire et qu'est-ce que cela signifie?
la source
Pour avoir une idée de la matrice de covariance - sans entrer dans les détails mathématiques ici - il est préférable de commencer avec une matrice 2x2. Souvenez-vous ensuite que la matrice de covariance est une extension du concept de variance dans le cas multivarié. Dans le cas 1D, la variance est une statistique pour une seule variable aléatoire. Si votre variable aléatoire a une distribution gaussienne avec une moyenne nulle, sa variance peut définir précisément la fonction de densité de probabilité.
Maintenant, si vous étendez cela à deux variables au lieu d'une, vous pouvez différencier deux cas. Si vos deux variables sont indépendantes, ce qui signifie que le résultat d'une valeur n'a aucun rapport avec l'autre valeur, c'est fondamentalement la même que dans le cas 1D. Votre et votre σ y y donnent la variance des parties x et y de votre variable aléatoire, et σ x y sera nulle.σx x σyy X y σx y
Si vos variables sont dépendantes, c'est différent. Dépendant signifie qu'il existe une relation entre le résultat de et y . Par exemple, vous pourriez avoir cela chaque fois que x est positif, y est en général plus susceptible d'être également positif. Ceci est donné par votre valeur de covariance σ x y .X y X y σx y
Donner un exemple pour un robot dans un cas 2D sans orientation est un peu artificiel, mais disons que vous avez une composante aléatoire le long de la direction de déplacement sur l' axe des et vous savez que cette composante génère également une dérive sur votre axe latéral ( y ). Cela pourrait par exemple être une roue défectueuse. Cela se traduira par une ellipse d'incertitude tournée. Maintenant, par exemple, lorsque vous avez plus tard quelque chose qui mesure votre position x réelle , vous pouvez estimer la distribution d'incertitude sur votre composante y .X y X y
Cela est également vrai dans le cas 3D. J'adorerais devenir plus mathématique ici, mais peut-être un peu plus tard.
la source