Si j'ai une matrice inversible carrée et que je prends son déterminant, et que je trouve que , cela implique-t-il que la matrice est mal conditionnée?
L'inverse est-il également vrai? Une matrice mal conditionnée a-t-elle un déterminant presque nul?
Voici quelque chose que j'ai essayé dans Octave:
a = rand(4,4);
det(a) %0.008
cond(a)%125
a(:,4) = 1*a(:,1) + 2*a(:,2) = 0.000000001*ones(4,1);
det(a)%1.8E-11
cond(a)%3.46E10
linear-algebra
condition-number
Enquête
la source
la source
Réponses:
C'est l'ampleur du nombre de conditionsκ(A) qui mesure la proximité de la singularité, et non la minuscule du déterminant.
Par exemple, la matrice diagonale10−50I a un déterminant minuscule, mais est bien conditionnée.
D'un autre côté, considérons la famille suivante de matrices triangulaires supérieures carrées, dues à Alexander Ostrowski (et également étudiées par Jim Wilkinson):
Le déterminant de la matrice est toujours , mais le rapport de la plus grande à la plus petite valeur singulière (c'est-à-dire le nombre de conditions à 2 normes ) a été montré par Ostrowski comme étant égal à , qui peut être vu augmenter pour augmenter .U 1 κ 2 ( U ) = σ 1n×n U 1 cot2πκ2(U)=σ1σn ncot2π4n n
la source
Comme , le déterminant peut être rendu arbitrairement grand ou petit par une simple mise à l'échelle (qui ne change pas le numéro de condition). Surtout dans les dimensions élevées, même la mise à l'échelle d'un facteur innocent de 2 modifie énormément le déterminant.det(kA)=kndetA
N'utilisez donc jamais le déterminant pour évaluer l'état ou la proximité de la singularité.
D'un autre côté, pour presque tous les problèmes numériques bien posés, la condition est étroitement liée à la distance à la singularité, dans le sens de la plus petite perturbation relative nécessaire pour rendre le problème mal posé. Cela vaut en particulier pour les systèmes linéaires.
la source