Calcul des vecteurs propres et approximations de rang inférieur

Conditions préalables: Valeurs propres et vecteurs propres

Avant d’entrer dans les calculs approfondis derrière les calculs impliqués dans les vecteurs propres, discutons brièvement de ce que sont réellement une valeur propre et un vecteur propre.

Valeur propre et vecteurs propres :

Le mot ‘propre’ moyens ‘les caractéristiques‘. D’une manière générale, les valeurs propres et les vecteurs propres donnent les caractéristiques d’une matrice ou d’un vecteur.

Vecteur propre: C’est un vecteur représenté par une matrice X telle que lorsque X est multiplié par n’importe quelle matrice A, alors la direction de la matrice résultante reste la même que le vecteur X. Observez Fig. 1 attentivement pour regarder une représentation graphique d’un vecteur propre.

evecevals

Fig 1 : Représentation des vecteurs propres

Sur la figure 1, nous observons les transformations scalaires suivantes :

\vec{v_1'} = 1,5 (\vec{v_1}) \\ \vec{v_2'} = 0,5 (\vec{v_2})

Après application de ces transformations, les vecteurs v1‘ et v2‘ sont dans le même sens que v1 et v2. Donc, selon notre définition, ce sont considéré comme vecteurs propres. Mais le vecteur résultant v3‘ n’est pas dans le même sens que v3. D’où il ne peut être considéré comme vecteur propre.

Valeurs propres : Il nous indique dans quelle mesure le vecteur propre a été étiré ou diminué.
Dans le cas ci-dessus, les valeurs propres seront 1.5 et 0,5.

Calcul des vecteurs propres

Nous pouvons calculer les valeurs propres de n’importe quelle matrice en utilisant l’équation caractéristique de la matrice (comme discuté dans l’article préalable) qui est :

|A - \lambda I|= 0

Les racines de l’équation ci-dessus (c’est-à-dire les valeurs de λ) nous donne les valeurs propres.

En utilisant les valeurs de λ obtenues, nous pouvons trouver les vecteurs propres correspondants à l’aide de l’équation donnée ci-dessous.

À\ \lambda=i\\ [A-iI ]X_i = 0

Exemple de problème

Considérez l’exemple suivant pour une meilleure compréhension. Soit une matrice 3×3 X définie par :

A = \begin{bmatrice} 1 & 0 & -1\\1 & 2 & 1\\2 & 2 & 3 \end{bmatrice}

Trouver les valeurs propres et les vecteurs propres correspondant à la matrice A.

La solution

1. Trouver les valeurs propres.

\\ det(A-\lambda I) = det(\begin{bmatrice} 1-\lambda & 0 & -1\\1 & 2-\lambda & 1\\2 & 2 & 3-\lambda \end{ bmatrice}) = 0 \\ \implies (\lambda^3 - 6\lambda^2 +11\lambda -6) = 0 \\ \implies (\lambda - 1)( \lambda - 2)(\lambda -3 ) = 0 \\ \implique \lambda = 1,2,3

Ainsi, les valeurs propres obtenues sont 1, 2 et 3.

2. Trouver les vecteurs propres.

En utilisant la formule donnée ci-dessus, nous allons calculer un vecteur propre correspondant xje pour chaque valeur de λje.

À\ \lambda = 1 \\ [A - (1)I]X_1 = 0 \\ \implique \begin{bmatrix} 1-1 & 0 & -1\\1 & 2-1 & 1\\2 & 2 & 3-1 \end{bmatrix} \begin{bmatrix} x_1\ \x_2\\x_3 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix} \\ \implique \begin{bmatrix} 0 & 0 & -1\\1 & 1 & 1 \\2 & 2 & 2 \end{bmatrix} \begin{bmatrix} x_1\\x_2\\x_3 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix} \\ On \ en résolvant,\ on\ obtient\ les\ équations\ suivantes : \\ x_3 = 0 (x_1) \\ x_1 + x_2 = 0 \implique x_2 = -x_1 \\ \donc X_1 = \begin{bmatrix} x_1\\- x_1\\ 0(x_1) \end{bmatrice} \\ \implique X_1 = \begin{bmatrice} 1\\-1\\0 \end{bmatrice}
De même, \\ for\ \lambda = 2 \\ X_2 = \begin{bmatrix} -2\\1\\2 \end{bmatrix} \\ et \\ for\ \lambda = 3 \\ X_3 = \begin{ bmatrice} 1\\-1\\-2 \end{bmatrice}

Ainsi, on obtient les vecteurs propres X1X2X3 correspondant à chaque valeur de λ.

Rang d’une matrice :

Le rang d’une matrice (mxn) est déterminé par le nombre de lignes linéairement indépendantes présentes dans la matrice. Considérez l’exemple ci-dessous pour une meilleure compréhension.

A = \begin{bmatrice} 1 & 0 & 0\\0 & 1 & 0\\0 & 0 & 1 \end{bmatrice}

Les 3 lignes de la matrice A sont linéairement indépendantes. Par conséquent, Rang ( A ) = 3.

B = \begin{bmatrice} 2 & 1 & 3\\3 & 2 & 0\\5 & 3 & 3 \end{bmatrice} \\

Rang ( B ) = 2. C’est parce que la ligne 3 dépend de R1 et R2. [R3 <- R1 + R2]

Quelques propriétés importantes :

Pour toute matrice A de forme mxn, les propriétés de rang suivantes s’appliquent :

  1. Rang (A) = Rang (AJ)
  2. Rang (BAC) = Rang (A) à condition que B et C soient des matrices inversibles.
  3. Rang (AB) ≤ min{ Rang (A) + Rang (B) }

Avant de se lancer dans l’approximation de rang inférieur, il est important de comprendre ce qui suit :

Toute matrice A de forme mxn de rang (A) = r est dite factorisée lorsqu’elle prend la forme :

A = BC^T

where, the shapes of the matrices are:
 
mat(A) -> m x n
mat(B) -> m x r 
mat(C) -> n x r

On dit que la matrice A est de rang bas si r <.

Approximation de rang inférieur (LRA)

Sur la base des deux méthodes discutées ci-dessus, nous définissons LRA comme :

Pour une matrice A de forme mxn et de rang (A) << min {m, n}, l'approximation de rang bas de A est de trouver une autre matrice B telle que rang (B) ≤ rang (A). Intuitivement, nous avons tendance à voir à quel point la matrice B est linéairement similaire à la matrice d'entrée A. Mathématiquement, LRA est un problème de minimisation, dans lequel nous mesurons l'ajustement entre une matrice donnée (les données) et une matrice d'approximation (la variable d'optimisation).

Motivation pour la LRA

Supposons 3 matrices X, Y, Z de dimensions (50 x 40), (50 x 10), (40 x 10) respectivement où rang(X) = 10. Par conséquent, selon la factorisation matricielle, les trois matrices sont de la forme A = BCJ. Nous observons que :

Amxn = BmxrCTrxn

No of elements/pixels in mat(A) = (50 x 40) = 2000
while
No of elements/pixels in mat(BCT) = (50 x 10) + (10 x 40) = 900.

Ainsi, en utilisant une approximation de rang inférieur, nous pouvons réduire considérablement le nombre de pixels de données d’entrée. (1100 pixels de moins que l’image d’entrée dans le cas ci-dessus)

Application de la LRA

Cette méthode est couramment utilisée dans les tâches de traitement d’image où l’image d’entrée (données) est très volumineuse et doit être compressée avant toute tâche de traitement. Observez les deux images de la même personne ci-dessous.

tempimage

Image après LRA vs image d’entrée

Après avoir appliqué LRA, nous sommes en mesure d’obtenir une image très similaire à l’image d’origine en supprimant certains pixels sans importance, réduisant ainsi également la taille de l’image. Après cela, il devient beaucoup plus facile de gérer des ensembles de données aussi volumineux et d’effectuer diverses tâches de prétraitement sur ceux-ci.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *