Perspective de projection dans l’apprentissage automatique

Avant d’entrer dans la perspective de la projection, comprenons d’abord une technique connue sous le nom de PCA, quel est son besoin et où elle est utilisée.

Analyse des composants principaux:

Il s’agit d’une technique d’analyse de données adaptative utilisée pour réduire la dimensionnalité de grands ensembles de données, en augmentant l’interprétabilité tout en minimisant les pertes d’informations et de reconstruction. En termes d’apprentissage automatique, il est utilisé pour réduire le nombre de paramètres (régresseurs) en fonction de leur contribution à la prédiction de la sortie afin qu’ils puissent être représentés graphiquement dans un tracé 2D/3D. Considérons le modèle de régression suivant avec 5 paramètres d’entrée.

y = x_1w_1 + x_2w_2 + x_3w_3 + x_4w_4 + x_5w_5

where, 
y -> output (dependent variable).
x1, ..., x5 -> input parameters / regressors (independent variable).
w1, ..., w5 -> weights assigned to the input parameters. 

Il n’est pas possible de représenter graphiquement ce modèle car il y a 5 variables, mais nous ne pouvons tracer que des données jusqu’à 3 dimensions. Par conséquent, nous utilisons PCA qui prend en entrée n où n représente les n régresseurs les plus importants qui contribuent à trouver la sortie y. Disons n = 2, alors nous obtiendrons 2 nouveaux paramètres qui détermineront au mieux la sortie y est l’équation maintenant sera :

y =x_1w_1 + x_2w_2

Il est vraiment facile de représenter des données en 2 dimensions.

Perspective de projection

C’est une technique utilisée en PCA qui minimise encore le coût de reconstruction des données. La reconstruction des données signifie simplement réduire le point de données dans des dimensions supérieures à des dimensions inférieures où il est facilement interprétable. Dans cette méthode, nous nous concentrerons sur la différence entre le vecteur de données d’origine Xje et le vecteur de données reconstruit Xje. Pour cela, nous trouvons un sous-espace (ligne) qui minimise le vecteur de différence entre le point de données d’origine et sa projection, comme indiqué sur la figure 1.

Illustration

Fig 1 : Illustration de l’approche par projection

Indépendance linéaire

Il stipule qu’il y aura toujours un ensemble de vecteurs avec lesquels nous pouvons représenter chaque vecteur dans l’espace vectoriel en les additionnant et en les mettant à l’échelle. Cet ensemble de vecteurs est appelé la base. Généralement, nous pouvons additionner des vecteurs et les multiplier par des scalaires comme indiqué dans l’équation ci-dessous :

v = \lambda_1x_1 + ... + \lambda_nx_n ;\ v \in V

where, 
V -> vector space
v -> formed vector
x1...i -> original vector
λ1...i -> scalar values

Intuition

Considérons une base orthogonale, B = (b1, . . . , bN).

La base orthogonale implique bjeJbj = 1 ssi (i = j) et 0 Par ailleurs.

Selon le concept d’indépendance linéaire, la base B peut être définie comme une combinaison linéaire des vecteurs de base. (équation donnée ci-dessous)

v = \sum_{n = 1}^{N} x_nb_n \\ = \sum_{i = 1}^{I} x_ib_i + \sum_{j = I+1}^{D} x_jb_j

where,
v -> linear combination of basis vector existing in the higher dimension.
x -> suitable coordinates for v.

Maintenant, nous sommes intéressés à trouver un vecteur v’, qui existe dans la dimension inférieure tu (appelé le sous-espace principal) où, dim(U) = I. Nous pouvons trouver v’ en utilisant l’équation suivante :

v' = \sum_{i = 1}^{I} y_ib_i

where, 
v' -> new vector existing in the lower dimensions.
y -> suitable coordinates for v'.

En supposant que les coordonnées yje et Xje ne sont pas identiques les uns aux autres.

Sur la base des 2 équations ci-dessus, nous nous assurons que le vecteur v’ trouvé dans la dimension inférieure est aussi similaire que possible au vecteur v dans la dimension supérieure.

Maintenant, l’objectif est de minimiser la différence entre le vecteur présent dans la dimension supérieure et inférieure (ou de minimiser l’erreur de reconstruction). Pour mesurer la similarité entre les vecteurs v et v’, on trouve la distance euclidienne au carré (également connu sous le nom d’erreur de reconstruction) entre eux à l’aide de l’équation suivante :

J_I = \frac{1}{N} \sum_{n = 1}^{N} ||v_n - v'_n||^2

Considérez l’image ci-dessous:

FinalIllustration

En observant le graphique de gauche, nous avons cartographié les projections des points de données sur le plan 3D. Cependant, nous ne pouvons pas facilement séparer les données en groupes distincts car elles peuvent se chevaucher. En utilisant une perspective de projection dans PCA, nous pouvons projeter les points de données 3D sur un plan 2D. De cette façon, il devient plus facile d’interpréter les données en groupes distincts. C’est le grand avantage d’utiliser différentes méthodes de perspective comme la perspective de projection dans l’algorithme PCA. Pour tout commentaire de doute/requête ci-dessous.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Aller en haut