Visage propre: Explorer les profondeurs de la reconnaissance visuelle avec Eigenface
Par Fouad Sabry
()
À propos de ce livre électronique
Qu'est-ce qu'une face propre
Une face propre est le nom donné à un ensemble de vecteurs propres lorsqu'il est utilisé dans le problème de vision par ordinateur de la reconnaissance des visages humains. L'approche consistant à utiliser les visages propres pour la reconnaissance a été développée par Sirovich et Kirby et utilisée par Matthew Turk et Alex Pentland dans la classification des visages. Les vecteurs propres sont dérivés de la matrice de covariance de la distribution de probabilité sur l'espace vectoriel de grande dimension des images de visage. Les faces propres elles-mêmes forment un ensemble de base de toutes les images utilisées pour construire la matrice de covariance. Cela produit une réduction de dimension en permettant au plus petit ensemble d'images de base de représenter les images d'entraînement d'origine. La classification peut être obtenue en comparant la façon dont les visages sont représentés par l'ensemble de base.
Comment vous en bénéficierez
(I) Informations et validations sur les éléments suivants sujets :
Chapitre 1 : Face propre
Chapitre 2 : Analyse en composantes principales
Chapitre 3 : Décomposition en valeurs singulières
Chapitre 4 : Valeurs propres et vecteurs propres
Chapitre 5 : Décomposition propre d'une matrice
Chapitre 6 : Analyse en composantes principales du noyau
Chapitre 7 : Analyse matricielle
Chapitre 8 : Système dynamique linéaire
Chapitre 9 : Distribution normale multivariée
Chapitre 10 : Modes de variation
(II) Répondre aux principales questions du public sur la face propre.
(III) Exemples concrets d'utilisation de la face propre dans de nombreux domaines.
À qui s'adresse ce livre
Professionnels, étudiants de premier cycle et les étudiants diplômés, les passionnés, les amateurs et ceux qui souhaitent aller au-delà des connaissances ou des informations de base pour tout type d'Eigenface.
En savoir plus sur Fouad Sabry
Sciences Économiques [French] Extraction D'Astéroïdes: L'extraction d'astéroïdes sera-t-elle la prochaine course en or dans l'espace ? Évaluation : 0 sur 5 étoiles0 évaluationGravité Artificielle: Pour maintenir votre pied dans l'espace, la gravité artificielle est indispensable Évaluation : 0 sur 5 étoiles0 évaluation
Lié à Visage propre
Titres dans cette série (100)
Groupe mixte d'experts en photographie: Libérer la puissance des données visuelles avec la norme JPEG Évaluation : 0 sur 5 étoiles0 évaluationÉgalisation d'histogramme: Amélioration du contraste de l'image pour une perception visuelle améliorée Évaluation : 0 sur 5 étoiles0 évaluationHomographie: Homographie : transformations en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationCartographie des tons: Cartographie des tons : perspectives éclairantes en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation Hadamard: Dévoilement de la puissance de la transformation Hadamard en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationVision stéréo par ordinateur: Explorer la perception de la profondeur dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationDiffusion anisotrope: Améliorer l'analyse d'images grâce à la diffusion anisotrope Évaluation : 0 sur 5 étoiles0 évaluationVision par ordinateur: Explorer les profondeurs de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationVision par ordinateur sous-marine: Explorer les profondeurs de la vision par ordinateur sous les vagues Évaluation : 0 sur 5 étoiles0 évaluationRéduction de bruit: Amélioration de la clarté et techniques avancées de réduction du bruit en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation affine: Libérer des perspectives visuelles : explorer la transformation affine en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationModèle du système visuel humain: Comprendre la perception et le traitement Évaluation : 0 sur 5 étoiles0 évaluationEspace colorimétrique: Explorer le spectre de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationReconstruction tridimensionnelle multi-vues: Techniques avancées de perception spatiale en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationModèle de couleur: Comprendre le spectre de la vision par ordinateur : explorer les modèles de couleurs Évaluation : 0 sur 5 étoiles0 évaluationRétinex: Dévoiler les secrets de la vision informatique avec Retinex Évaluation : 0 sur 5 étoiles0 évaluationTransformation de Hough: Dévoiler la magie de la transformation de Hough en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation du radon: Dévoiler des modèles cachés dans les données visuelles Évaluation : 0 sur 5 étoiles0 évaluationContour actif: Faire progresser la vision par ordinateur grâce aux techniques de contour actif Évaluation : 0 sur 5 étoiles0 évaluationPeinture: Combler les lacunes de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationCompression d'images: Techniques efficaces pour l'optimisation des données visuelles Évaluation : 0 sur 5 étoiles0 évaluationFonction de correspondance des couleurs: Comprendre la sensibilité spectrale en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationHistogramme d'image: Dévoilement d'informations visuelles, exploration des profondeurs des histogrammes d'images en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTenseur trifocal: Explorer la profondeur, le mouvement et la structure en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationConsensus sur un échantillon aléatoire: Estimation robuste en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationDétection de contour: Dévoiler l'art de la perception visuelle en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationDétection des bords: Explorer les limites de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationPerception visuelle: Aperçu du traitement visuel informatique Évaluation : 0 sur 5 étoiles0 évaluationFiltre adaptatif: Améliorer la vision par ordinateur grâce au filtrage adaptatif Évaluation : 0 sur 5 étoiles0 évaluationCorrection gamma: Améliorer la clarté visuelle en vision par ordinateur : la technique de correction gamma Évaluation : 0 sur 5 étoiles0 évaluation
Livres électroniques liés
Matrice fondamentale de la vision par ordinateur: S'il vous plaît, suggérez un sous-titre pour un livre intitulé « Matrice fondamentale de la vision par ordinateur » dans le domaine de la « Vision par ordinateur ». Le sous-titre suggéré ne doit pas contenir de ':'. Évaluation : 0 sur 5 étoiles0 évaluationSegmentation d'images: Libérer des informations grâce à Pixel Precision Évaluation : 0 sur 5 étoiles0 évaluationCoupes de graphiques de vision par ordinateur: Explorer les coupes graphiques en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationModèle de sac de mots: Libérer l'intelligence visuelle avec un sac de mots Évaluation : 0 sur 5 étoiles0 évaluationModèle d'apparence de couleur: Comprendre la perception et la représentation en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationModélisation et rendu basés sur l'image: Explorer le réalisme visuel : techniques de vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTraitement d'image pyramidale: Explorer les profondeurs de l'analyse visuelle Évaluation : 0 sur 5 étoiles0 évaluationReconstruction tridimensionnelle multi-vues: Techniques avancées de perception spatiale en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationEstimation de la pose du corps articulé: Déverrouiller le mouvement humain dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationDétection des bords: Explorer les limites de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationContour actif: Faire progresser la vision par ordinateur grâce aux techniques de contour actif Évaluation : 0 sur 5 étoiles0 évaluationGéométrie épipolaire: Libérer la perception de la profondeur dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationClassification contextuelle des images: Comprendre les données visuelles pour une classification efficace Évaluation : 0 sur 5 étoiles0 évaluationApprentissage des caractéristiques géométriques: Libérer des informations visuelles grâce à l'apprentissage des caractéristiques géométriques Évaluation : 0 sur 5 étoiles0 évaluationSystème de reconnaissance faciale: Libérer la puissance de l’intelligence visuelle Évaluation : 0 sur 5 étoiles0 évaluationVision stéréo par ordinateur: Explorer la perception de la profondeur dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationModèle d'apparence active: Libérer la puissance des modèles d’apparence active dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationMosaïque de documents: Libérer des informations visuelles grâce au mosaïquage de documents Évaluation : 0 sur 5 étoiles0 évaluationEspace à l'échelle: Explorer les dimensions en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationOmbres: Explorer l'ombrage d'image dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation linéaire directe: Applications et techniques pratiques en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationÉgalisation d'histogramme: Amélioration du contraste de l'image pour une perception visuelle améliorée Évaluation : 0 sur 5 étoiles0 évaluationModèle de caméra sténopé: Comprendre la perspective grâce à l'optique informatique Évaluation : 0 sur 5 étoiles0 évaluationModèle de réflexion Phong: Comprendre les interactions de la lumière dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationProjection tridimensionnelle: Libérer la profondeur de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationAjustement du forfait: Optimisation des données visuelles pour une reconstruction précise Évaluation : 0 sur 5 étoiles0 évaluationInfographie Polygone: Explorer l'intersection de l'infographie polygonale et de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationInfographie du sommet: Explorer l'intersection de l'infographie Vertex et de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationVoir la synthèse: Explorer les perspectives de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluation
Intelligence (IA) et sémantique pour vous
Maîtrisez ChatGPT : Du débutant à l'expert - Guide pratique pour exploiter la puissance de l'IA conversationnelle Évaluation : 0 sur 5 étoiles0 évaluationTravailler dans le Big Data - les 6 métiers vers lesquels s'orienter Évaluation : 5 sur 5 étoiles5/5Maîtriser ChatGPT : Libérez la puissance de l'IA pour améliorer la communication et les relations: French Évaluation : 0 sur 5 étoiles0 évaluationLe guide du hacker : le guide simplifié du débutant pour apprendre les bases du hacking avec Kali Linux Évaluation : 5 sur 5 étoiles5/5Résumé Chatgpt ia Revolution in 2023: Guide de la Technologie Chatgpt et de son Impact Social Évaluation : 0 sur 5 étoiles0 évaluationHistoire et évolution de l'Intelligence Artificielle Évaluation : 5 sur 5 étoiles5/5Intelligence artificielle: la quatrième révolution industrielle Évaluation : 0 sur 5 étoiles0 évaluationMonétisation ChatGPT : Exploitez la Puissance de l'IA: ChatGPT Évaluation : 0 sur 5 étoiles0 évaluationL'art de la création d'images avec l'IA : Techniques, applications et défis éthiques Évaluation : 0 sur 5 étoiles0 évaluationLimites, dangers et menaces de l'Intelligence Artificielle: Un outil sans maîtrises Évaluation : 0 sur 5 étoiles0 évaluationChat GPT : Comment ça fonctionne et comment gagner avec l'utilisation de la technologie d'Intelligence Artificielle Évaluation : 0 sur 5 étoiles0 évaluationMaîtrisez ChatGPT en 24 Heures: Apprenez à Utiliser ChatGPT en Seulement 24 Heures et Appliquez ses Avantages dans Tous les Aspects de Votre Vie Évaluation : 0 sur 5 étoiles0 évaluationGuide définitive pour créer des TikToks avec ChatGPT: Devenez le prochain influenceur sur TikTok avec l'aide de ChatGPT ! Évaluation : 0 sur 5 étoiles0 évaluationL'intelligence mixte, vers une nouvelle forme d'intelligence Évaluation : 0 sur 5 étoiles0 évaluationL’Empathie au Cœur de l’Intelligence Artificielle, Comment insérer de l’empathie dans les affaires et l’intelligence artificielle Évaluation : 0 sur 5 étoiles0 évaluationComment Réussir sur Facebook en utilisant ChatGPT: Le pouvoir de ChatGPT : découvrez comment il peut transformer votre stratégie sur Facebook Évaluation : 0 sur 5 étoiles0 évaluationLa prophétie des anciens: Roman dystopique Évaluation : 0 sur 5 étoiles0 évaluationComment écrire des livres en utilisant ChatGPT: Votre guide ultime pour écrire des livres avec ChatGPT Évaluation : 0 sur 5 étoiles0 évaluationIA dans les Affaires: Guide Pratique de l'Utilisation de l'Intelligence Artificielle dans Divers Secteurs Évaluation : 0 sur 5 étoiles0 évaluationOsons l'IA à l'école: Préparons nos jeunes à la révolution de l'intelligence artificielle Évaluation : 0 sur 5 étoiles0 évaluation
Avis sur Visage propre
0 notation0 avis
Aperçu du livre
Visage propre - Fouad Sabry
Visage propre
Explorer les profondeurs de la reconnaissance visuelle avec Eigenface
Fouad Sabry est l'ancien responsable régional du développement commercial pour les applications chez Hewlett Packard pour l'Europe du Sud, le Moyen-Orient et l'Afrique. Fouad est titulaire d'un baccalauréat ès sciences des systèmes informatiques et du contrôle automatique, d'une double maîtrise, d'une maîtrise en administration des affaires et d'une maîtrise en gestion des technologies de l'information de l'Université de Melbourne en Australie. Fouad a plus de 25 ans d'expérience dans les technologies de l'information et de la communication, travaillant dans des entreprises locales, régionales et internationales, telles que Vodafone et des machines commerciales internationales. Actuellement, Fouad est un entrepreneur, auteur, futuriste, axé sur les technologies émergentes et les solutions industrielles, et fondateur de l'initiative One billion knowledge.
Un milliard de connaissances
Visage propre
Explorer les profondeurs de la reconnaissance visuelle avec Eigenface
Fouad Sabry
Copyright
Eigenface © 2024 par Fouad Sabry. Tous droits réservés.
Aucune partie de ce livre ne peut être reproduite sous quelque forme que ce soit ou par quelque moyen électronique ou mécanique que ce soit, y compris les systèmes de stockage et de récupération d'informations, sans l'autorisation écrite de l'auteur. La seule exception est celle d'un critique, qui peut citer de courts extraits dans une critique.
Couverture conçue par Fouad Sabry.
Bien que toutes les précautions aient été prises dans la préparation de ce livre, les auteurs et les éditeurs n'assument aucune responsabilité pour les erreurs ou omissions, ou pour les dommages résultant de l'utilisation des informations contenues dans ce livre.
Table des matières
Chapitre 1 : Visage propre
Chapitre 2 : Analyse en composantes principales
Chapitre 3 : Décomposition en valeurs singulières
Chapitre 4 : Valeurs propres et vecteurs propres
Chapitre 5 : Décomposition propre d'une matrice
Chapitre 6 : Analyse en composantes principales du noyau
Chapitre 7 : Analyse matricielle
Chapitre 8 : Système dynamique linéaire
Chapitre 9 : Distribution normale multivariée
Chapitre 10 : Modes de variation
Appendice
À propos de l'auteur
Chapitre 1 : Visage propre
Un visage propre (/ˈaɪɡənˌfeɪs/) est le nom donné à un ensemble de vecteurs propres lorsqu'il est utilisé dans le problème de vision par ordinateur de la reconnaissance faciale humaine.
L'espace vectoriel de l'image faciale de grande dimension a une distribution de probabilité dont la matrice de covariance fournit les vecteurs propres.
Les faces propres elles-mêmes sont l'ensemble de base à partir duquel la matrice de covariance est construite.
Il en résulte une réduction de la dimension puisque les images d'entraînement d'origine peuvent être représentées par un ensemble plus compact d'images de base.
Les visages peuvent être triés en comparant leurs représentations dans l'ensemble de base.
Trouver un moyen compact d'exprimer les traits du visage a été le point de départ de la méthode eigenface.
À l'aide de l'analyse en composantes principales, Sirovich et Kirby ont montré comment créer un ensemble de caractéristiques de base à partir d'un groupe de photos faciales.
Les images de base, les images propres, dans le jeu d'entraînement d'origine peuvent être fusionnées linéairement pour générer des images.
Étant donné un ensemble d'apprentissage d'image M, N photos pourraient être utilisées comme point de départ pour l'analyse en composantes principales, si N > M.
Lorsque plus d'images propres sont utilisées, l'erreur de reconstruction diminue ; cependant, Tout nombre requis est inférieur à M.
Par exemple, pour un ensemble donné d'images de visages d'entraînement M, il est nécessaire de produire N visages propres, vous pouvez dire que chaque image de visage peut être constituée de « proportions » de tous les K « traits » ou visages propres : Image du visage1 = (23% de E1) + (2% de E2) + (51% de E3) + ..
+ (1 % En).
En 1991, M. Turk et A. Pentland ont présenté la méthode de reconnaissance faciale eigenface, qui s'appuyait sur leurs réalisations antérieures. Ils ont démontré une méthode de calcul des vecteurs propres d'une matrice de covariance, qui permettait d'effectuer une décomposition propre sur un grand nombre de photos de visages sur les ordinateurs de l'époque. L'analyse en composantes principales traditionnelle s'est avérée difficile à appliquer à des ensembles de données d'images faciales de grande dimension. En utilisant des matrices proportionnelles au nombre d'images plutôt qu'au nombre de pixels, Turk et Pentland ont montré comment extraire les vecteurs propres.
Après son succès initial, la méthode de la face propre a été développée pour intégrer des techniques de prétraitement pour une précision accrue.
L'analyse en composantes principales (ACP) est une procédure mathématique qui peut être appliquée à une grande collection de photos de visages pour produire un ensemble de visages propres. Les visages propres sont créés par l'analyse statistique de nombreuses images différentes de visages et peuvent être considérés de manière informelle comme un ensemble de « constituants de visage standardisés ». Tous les visages humains peuvent être décomposés en ces éléments de base. Le visage d'une personne peut être composé du visage moyen plus, disons, 10 % de la face propre 1, 55 % de la face propre 2 et 3 % de la face propre 3. Étonnamment, une bonne approximation de la plupart des faces peut être obtenue avec seulement un petit nombre de faces propres réunies. De plus, beaucoup moins d'espace est pris pour le visage de chaque personne car il n'est pas enregistré par une photographie numérique, mais plutôt comme une liste de valeurs (une valeur pour chaque visage propre dans la base de données utilisée).
Les faces propres résultantes auront un motif de parties claires et sombres contrastées. De cette façon, nous pouvons isoler les caractéristiques faciales individuelles pour une analyse et une notation détaillées. La symétrie sera évaluée, tout comme la présence de poils faciaux, la position de la racine des cheveux et les proportions du nez et des lèvres. Certains visages propres ont des motifs plus difficiles à détecter, et les images qui en résultent peuvent à peine ressembler à des visages humains.
Outre la reconnaissance faciale, d'autres applications de la méthode utilisée pour créer des visages propres et les utiliser pour la reconnaissance comprennent la reconnaissance de l'écriture manuscrite, la lecture labiale, la reconnaissance vocale, l'interprétation de la langue des signes et des gestes de la main, et l'analyse d'images médicales. Pour cette raison, il y en a d'autres qui préfèrent utiliser le terme « image propre » au lieu de « visage propre ».
La génération d'une collection de faces propres implique :
Collectez un échantillon de visages à utiliser pour l'entraînement.
Toutes les photos utilisées dans l'ensemble d'entraînement doivent avoir été prises exactement avec le même éclairage et doivent être normalisées afin que toutes les photos aient les yeux et la bouche correctement alignés.
Ils doivent également tous être rééchantillonnés à une résolution de pixels commune (r × c).
Un vecteur est considéré comme une image, uniquement en joignant les colonnes des pixels de l'image source, ce qui donne une seule colonne avec r × c éléments.
Dans cette implémentation spécifique, il est supposé que les images de l'ensemble d'apprentissage sont toutes contenues dans une seule matrice T, et que chaque colonne de matrice représente une image différente.
Supprimez la moyenne. Chaque image de T doit avoir l'image moyenne a soustraite.
Déterminez les vecteurs propres et les valeurs propres de la matrice de covariance S. Chaque vecteur propre a le même nombre de composants (dimension) que les photos originales, ce qui permet de le traiter comme une autre image. Les vecteurs propres de cette matrice de covariance sont appelés faces propres. Ils pointent dans les directions où les photos s'écartent le plus de la moyenne. Puisqu'il est possible de calculer efficacement les vecteurs propres de S sans jamais calculer S explicitement, les faces propres ont des applications pratiques malgré cette étape de calcul potentiellement prohibitive.
Sélectionnez les principaux facteurs.
Ordonner les valeurs propres et les vecteurs propres par amplitude décroissante.
Le nombre de composantes principales k est déterminé arbitrairement en fixant un seuil ε sur la variance totale.
Variance totale {\displaystyle v=(\lambda _{1}+\lambda _{2}+...+\lambda _{n})} , n = nombre de composants.
k est le plus petit nombre qui satisfait {\displaystyle {\frac {(\lambda _{1}+\lambda _{2}+...+\lambda _{k})}{v}}>\epsilon }
Ces faces propres peuvent maintenant être utilisées pour représenter à la fois des faces déjà vues et non vues en enregistrant comment une image nouvellement projetée (soustraite en moyenne) modifie la forme des faces propres.
La quantité d'images dans l'ensemble d'apprentissage qui s'écartent de la moyenne est représentée par les valeurs propres des faces propres correspondantes.
Lorsque seuls certains des vecteurs propres sont utilisés pour projeter l'image, certains détails sont perdus, néanmoins, les pertes sont réduites en conservant les faces propres avec les valeurs propres les plus élevées.
Par exemple, travailler avec une image de 100 × 100 produira 10 000 vecteurs propres.
Dans les contextes où cela est important, une projection sur entre 100 et 150 faces propres est généralement suffisante pour reconnaître la plupart des faces, de sorte que dix mille vecteurs propres peuvent être éliminés avec une relative facilité.
En utilisant la base de données étendue Yale Face B, nous pouvons voir un exemple de calcul de face propre.
Pour éviter un manque de puissance de traitement ou de stockage de données, les images faciales sont échantillonnées d'un facteur 4×4=16.
tout effacer ; fermer tout ; Charger Yalefaces
h, w, n = taille (yalefaces) ; d = h * w ; % vectoriser les images
x = remodeler(yalefaces, d n]) ; x = double(x) ; % soustraire la moyenne
mean_matrix = moyenne(x, 2) ; x = bsxfun(@minus, x, mean_matrix) ; % calculer covariance
s = cov(x') ; % d'obtention de la valeur propre et du vecteur propre
V, D = eig(s) ; eigval = diag(D) ; % trient les valeurs propres par ordre décroissant
eigval = eigval(fin : - 1 :1) ; V = fliplr(V) ; % montrent la moyenne et les vecteurs propres du 1er au 15e
figure, sous-intrigue(4, 4, 1)
imagesc(remodeler(mean_matrix, h, w]))
Gris de la palette de couleurs
car i = 1 :15
sous-intrigue(4, 4, i + 1)
imagesc(remodeler(V( :, i), h, w))
fin
Bien que de nombreuses faces propres soient produites par la matrice de covariance S, seul un sous-ensemble de celles-ci est réellement nécessaire pour représenter la grande majorité des faces. Les 43 premiers visages propres, par exemple, peuvent représenter 95 % de la diversité trouvée dans toutes les photos de visage. Appliquez la formule suivante à vos calculs :
% évaluent le nombre de composantes principales nécessaires pour représenter 95 % Variance totale.
eigsum = sum(eigval) ; csum = 0 ; pour i = 1 :d
csum = csum + eigval(i) ; TV = CSUM / EIGSUM ; Si TV > 0,95
k95 = i ; casser
fin ; fin ; Il est souvent prohibitif de faire de l'ACP directement sur la matrice de covariance des images.
Si des vignettes sont utilisées, disons 100 × 100 pixels, chaque image est un point dans un espace de 10 000 dimensions et la matrice de covariance S est une matrice de 10 000 × 10 000 = 108 éléments.
Cependant, s'il y a N exemples d'entraînement, alors le rang de la matrice de covariance est forcément au plus N-1, il n'y aura pas plus de N 1 vecteurs propres dont les valeurs propres ne sont pas nulles.
S'il y a moins d'instances d'entraînement qu'il n'y a de dimensions d'image, le modèle aura du mal, voici un moyen plus simple de calculer les composants primaires :.
La matrice d'exemples d'entraînement, T, a été prétraitée, où chaque colonne représente une seule image après avoir été soustraite par la moyenne.
La matrice de covariance peut alors être calculée comme suit : S = TTT et la décomposition vectorielle propre de S est donnée par
\mathbf {Sv} _{i}=\mathbf {T} \mathbf {T} ^{T}\mathbf {v} _{i}=\lambda _{i}\mathbf {v} _{i}Cependant, TTT est une grande matrice, en revanche, si nous regardons la décomposition en valeurs propres de
\mathbf {T} ^{T}\mathbf {T} \mathbf {u} _{i}=\lambda _{i}\mathbf {u} _{i}Si nous multiplions ensuite les deux membres de l'équation par T, nous constatons que
\mathbf {T} \mathbf {T} ^{T}\mathbf {T} \mathbf {u} _{i}=\lambda _{i}\mathbf {T} \mathbf {u} _{i}Cela signifie que, si ui