Découvrez des millions d'e-books, de livres audio et bien plus encore avec un essai gratuit

Seulement $11.99/mois après la période d'essai. Annulez à tout moment.

Transformation linéaire directe: Applications et techniques pratiques en vision par ordinateur
Transformation linéaire directe: Applications et techniques pratiques en vision par ordinateur
Transformation linéaire directe: Applications et techniques pratiques en vision par ordinateur
Livre électronique188 pages1 heure

Transformation linéaire directe: Applications et techniques pratiques en vision par ordinateur

Évaluation : 0 sur 5 étoiles

()

Lire l'aperçu

À propos de ce livre électronique

Qu'est-ce que la transformation linéaire directe


La transformation linéaire directe, également connue sous le nom de DLT, est un algorithme qui résout un ensemble de variables en utilisant un ensemble de relations de similarité comme méthode de travail. ensemble. Dans le domaine de la géométrie projective, ce type de relation est rencontré assez fréquemment. Les exemples applicables aux situations du monde réel incluent les homographies et la relation entre les points tridimensionnels d'une scène et leur projection sur le plan image d'une caméra sténopé.


Comment vous en bénéficierez


(I) Informations et validations sur les sujets suivants :


Chapitre 1 : Transformation linéaire directe


Chapitre 2 : Carte linéaire


Chapitre 3 : Sous-espace linéaire


Chapitre 4 : Décomposition de Cholesky


Chapitre 5 : Matrice inversible


Chapitre 6 : Forme quadratique


Chapitre 7 : Fonction homogène


Chapitre 8 : Noyau (algèbre linéaire)


Chapitre 9 : Coordonnées de Plücker


Chapitre 10 : Transformation du modèle TP dans la théorie du contrôle


(II) Répondre aux principales questions du public sur la transformation linéaire directe.


(III) Exemples concrets d'utilisation de la transformation linéaire directe dans de nombreux domaines.


À qui s'adresse ce livre


Les professionnels, les étudiants de premier cycle et des cycles supérieurs, les passionnés, les amateurs et ceux qui souhaitent aller au-delà des connaissances ou des informations de base pour tout type de transformation linéaire directe.


 


 

LangueFrançais
Date de sortie30 avr. 2024
Transformation linéaire directe: Applications et techniques pratiques en vision par ordinateur

En savoir plus sur Fouad Sabry

Auteurs associés

Lié à Transformation linéaire directe

Titres dans cette série (100)

Voir plus

Livres électroniques liés

Intelligence (IA) et sémantique pour vous

Voir plus

Articles associés

Avis sur Transformation linéaire directe

Évaluation : 0 sur 5 étoiles
0 évaluation

0 notation0 avis

Qu'avez-vous pensé ?

Appuyer pour évaluer

L'avis doit comporter au moins 10 mots

    Aperçu du livre

    Transformation linéaire directe - Fouad Sabry

    Transformation linéaire directe

    Applications pratiques et techniques de la vision par ordinateur

    Fouad Sabry est l'ancien responsable régional du développement commercial pour les applications chez Hewlett Packard pour l'Europe du Sud, le Moyen-Orient et l'Afrique. Fouad est titulaire d'un baccalauréat ès sciences des systèmes informatiques et du contrôle automatique, d'une double maîtrise, d'une maîtrise en administration des affaires et d'une maîtrise en gestion des technologies de l'information, de l'Université de Melbourne en Australie. Fouad a plus de 25 ans d'expérience dans les technologies de l'information et de la communication, travaillant dans des entreprises locales, régionales et internationales, telles que Vodafone et des machines professionnelles internationales. Actuellement, Fouad est un entrepreneur, auteur, futuriste, axé sur les technologies émergentes et les solutions industrielles, et fondateur de l'initiative One Billion Knowledge.

    Un milliard de connaissances

    Transformation linéaire directe

    Applications pratiques et techniques de la vision par ordinateur

    Fouad Sabry

    Copyright

    Transformation © linéaire directe 2024 par Fouad Sabry. Tous droits réservés.

    Aucune partie de ce livre ne peut être reproduite sous quelque forme que ce soit ou par quelque moyen électronique ou mécanique que ce soit, y compris les systèmes de stockage et de récupération d'informations, sans l'autorisation écrite de l'auteur. La seule exception est celle d'un critique, qui peut citer de courts extraits dans une critique.

    Couverture dessinée par Fouad Sabry.

    Bien que toutes les précautions aient été prises dans la préparation de ce livre, les auteurs et les éditeurs n'assument aucune responsabilité pour les erreurs ou omissions, ou pour les dommages résultant de l'utilisation des informations contenues dans le présent document.

    Table des matières

    Chapitre 1 : Transformation linéaire directe

    Chapitre 2 : Carte linéaire

    Chapitre 5 : Sous-espace linéaire

    Chapitre 6 : Décomposition de Cholesky

    Chapitre 10 : Matrice inversible

    Chapitre 11 : Forme quadratique

    Chapitre 13 : Fonction homogène

    Chapitre 15 : Noyau (algèbre linéaire)

    Chapitre 16 : Coordonnées du pl cker

    Chapitre 20 : Transformation du modèle TP en théorie du contrôle

    Appendice

    À propos de l'auteur

    Chapitre 1 : Transformation linéaire directe

    Un ensemble de variables peut être résolu par un ensemble de relations de similarité à l'aide d'une technique appelée transformation linéaire directe (DLT) :

    {\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} pour \,k=1,\ldots ,N

    où {\mathbf {x}}_{{k}} et {\mathbf {y}}_{{k}} sont des vecteurs connus, \,\propto désigne l'égalité jusqu'à une multiplication scalaire inconnue, et \mathbf {A} est une matrice (ou transformation linéaire) qui contient les inconnues à résoudre.

    En géométrie projective, il s'agit d'un type de relation courant. Les homographes et la relation entre les points de scène 3D et leur projection de caméra à sténopé en sont deux exemples.

    En termes simples, un système d'équations linéaires

    {\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} pour \,k=1,\ldots ,N

    peut être résolue, par exemple, en la réécrivant sous la forme d'une équation matricielle {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} où les matrices {\mathbf {X}} et {\mathbf {Y}} contiennent les vecteurs {\mathbf {x}}_{{k}} et {\mathbf {y}}_{{k}} dans leurs colonnes respectives.

    Puisqu'il n'y a qu'une seule réponse à ce problème,

    {\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.

    Dans le cas où les équations sont surdéterminées ou sous-déterminées, des solutions peuvent également être décrites.

    La différence entre le problème de transformation linéaire directe et l'exemple typique susmentionné est que le facteur multiplicatif qui sépare les côtés gauche et droit de l'équation de définition dépend du paramètre k.

    Ainsi, \mathbf {A} ne peut pas être calculé comme dans le cas standard.

    Au lieu de cela, dans cette approche, les relations de similitude sont transformées en équations homogènes linéaires ordinaires.

    Les algorithmes de transformation linéaire directe (DLT) combinent la réécriture d'équations de similarité en tant qu'équations linéaires homogènes et leur résolution à l'aide de méthodes établies.

    Ivan Sutherland est crédité pour le développement de la DLT.

    Supposons que {\displaystyle k\in \{1,...,N\}} .

    Soient {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} et soient deux vecteurs connus, et nous voulons trouver la 2\times 3 matrice \mathbf {A} telle que

    \alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}

    où \alpha _{{k}}\neq 0 est le facteur scalaire inconnu lié à l'équation k.

    Définir la matrice antisymétrique pour éliminer les scalaires libres et produire des équations homogènes.

    {\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}

    et multipliez les deux côtés de l'équation par {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} de gauche à droite

    {\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}

    Puisque {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, les équations homogènes suivantes, qui sont maintenant dépourvues des mystérieux scalaires, sont à portée de main

    {\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}

    Afin de résoudre \mathbf {A} à partir de cet ensemble d'équations, considérons les éléments des vecteurs {\mathbf {x}}_{{k}} et {\mathbf {y}}_{{k}} de la matrice \mathbf {A} :

    {\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} , et {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}

    Dans ce cas, l'équation homogène ci-dessus se simplifie en

    0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}

    pour \,k=1,\ldots ,N.

    La forme matricielle fonctionne tout aussi bien pour cela :

    0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} pour \,k=1,\ldots ,N

    où {\mathbf {b}}_{{k}} et les \mathbf{a} deux sont des vecteurs à 6 dimensions définis comme

    {\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} et {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.

    Nous avons une équation et six variables à ce stade. La forme matricielle peut être utilisée pour exprimer un système d'équations homogènes.

    {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}

    où \mathbf {B} est une N\times 6 matrice qui contient les vecteurs connus {\mathbf {b}}_{{k}} dans ses lignes.

    L'inconnue \mathbf{a} peut être déterminée, par exemple, par une décomposition en valeurs singulières de \mathbf {B} ; \mathbf{a} est un vecteur singulier droit de \mathbf {B} correspondant à une valeur singulière égale à zéro.

    Une fois \mathbf{a} que cela a été déterminé, les éléments de la matrice \mathbf {A} peuvent être réarrangés à partir du vecteur \mathbf {a} .

    Notez que la mise à l'échelle de \mathbf{a} or \mathbf {A} n'est pas importante (sauf qu'elle doit être non nulle) puisque les équations de définition permettent déjà une mise à l'échelle inconnue.

    En pratique, les vecteurs {\mathbf {x}}_{{k}} et {\mathbf {y}}_{{k}} peuvent contenir du bruit, ce qui signifie que les équations de similarité ne sont qu'approximativement valides.

    Ainsi, il se peut qu'il n'y ait pas de vecteur \mathbf{a} qui résolve exactement l'équation homogène {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .

    Dans de telles situations, une solution des moindres carrés totaux peut être utilisée en choisissant \mathbf{a} comme vecteur singulier droit correspondant à la plus petite valeur singulière de {\mathbf {B}}.

    L'exemple ci-dessus a {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} et {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} , mais la stratégie générale de réécriture des relations de similarité en équations linéaires homogènes peut être généralisée à des dimensions arbitraires pour et {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}}.

    Si {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} et {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} les expressions précédentes peuvent toujours conduire à une équation

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} pour \,k=1,\ldots ,N

    où \mathbf {A} maintenant est 2\times q. Chaque k fournit une équation dans les 2q éléments inconnus de \mathbf {A} et ensemble, ces équations peuvent être écrites {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} pour la N\times 2\,q matrice \mathbf {B} connue et le vecteur inconnu de dimension 2q {\mathbf {a}}. Ce vecteur peut être trouvé de la même manière que précédemment.

    Dans le cas le plus général {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} et {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .

    La principale différence par rapport à précédemment est que la matrice \mathbf {H} est maintenant p \times p antisymétrique.

    Lorsque {\displaystyle p>2} l'espace de ces matrices n'est plus unidimensionnel, il a une taille mesurable.

    M={\frac {p\,(p-1)}{2}}.

    Cela suggère qu'il existe M équations homogènes de type pour toutes les valeurs de k.

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} pour \,m=1,\ldots ,M et pour \,k=1,\ldots ,N

    où {\mathbf {H}}_{{m}} est une base de dimension M de l'espace des p \times p matrices antisymétriques.

    Dans le cas où p = 3, les trois matrices suivantes {\mathbf {H}}_{{m}} peuvent être choisies

    {\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.

    Les équations linéaires homogènes dans cette situation peuvent être exprimées comme suit :

    {\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} pour \,k=1,\ldots ,N

    où [{\mathbf {x}}_{{k}}]_{{\times }} est la représentation matricielle du produit vectoriel vectoriel.

    Cette équation finale est de la variété vectorielle ; le membre de gauche est l'élément zéro de {\mathbb {R}}^{{3}} .

    Chaque valeur de k fournit trois équations linéaires homogènes dans les éléments inconnus de \mathbf {A} .

    Cependant, puisque [{\mathbf {x}}_{{k}}]_{{\times }} a rang = 2, le nombre maximum d'équations linéairement indépendantes est de deux.

    Dans la pratique, il est donc courant de n'utiliser que deux des trois matrices {\mathbf {H}}_{{m}} , par exemple, pour m=1, 2.

    Cependant, la dépendance linéaire entre les équations dépend de {\mathbf {x}}_{{k}} , donc, dans des situations défavorables, la sélection aurait été une option supérieure, par exemple, m = 2,3.

    Donc, si le nombre d'équations n'a pas d'importance, il peut être préférable d'utiliser les trois équations lors de la construction de la matrice \mathbf {B} .

    La dépendance linéaire entre les équations linéaires homogènes résultantes est une préoccupation générale pour le cas p > 2 et doit être traitée soit en réduisant l'ensemble des matrices antisymétriques, {\mathbf {H}}_{{m}} soit en permettant \mathbf {B} de devenir plus grand que nécessaire pour déterminer {\mathbf {a}}.

    {Fin du chapitre 1}

    Chapitre 2 : Carte linéaire

    En mathématiques, et en algèbre linéaire en particulier, une application linéaire (ou application linéaire) est un type d'application qui, transformation linéaire, homomorphisme d'espaces vectoriels, ou dans certains contextes fonction linéaire) est une application V\to W entre deux espaces vectoriels qui préserve les opérations d'addition vectorielle et de multiplication scalaire.

    Le cas plus général des modules sur un anneau utilise les mêmes noms et la même définition ; Recherchez Homomorphisme des modules.

    Un isomorphisme linéaire est une bijection entre deux espaces vectoriels.

    Dans le cas où {\displaystyle V=W} , l'endomorphisme linéaire est un autre nom pour une application.

    Cette situation est parfois appelée opérateur linéaire, Cependant, il existe quelques traditions distinctes qui définissent ce que l'on entend par l'expression « opérateur linéaire ». Par exemple, il peut être utilisé pour mettre l'accent sur le fait que V et W sont de vrais espaces vectoriels (pas nécessairement avec {\displaystyle V=W} ), ou il peut être utilisé pour mettre

    Vous aimez cet aperçu ?
    Page 1 sur 1