Découvrez des millions d'e-books, de livres audio et bien plus encore avec un essai gratuit

Seulement $11.99/mois après la période d'essai. Annulez à tout moment.

Classification contextuelle des images: Comprendre les données visuelles pour une classification efficace
Classification contextuelle des images: Comprendre les données visuelles pour une classification efficace
Classification contextuelle des images: Comprendre les données visuelles pour une classification efficace
Livre électronique159 pages1 heure

Classification contextuelle des images: Comprendre les données visuelles pour une classification efficace

Évaluation : 0 sur 5 étoiles

()

Lire l'aperçu

À propos de ce livre électronique

Qu'est-ce que la classification contextuelle des images


Une méthode de classification basée sur les informations contextuelles contenues dans les images est appelée classification contextuelle des images. Cette méthode entre dans la catégorie de la reconnaissance de formes en vision par ordinateur. Une approche « contextuelle » est une approche qui se concentre sur la relation entre les pixels proches les uns des autres, également appelée voisinage. La classification des photographies selon l'utilisation des informations contextuelles est l'objectif de cette approche.


Comment vous en bénéficierez


(I) Insights, et validations sur les sujets suivants :


Chapitre 1 : Classification d'images contextuelles


Chapitre 2 : Reconnaissance de formes


Chapitre 3 : Processus gaussien


Chapitre 4 : LPBoost


Chapitre 5 : Apprentissage ponctuel (vision par ordinateur)


Chapitre 6 : Machine à vecteurs avec support des moindres carrés


Chapitre 7 : Diffraction de Fraunhofer équation


Chapitre 8 : Symétrie en mécanique quantique


Chapitre 9 : Modélisation hiérarchique bayésienne


Chapitre 10 : Sous-problèmes de Paden-Kahan


( II) Répondre aux principales questions du public sur la classification contextuelle des images.


(III) Exemples concrets d'utilisation de la classification contextuelle des images dans de nombreux domaines.


À qui s'adresse ce livre pour


Professionnels, étudiants de premier cycle et des cycles supérieurs, passionnés, amateurs et ceux qui souhaitent aller au-delà des connaissances ou des informations de base pour tout type de classification d'images contextuelles.


 


 

LangueFrançais
Date de sortie4 mai 2024
Classification contextuelle des images: Comprendre les données visuelles pour une classification efficace

En savoir plus sur Fouad Sabry

Auteurs associés

Lié à Classification contextuelle des images

Titres dans cette série (100)

Voir plus

Livres électroniques liés

Intelligence (IA) et sémantique pour vous

Voir plus

Articles associés

Avis sur Classification contextuelle des images

Évaluation : 0 sur 5 étoiles
0 évaluation

0 notation0 avis

Qu'avez-vous pensé ?

Appuyer pour évaluer

L'avis doit comporter au moins 10 mots

    Aperçu du livre

    Classification contextuelle des images - Fouad Sabry

    Classification contextuelle des images

    Comprendre les données visuelles pour une classification efficace

    Fouad Sabry est l'ancien responsable régional du développement commercial pour les applications chez Hewlett Packard pour l'Europe du Sud, le Moyen-Orient et l'Afrique. Fouad est titulaire d'un baccalauréat ès sciences des systèmes informatiques et du contrôle automatique, d'une double maîtrise, d'une maîtrise en administration des affaires et d'une maîtrise en gestion des technologies de l'information, de l'Université de Melbourne en Australie. Fouad a plus de 25 ans d'expérience dans les technologies de l'information et de la communication, travaillant dans des entreprises locales, régionales et internationales, telles que Vodafone et des machines professionnelles internationales. Actuellement, Fouad est un entrepreneur, auteur, futuriste, axé sur les technologies émergentes et les solutions industrielles, et fondateur de l'initiative One Billion Knowledge.

    Un milliard de connaissances

    Classification contextuelle des images

    Comprendre les données visuelles pour une classification efficace

    Fouad Sabry

    Copyright

    Classification © d'images contextuelles 2024 par Fouad Sabry. Tous droits réservés.

    Aucune partie de ce livre ne peut être reproduite sous quelque forme que ce soit ou par quelque moyen électronique ou mécanique que ce soit, y compris les systèmes de stockage et de récupération d'informations, sans l'autorisation écrite de l'auteur. La seule exception est celle d'un critique, qui peut citer de courts extraits dans une critique.

    Couverture dessinée par Fouad Sabry.

    Bien que toutes les précautions aient été prises dans la préparation de ce livre, les auteurs et les éditeurs n'assument aucune responsabilité pour les erreurs ou omissions, ou pour les dommages résultant de l'utilisation des informations contenues dans le présent document.

    Table des matières

    Chapitre 1 : Classification contextuelle des images

    Chapitre 2 : Reconnaissance des formes

    Chapitre 6 : Processus gaussien

    Chapitre 11 : LPBoost

    Chapitre 12 : Apprentissage ponctuel (vision par ordinateur)

    Chapitre 13 : Machine à vecteurs de support des moindres carrés

    Chapitre 14 : Équation de diffraction de Fraunhofer

    Chapitre 17 : La symétrie en mécanique quantique

    Chapitre 18 : Modélisation hiérarchique bayésienne

    Chapitre 20 : Les sous-problèmes de Paden Kahan

    Appendice

    À propos de l'auteur

    Chapitre 1 : Classification contextuelle des images

    La classification d'images contextuelles, un sous-domaine de la reconnaissance de formes en vision par ordinateur, est une technique de classification basée sur des informations contextuelles dans les images. Le terme « contextuel » indique que cette méthode met l'accent sur le lien entre les pixels environnants, souvent connu sous le nom de voisinage. L'objectif de cette méthode est de classer les photos à l'aide d'informations contextuelles.

    Comme pour le traitement du langage, un seul mot peut avoir plusieurs interprétations à moins que le contexte ne soit fourni, et les seules parties informatives sont les modèles de phrases. Pour les photos, la même idée s'applique. Déterminez les modèles et leurs significations appropriées.

    Comme le montre l'image ci-dessous, si seule une petite partie de l'image est affichée, il est extrêmement difficile de déterminer ce que l'image représente.

    Mouth

    Même si une autre zone de l'image est examinée, l'image reste impossible à catégoriser.

    Left eye

    Cependant, si nous améliorons le contexte de l'image, il est plus logique de la reconnaître.

    Comme le montre l'image dans son intégralité ci-dessous, pratiquement tout le monde peut le classer facilement.

    Au cours de l'opération de segmentation, les systèmes qui n'utilisent pas d'informations contextuelles sont sensibles au bruit et aux changements, ce qui entraîne un grand nombre de régions mal classées, qui sont souvent de petite taille (par exemple, un pixel).

    Cette méthode est plus résistante au bruit et aux grands changements que les autres méthodes, car elle tient compte de la continuité des segments.

    Plusieurs méthodes pour cette stratégie sont détaillées ci-dessous.

    Cette méthode est assez efficace contre les endroits peu bruyants. Et ces petites zones sont généralement composées de quelques pixels ou d'un seul. Ces régions reçoivent l'étiquette la plus probable. Cependant, cette stratégie présente un inconvénient. Les petites régions peuvent également être générées par les bonnes régions plutôt que par le bruit, auquel cas la stratégie aggrave la classification. Cette méthode est largement utilisée dans les applications de télédétection.

    Cela implique deux étapes de classification :

    Étiquetez chaque pixel et générez un nouveau vecteur d'entités pour chaque pixel.

    Utilisez le vecteur d'entités mis à jour et les informations contextuelles pour appliquer l'étiquette finale.

    Au lieu d'utiliser des pixels individuels, les pixels voisins peuvent être combinés en régions homogènes qui bénéficient de données contextuelles. Et fournissez ces zones au classificateur.

    Dans de rares cas, les données spectrales d'origine peuvent être complétées par des informations contextuelles véhiculées par des pixels voisins, voire substituées. Ce type de techniques de prétraitement est couramment utilisé dans la reconnaissance d'images texturées. Les méthodes typiques comprennent les valeurs moyennes, les variances, la description de la texture, etc.

    Le classifieur attribue des étiquettes aux pixels à l'aide du niveau de gris et du voisinage des pixels (informations contextuelles). Dans ce cas, les données sont une combinaison d'informations spectrales et géographiques.

    Le classificateur d'erreur minimale de Bayes est utilisé pour la classification contextuelle des données d'image (également connu sous le nom de classificateur bayésien naïf).

    Affichez le pixel :

    Un pixel est noté x_{0} .

    Le voisinage de chaque pixel x_{0} est un vecteur et est noté {\displaystyle N(x_{0})} .

    Les valeurs du vecteur voisinage sont notées f(x_{i}) .

    Chaque pixel est représenté par un vecteur.

    {\displaystyle \xi =\left(f(x_{0}),f(x_{1}),\ldots ,f(x_{k})\right)}{\displaystyle x_{i}\in N(x_{0});\quad i=1,\ldots ,k}

    Les étiquettes (classification) des pixels dans le voisinage {\displaystyle N(x_{0})} sont présentées sous forme de vecteur

    {\displaystyle \eta =\left(\theta _{0},\theta _{1},\ldots ,\theta _{k}\right)}{\displaystyle \theta _{i}\in \left\{\omega _{0},\omega _{1},\ldots ,\omega _{k}\right\}}

    \omega _{s} indique ici la classe affectée.

    Un vecteur présente les étiquettes dans le voisinage {\displaystyle N(x_{0})} sans le pixel x_{0}

    {\displaystyle {\hat {\eta }}=\left(\theta _{1},\theta _{2},\ldots ,\theta _{k}\right)}

    Le quartier : la taille du quartier.

    Il n'y a pas de restriction de taille, mais elle est considérée comme relativement petite pour chaque pixel x_{0} .

    Un voisinage de taille raisonnable serait 3 \times 3 de 4 ou 8 connexions ( x_{0} il est marqué en rouge et placé au centre).

    Communauté à 4 connectivités, communauté à 8 connectivités

    Le calcul :

    Appliquez la classification d'erreur minimale sur un pixel x_{0} , si la probabilité qu'une classe \omega _{r} présente le pixel x_{0} est la plus élevée de toutes, puis attribuez-la \omega _{r} à sa classe.

    {\displaystyle \theta _{0}=\omega _{r}\quad {\text{ if }}\quad P(\omega _{r}\mid f(x_{0}))=\max _{s=1,2,\ldots ,R}P(\omega _{s}\mid f(x_{0}))}

    Vous trouverez ci-dessous une description de la règle de classification contextuelle :, elle utilise le vecteur d'entités x_{1} plutôt que x_{0} .

    {\displaystyle \theta _{0}=\omega _{r}\quad {\text{ if }}\quad P(\omega _{r}\mid \xi )=\max _{s=1,2,\ldots ,R}P(\omega _{s}\mid \xi )}

    Utiliser la formule de Bayes pour calculer la probabilité a posteriori {\displaystyle P(\omega _{s}\mid \xi )}

    {\displaystyle P(\omega _{s}\mid \xi )={\frac {p(\xi \mid \omega _{s})P(\omega _{s})}{p\left(\xi \right)}}}

    Égal au nombre de pixels d'une image, le nombre de vecteurs est également égal.

    Car le classifieur utilise un vecteur correspondant à chaque pixel x_{i} , et le vecteur est formé à partir du voisinage du pixel.

    Les procédures fondamentales pour la catégorisation contextuelle des images :

    Calculez le vecteur de caractéristiques \xi pour chaque pixel.

    Calculer les paramètres de la distribution des probabilités {\displaystyle p(\xi \mid \omega _{s})} et {\displaystyle P(\omega _{s})}

    Calculer les probabilités a posteriori {\displaystyle P(\omega _{r}\mid \xi )} et toutes les étiquettes \theta _{0} .

    Obtenez le résultat de la classification des images.

    La mise en correspondance des modèles est une application « par force brute » de cette stratégie. L'objectif est d'établir une série de modèles, puis de rechercher de petits composants d'image qui correspondent à un modèle.

    Cette technique est gourmande en calcul et inefficace.

    Il maintient une liste complète de modèles tout au long du processus, et le nombre de combinaisons possibles est incroyablement élevé.

    Pour une m\times n image pixelisée, il peut y avoir un maximum de {\displaystyle 2^{m\times n}} combinaisons, il en résulte un calcul intensif.

    Il s'agit d'une stratégie descendante communément appelée

    Vous aimez cet aperçu ?
    Page 1 sur 1