Apprentissage appliqué aux véhicules terrestres: Améliorer les performances des véhicules terrestres grâce à l'apprentissage de la vision par ordinateur
Par Fouad Sabry
()
À propos de ce livre électronique
Qu'est-ce que l'apprentissage appliqué aux véhicules terrestres
L'initiative d'apprentissage appliqué aux véhicules terrestres (LAGR), qui a été opérationnelle de 2004 à 2008, a été conçue dans le but de accélérer le développement d’une navigation tout-terrain autonome, basée sur la perception, dans les véhicules terrestres robotisés sans pilote (UGV). La DARPA, qui est une agence de recherche relevant du ministère de la Défense des États-Unis d'Amérique, a financé le LAGR.
Comment vous en bénéficierez
( I) Informations et validations sur les sujets suivants :
Chapitre 1 : Programme DARPA LAGR
Chapitre 2 : DARPA
Chapitre 3 : Robot autonome
Chapitre 4 : Robot militaire
Chapitre 5 : Grand défi DARPA
Chapitre 6 : Véhicule terrestre sans pilote
Chapitre 7 : Essai européen de robot terrestre
Chapitre 8 : Robot mobile
Chapitre 9 : Concasseur (robot)
Chapitre 10 : Centre national d'ingénierie robotique
(II) Répondre aux principales questions du public sur l'apprentissage appliqué aux véhicules terrestres.
(III) Exemples concrets d'utilisation de l'apprentissage appliqué aux véhicules terrestres dans de nombreux domaines.
Qui est-ce ? Le livre s'adresse aux professionnels, aux étudiants de premier cycle et des cycles supérieurs, aux passionnés, aux amateurs et à ceux qui souhaitent aller au-delà des connaissances ou des informations de base pour tout type d'apprentissage appliqué aux véhicules terrestres.
En savoir plus sur Fouad Sabry
Technologies Émergentes en Agriculture [French]
Lié à Apprentissage appliqué aux véhicules terrestres
Titres dans cette série (100)
Groupe mixte d'experts en photographie: Libérer la puissance des données visuelles avec la norme JPEG Évaluation : 0 sur 5 étoiles0 évaluationVision par ordinateur sous-marine: Explorer les profondeurs de la vision par ordinateur sous les vagues Évaluation : 0 sur 5 étoiles0 évaluationModèle d'apparence de couleur: Comprendre la perception et la représentation en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationVision par ordinateur: Explorer les profondeurs de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation de Hough: Dévoiler la magie de la transformation de Hough en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation Hadamard: Dévoilement de la puissance de la transformation Hadamard en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationHistogramme d'image: Dévoilement d'informations visuelles, exploration des profondeurs des histogrammes d'images en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationCompression d'images: Techniques efficaces pour l'optimisation des données visuelles Évaluation : 0 sur 5 étoiles0 évaluationCartographie des tons: Cartographie des tons : perspectives éclairantes en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationDiffusion anisotrope: Améliorer l'analyse d'images grâce à la diffusion anisotrope Évaluation : 0 sur 5 étoiles0 évaluationRéduction de bruit: Amélioration de la clarté et techniques avancées de réduction du bruit en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationFiltre adaptatif: Améliorer la vision par ordinateur grâce au filtrage adaptatif Évaluation : 0 sur 5 étoiles0 évaluationTransformation du radon: Dévoiler des modèles cachés dans les données visuelles Évaluation : 0 sur 5 étoiles0 évaluationHistogramme des dégradés orientés: Dévoilement du domaine visuel : exploration de l'histogramme des dégradés orientés en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationHomographie: Homographie : transformations en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationVision stéréo par ordinateur: Explorer la perception de la profondeur dans la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationDétection des bords: Explorer les limites de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationFonction de correspondance des couleurs: Comprendre la sensibilité spectrale en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationÉgalisation d'histogramme: Amélioration du contraste de l'image pour une perception visuelle améliorée Évaluation : 0 sur 5 étoiles0 évaluationDétecteur de coin Harris: Dévoiler la magie de la détection des caractéristiques de l'image Évaluation : 0 sur 5 étoiles0 évaluationContour actif: Faire progresser la vision par ordinateur grâce aux techniques de contour actif Évaluation : 0 sur 5 étoiles0 évaluationRétinex: Dévoiler les secrets de la vision informatique avec Retinex Évaluation : 0 sur 5 étoiles0 évaluationSystème de gestion des couleurs: Optimiser la perception visuelle dans les environnements numériques Évaluation : 0 sur 5 étoiles0 évaluationPeinture: Combler les lacunes de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationTransformation affine: Libérer des perspectives visuelles : explorer la transformation affine en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationCorrection gamma: Améliorer la clarté visuelle en vision par ordinateur : la technique de correction gamma Évaluation : 0 sur 5 étoiles0 évaluationModèle du système visuel humain: Comprendre la perception et le traitement Évaluation : 0 sur 5 étoiles0 évaluationModèle de couleur: Comprendre le spectre de la vision par ordinateur : explorer les modèles de couleurs Évaluation : 0 sur 5 étoiles0 évaluationMéthode d'ensemble de niveaux: Faire progresser la vision par ordinateur, explorer la méthode de jeu de niveaux Évaluation : 0 sur 5 étoiles0 évaluationBanque de filtres: Aperçu des techniques de banque de filtres de Computer Vision Évaluation : 0 sur 5 étoiles0 évaluation
Livres électroniques liés
Maîtriser le Développement d'Applications Mobiles : De Swift à Kotlin, une Approche Complète Évaluation : 0 sur 5 étoiles0 évaluationIntégration de l'infrastructure des véhicules: Libérer des informations et des avancées grâce à la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationExploration de la collection d’images: Dévoiler des paysages visuels en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationReconnaissance automatique des cibles: Progrès des techniques de vision par ordinateur pour la reconnaissance de cibles Évaluation : 0 sur 5 étoiles0 évaluationFiltre à particule: Explorer les filtres à particules en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationMaîtriser le Développement Full Stack : Du Front-End Éblouissant au Back-End Robuste Évaluation : 0 sur 5 étoiles0 évaluationReconnaissance automatique des plaques d'immatriculation: Libérer le potentiel de la technologie de vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationCaméra intelligente: Révolutionner la perception visuelle avec la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationÉléments de programmation structurée Évaluation : 0 sur 5 étoiles0 évaluationInfographie: Explorer l'intersection de l'infographie et de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationRobot mobile: Libérer le potentiel visionnaire des robots mobiles Évaluation : 0 sur 5 étoiles0 évaluationMAITRISER Python : De l'Apprentissage aux Projets Professionnels Évaluation : 0 sur 5 étoiles0 évaluationApprendre Python rapidement: Le guide du débutant pour apprendre tout ce que vous devez savoir sur Python, même si vous êtes nouveau dans la programmation Évaluation : 0 sur 5 étoiles0 évaluationPratiques de gestion de l'innovation, 2e édition: Guide sur les stratégies et les processus Évaluation : 0 sur 5 étoiles0 évaluationReconnaissance des panneaux de signalisation: Libérer la puissance de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationMaîtriser ChatGPT : Libérez la puissance de l'IA pour améliorer la communication et les relations: French Évaluation : 0 sur 5 étoiles0 évaluationSuite logicielle: Révolutionner la vision par ordinateur avec la suite logicielle ultime Évaluation : 0 sur 5 étoiles0 évaluationRéseau de capteurs visuels: Explorer la puissance des réseaux de capteurs visuels en vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationPython pour les hackers : Le guide des script kiddies : apprenez à créer vos propres outils de hacking Évaluation : 5 sur 5 étoiles5/5Maîtriser OpenAI : Guide Complet pour Dompter le Titan du Langage Évaluation : 0 sur 5 étoiles0 évaluationVeilles et pratiques stratégiques en gestion de l’innovation Évaluation : 0 sur 5 étoiles0 évaluationVoir la synthèse: Explorer les perspectives de la vision par ordinateur Évaluation : 0 sur 5 étoiles0 évaluationComment écrire des livres en utilisant ChatGPT: Votre guide ultime pour écrire des livres avec ChatGPT Évaluation : 0 sur 5 étoiles0 évaluationInformatique physique: Explorer la vision par ordinateur dans l'informatique physique Évaluation : 0 sur 5 étoiles0 évaluationMéthodes de planification en transport: Deuxième édition Évaluation : 0 sur 5 étoiles0 évaluationLa maturité en gestion de projet: Améliorer la performance organisationnelle Évaluation : 0 sur 5 étoiles0 évaluationInitiation à l'écosytème Hadoop Évaluation : 5 sur 5 étoiles5/5Caméra de contrôle de la circulation: Avancées de la vision par ordinateur pour les caméras de contrôle de la circulation Évaluation : 0 sur 5 étoiles0 évaluationProjets du Futur : Guide Complet des Méthodes de Conduite Innovantes Évaluation : 0 sur 5 étoiles0 évaluation
Intelligence (IA) et sémantique pour vous
Intelligence artificielle: la quatrième révolution industrielle Évaluation : 0 sur 5 étoiles0 évaluationLe guide du hacker : le guide simplifié du débutant pour apprendre les bases du hacking avec Kali Linux Évaluation : 5 sur 5 étoiles5/5Maîtrisez ChatGPT : Du débutant à l'expert - Guide pratique pour exploiter la puissance de l'IA conversationnelle Évaluation : 0 sur 5 étoiles0 évaluationTravailler dans le Big Data - les 6 métiers vers lesquels s'orienter Évaluation : 5 sur 5 étoiles5/5Maîtriser ChatGPT : Libérez la puissance de l'IA pour améliorer la communication et les relations: French Évaluation : 0 sur 5 étoiles0 évaluationHistoire et évolution de l'Intelligence Artificielle Évaluation : 5 sur 5 étoiles5/5L’Empathie au Cœur de l’Intelligence Artificielle, Comment insérer de l’empathie dans les affaires et l’intelligence artificielle Évaluation : 0 sur 5 étoiles0 évaluationRésumé Chatgpt ia Revolution in 2023: Guide de la Technologie Chatgpt et de son Impact Social Évaluation : 0 sur 5 étoiles0 évaluationL'intelligence mixte, vers une nouvelle forme d'intelligence Évaluation : 0 sur 5 étoiles0 évaluationMonétisation ChatGPT : Exploitez la Puissance de l'IA: ChatGPT Évaluation : 0 sur 5 étoiles0 évaluationIA dans les Affaires: Guide Pratique de l'Utilisation de l'Intelligence Artificielle dans Divers Secteurs Évaluation : 0 sur 5 étoiles0 évaluationChat GPT : Comment ça fonctionne et comment gagner avec l'utilisation de la technologie d'Intelligence Artificielle Évaluation : 0 sur 5 étoiles0 évaluationLimites, dangers et menaces de l'Intelligence Artificielle: Un outil sans maîtrises Évaluation : 0 sur 5 étoiles0 évaluationGuide définitive pour créer des TikToks avec ChatGPT: Devenez le prochain influenceur sur TikTok avec l'aide de ChatGPT ! Évaluation : 0 sur 5 étoiles0 évaluationLa prophétie des anciens: Roman dystopique Évaluation : 0 sur 5 étoiles0 évaluationL'art de la création d'images avec l'IA : Techniques, applications et défis éthiques Évaluation : 0 sur 5 étoiles0 évaluationComment Réussir sur Facebook en utilisant ChatGPT: Le pouvoir de ChatGPT : découvrez comment il peut transformer votre stratégie sur Facebook Évaluation : 0 sur 5 étoiles0 évaluationOsons l'IA à l'école: Préparons nos jeunes à la révolution de l'intelligence artificielle Évaluation : 0 sur 5 étoiles0 évaluation
Avis sur Apprentissage appliqué aux véhicules terrestres
0 notation0 avis
Aperçu du livre
Apprentissage appliqué aux véhicules terrestres - Fouad Sabry
Apprentissage appliqué aux véhicules terrestres
Amélioration des performances des véhicules terrestres grâce à l'apprentissage de la vision par ordinateur
Fouad Sabry est l'ancien responsable régional du développement commercial pour les applications chez Hewlett Packard pour l'Europe du Sud, le Moyen-Orient et l'Afrique. Fouad est titulaire d'un baccalauréat ès sciences des systèmes informatiques et du contrôle automatique, d'une double maîtrise, d'une maîtrise en administration des affaires et d'une maîtrise en gestion des technologies de l'information, de l'Université de Melbourne en Australie. Fouad a plus de 25 ans d'expérience dans les technologies de l'information et de la communication, travaillant dans des entreprises locales, régionales et internationales, telles que Vodafone et des machines professionnelles internationales. Actuellement, Fouad est un entrepreneur, auteur, futuriste, axé sur les technologies émergentes et les solutions industrielles, et fondateur de l'initiative One Billion Knowledge.
Un milliard de connaissances
Apprentissage appliqué aux véhicules terrestres
Amélioration des performances des véhicules terrestres grâce à l'apprentissage de la vision par ordinateur
Fouad Sabry
Copyright
Apprentissage appliqué aux véhicules © terrestres 2024 par Fouad Sabry. Tous droits réservés.
Aucune partie de ce livre ne peut être reproduite sous quelque forme que ce soit ou par quelque moyen électronique ou mécanique que ce soit, y compris les systèmes de stockage et de récupération d'informations, sans l'autorisation écrite de l'auteur. La seule exception est celle d'un critique, qui peut citer de courts extraits dans une critique.
Couverture dessinée par Fouad Sabry.
Bien que toutes les précautions aient été prises dans la préparation de ce livre, les auteurs et les éditeurs n'assument aucune responsabilité pour les erreurs ou omissions, ou pour les dommages résultant de l'utilisation des informations contenues dans le présent document.
Table des matières
Chapitre 1 : Programme LAGR de la DARPA
Chapitre 2 : La DARPA
Chapitre 3 : Robot autonome
Chapitre 4 : Robot militaire
Chapitre 5 : Le Grand Défi de la DARPA
Chapitre 6 : Véhicule terrestre sans pilote
Chapitre 7 : Essai d'un robot terrestre européen
Chapitre 8 : Robot mobile
Chapitre 9 : Concasseur (robot)
Chapitre 10 : Centre national d'ingénierie robotique
Appendice
À propos de l'auteur
Chapitre 1 : Programme LAGR de la DARPA
Le programme d'apprentissage appliqué aux véhicules terrestres (LAGR), qui a duré de 2004 à 2008, visait à accélérer la navigation hors route autonome, basée sur la perception et les véhicules terrestres sans pilote (UGV). La DARPA, la branche de recherche du département de la Défense des États-Unis, a soutenu le LAGR.
Bien que les robots mobiles (par exemple Shakey) existent depuis les années 1960, les progrès dans le développement de robots capables de se déplacer à l'extérieur, hors route et sur des terrains comportant de nombreux obstacles ont été progressifs. En réalité, il n'y avait pas de critères définis pour suivre les progrès. Des équipes de recherche distinctes ont mis en service des voitures robotisées dans le cadre d'essais gouvernementaux non répétés qui ont surveillé la vitesse moyenne et le nombre d'interventions requises de l'opérateur le long d'une voie définie avec des points de cheminement largement espacés. Ces essais ont révélé les énormes difficultés associées à la navigation hors route. Alors qu'au tournant du 21e siècle, les véhicules PerceptOR étaient équipés de capteurs et d'algorithmes de pointe, mais la portée limitée de leur technologie de perception les a fait échouer dans des impasses naturelles. De plus, leur dépendance à des comportements prédéterminés les empêchait de s'adapter à des événements imprévus. À l'exception des terrains essentiellement dégagés avec peu d'obstacles ou le long de chemins de terre, les voitures PerceptOR étaient incapables de naviguer sans l'aide répétitive et fréquente de l'opérateur.
L'initiative LAGR visait à développer la technique PerceptOR tout en s'attaquant aux problèmes technologiques mis en évidence par les tests PerceptOR.
L'objectif principal du LAGR était d'accélérer la navigation hors route des UGV. D'autres objectifs synergiques comprenaient (1) l'établissement d'une méthodologie d'analyse comparative pour mesurer les progrès des robots autonomes opérant dans des environnements non structurés, (2) l'amélioration de la vision industrielle et permettant ainsi la perception à longue portée, et (3) l'augmentation du nombre d'institutions et d'individus capables de contribuer à la recherche de pointe sur les UGV.
Au lieu de se concentrer sur le nouveau matériel, le programme LAGR visait à mettre l'accent sur le développement d'une nouvelle science pour la perception et le contrôle des robots. Ainsi, il a été décidé de mettre à disposition des chercheurs du LAGR, membres d'équipes concurrentes, une flotte de robots identiques et relativement simples, leur permettant de se concentrer sur le développement d'algorithmes. Chaque équipe a reçu deux robots de conception standard. Ils ont créé un nouveau logiciel pour ces robots, puis ont envoyé le code à une équipe de test gouvernementale, qui a testé le logiciel sur des robots gouvernementaux lors de plusieurs cours de test. Ces parcours étaient dispersés à travers les États-Unis et étaient auparavant inconnus des équipes. De cette manière, le code de toutes les équipes a pu être testé dans des conditions pratiquement identiques. Après une période initiale de lancement, le cycle de développement/test du code a été répété environ une fois par mois.
Site officiel du Centre national d'ingénierie robotique de l'Université Carnegie Mellon (CMU NREC) a créé et construit le robot standard.
Les ordinateurs des véhicules étaient préchargés avec un système modulaire de perception et de navigation « de base » qui était essentiellement le même système que celui que le CMU NREC avait créé pour le programme PerceptOR et qui était considéré comme représentant l'état de l'art au début du LAGR.
La modularité du système Baseline a permis aux chercheurs de remplacer des parties du code Baseline par leurs propres modules tout en disposant d'un système de navigation entièrement fonctionnel sans avoir à développer un système de navigation entièrement nouveau.
Ainsi, par exemple, ils ont pu comparer les performances de leur propre module de détection d'obstacles à celles du code de base, tout en maintenant toutes les autres variables constantes.
Le code de la ligne de base a également servi de référence constante : dans chaque environnement logiciel et à tout moment, le code des équipes pouvait être comparé au code de la ligne de base.
Ce cycle rapide a fourni à l'équipe gouvernementale et aux équipes d'exécution une contribution immédiate et a permis à l'équipe gouvernementale d'élaborer des cours d'examen qui poussaient les interprètes dans des tâches de perception spécifiques et dont la difficulté était censée mettre à l'épreuve les interprètes, mais non dominer, les capacités actuelles des artistes.
Chaque test n'exigeait pas que les équipes soumettent un nouveau code, mais le faisait généralement.
Malgré cette latitude, certaines équipes considéraient que le cycle de tests rapides était préjudiciable à leur développement à long terme et auraient préféré une pause plus longue entre les tests.
Pour passer à la phase II, chaque équipe a dû modifier le code de référence afin de réussir les trois derniers tests gouvernementaux de phase I, en moyenne, les robots exécutant le code de l'équipe étaient au moins 10 % plus rapides que ceux exécutant le code de référence d'origine.
Cette mesure plutôt modeste « Go/No Go » a été choisie pour permettre aux équipes de choisir des techniques risquées, mais potentielles, qui pourraient ne pas être pleinement développées au cours des 18 premiers mois du programme.
Chacune des huit équipes a atteint cette statistique, l'objectif de la phase II était pour certains d'atteindre deux fois la vitesse de la ligne de base lors des tests ultérieurs, et cela a été atteint par quelques-uns.
Il est à noter que les critères Go/No Go de la phase I ont été conçus de manière à ce que les équipes ne soient pas en compétition pour un nombre fixe de places de la phase II : n'importe quel