Découvrez des millions d'e-books, de livres audio et bien plus encore avec un essai gratuit

Seulement $11.99/mois après la période d'essai. Annulez à tout moment.

Intelligence artificielle: la quatrième révolution industrielle
Intelligence artificielle: la quatrième révolution industrielle
Intelligence artificielle: la quatrième révolution industrielle
Livre électronique502 pages27 heures

Intelligence artificielle: la quatrième révolution industrielle

Évaluation : 0 sur 5 étoiles

()

Lire l'aperçu

À propos de ce livre électronique

La quatrième révolution industrielle représente un changement fondamental dans notre façon de vivre, de travailler et de nous relier les uns aux autres. C'est un nouveau chapitre du développement humain, rendu possible par des avancées technologiques extraordinaires à la mesure de celles des première, deuxième et troisième révolutions industrielles. Ces avancées fusionnent les mondes physique, numérique et biologique demanière à créer à la fois d'énormes promesses et des risques potentiels. La vitesse, l'ampleur et la profondeur de cette révolution nous obligent à repenser la façon dont les pays se développent, comment les organisations créent de la valeur et même ce que signifie être humain. L'intelligence artificielle est aujourd'hui correctement connue sous lenom d'IA étroite (ou d'IA faible), en ce sens qu'elle est conçue pour effectuer une tâche étroite (par exemple, uniquement la reconnaissance faciale ou uniquement les recherches sur Internet ou uniquement la conduite d'une voiture). Cependant, l'objectif à long terme de nombreux chercheurs est de créer une IA générale (AGI ou IA forte). Alors qu'une IA étroite peut surpasser les humains quelle que soit sa tâche spécifique, comme jouer aux échecs ou résoudre des équations, AGI surpasserait les humains dans presque toutes les tâches cognitives.
Authors: Vasil Teigens, Peter Skalfist, Daniel Mikelsten

LangueFrançais
Date de sortie15 sept. 2020
ISBN9781005966577
Intelligence artificielle: la quatrième révolution industrielle
Auteur

Vasil Teigens

Vasil Teigens, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Auteurs associés

Lié à Intelligence artificielle

Livres électroniques liés

Intelligence (IA) et sémantique pour vous

Voir plus

Articles associés

Catégories liées

Avis sur Intelligence artificielle

Évaluation : 0 sur 5 étoiles
0 évaluation

0 notation0 avis

Qu'avez-vous pensé ?

Appuyer pour évaluer

L'avis doit comporter au moins 10 mots

    Aperçu du livre

    Intelligence artificielle - Vasil Teigens

    Introduction

    La quatrième révolution industrielle représente un changement fondamental dans notre façon de vivre, de travailler et de nous relier les uns aux autres. C'est un nouveau chapitre du développement humain, rendu possible par des avancées technologiques extraordinaires à la mesure de celles des première, deuxième et troisième révolutions industrielles. Ces avancées fusionnent les mondes physique, numérique et biologique de manière à créer à la fois d'énormes promesses et des risques potentiels. La vitesse, l'ampleur et la profondeur de cette révolution nous obligent à repenser la façon dont les pays se développent, comment les organisations créent de la valeur et même ce que signifie être humain.

    Du SIRI aux voitures autonomes, l'intelligence artificielle (IA) progresse rapidement. Alors que la science-fiction décrit souvent l'IA comme des robots aux caractéristiques humaines, l'IA peut englober tout, des algorithmes de recherche de Google au Watson d'IBM en passant par les armes autonomes.

    L'intelligence artificielle est aujourd'hui correctement connue sous le nom d'IA étroite (ou d'IA faible), en ce sens qu'elle est conçue pour effectuer une tâche étroite (par exemple uniquement la reconnaissance faciale ou uniquement les recherches sur Internet ou uniquement la conduite d'une voiture). Cependant, l'objectif à long terme de nombreux chercheurs est de créer une IA générale (AGI ou IA forte). Alors qu'une IA étroite peut surpasser les humains quelle que soit sa tâche spécifique, comme jouer aux échecs ou résoudre des équations, AGI surpasserait les humains dans presque toutes les tâches cognitives.

    La quatrième révolution industrielle va au-delà du simple changement technologique; c'est l'occasion d'aider tout le monde, y compris les dirigeants, les décideurs et les personnes de tous les groupes de revenus et de toutes les nations, à exploiter les technologies convergentes afin de créer un avenir inclusif et centré sur l'homme. La véritable opportunité est de regarder au-delà de la technologie et de trouver des moyens de donner au plus grand nombre de personnes la possibilité d'avoir un impact positif sur leurs familles, organisations et communautés.

    Intelligence artificielle générale

    L'intelligence générale artificielle (AGI) est l'intelligence d'une machine qui peut comprendre ou apprendre n'importe quelle tâche intellectuelle qu'un être humain peut. C'est un objectif principal de certaines recherches sur l'intelligence artificielle et un sujet commun dans la science-fiction et les études futures. AGI peut également être appelé IA forte, AI complète ou action intelligente générale. (Certaines sources académiques réservent le terme IA forte aux machines qui peuvent ressentir la conscience.). Certaines autorités soulignent une distinction entre l'IA forte et l'IA appliquée (également appelée IA étroite ou IA faible): l'utilisation de logiciels pour étudier ou accomplir des tâches spécifiques de résolution de problèmes ou de raisonnement. Une IA faible, contrairement à une IA forte, n'essaie pas d'exécuter toute la gamme des capacités cognitives humaines.

    Divers critères d'intelligence ont été proposés (notamment le test de Turing) mais à ce jour, il n'y a pas de définition qui satisfasse tout le monde. Cependant, les chercheurs en intelligence artificielle s'entendent largement pour dire que l'intelligence est nécessaire pour effectuer les opérations suivantes:

    Raisonner, utiliser la stratégie, résoudre des énigmes et porter des jugements dans l'incertitude;

    Représenter les connaissances, y compris les connaissances de bon sens;

    Plan;

    Apprendre;

    Communiquer en langage naturel;

    Et intégrer toutes ces compétences vers des objectifs communs.

    D'autres capacités importantes incluent la capacité de sentir (par exemple voir) et la capacité d'agir (par exemple déplacer et manipuler des objets) dans le monde où un comportement intelligent doit être observé. Cela comprendrait la capacité de détecter et de réagir aux dangers. De nombreuses approches interdisciplinaires de l'intelligence (par exemple les sciences cognitives, l'intelligence computationnelle et la prise de décision) ont tendance à souligner la nécessité de prendre en compte des traits supplémentaires tels que l'imagination (considérée comme la capacité de former des images et des concepts mentaux non programmés) et l'autonomie. des systèmes qui présentent bon nombre de ces capacités existent (par exemple, voir créativité informatique, raisonnement automatisé, système d'aide à la décision, robot, calcul évolutif, agent intelligent), mais pas encore au niveau humain.

    Tests pour confirmer l'AGI au niveau humain

    Le test de Turing (Turing) Une machine et un humain conversent tous les deux à vue invisible avec un deuxième humain, qui doit évaluer lequel des deux est la machine, qui réussit le test s'il peut tromper l'évaluateur une fraction significative du temps. Remarque: Turing ne prescrit pas ce qui devrait être qualifié d'intelligence, mais seulement le fait de savoir qu'il s'agit d'une machine devrait le disqualifier. Le test du café (Wozniak) Une machine est nécessaire pour entrer dans une maison américaine moyenne et comprendre comment faire du café: trouvez la machine à café, trouvez le café, ajoutez de l'eau, trouvez une tasse et préparez le café en appuyant sur les boutons appropriés. Le Test de Robot College Student (Goertzel) Une machine s'inscrit dans une université, suit et réussit les mêmes cours que les humains et obtient un diplôme. Le test d'emploi (Nilsson) Une machine accomplit un travail économiquement important, au moins aussi bien que les humains dans le même travail.

    IQ-tests AGI

    Les chercheurs chinois Feng Liu, Yong Shi et Ying Liu ont effectué des tests de renseignement au cours de l'été 2017 avec une IA faible accessible au public et librement accessible, comme Google AI ou Apple Siri et d'autres. Au maximum, ces IA ont atteint une valeur d'environ 47, ce qui correspond approximativement à un enfant de six ans en première année. Un adulte atteint environ 100 en moyenne. En 2014, des tests similaires ont été effectués dans lesquels l'IA a atteint une valeur maximale de 27.

    Problèmes nécessitant AGI pour résoudre

    Les problèmes les plus difficiles pour les ordinateurs sont connus de manière informelle comme AI-complete ou AI-hard, ce qui implique que les résoudre équivaut à l'aptitude générale de l'intelligence humaine, ou IA forte, au-delà des capacités d'un algorithme spécifique.

    On suppose que les problèmes liés à l'intelligence artificielle incluent la vision par ordinateur générale, la compréhension du langage naturel et la gestion de circonstances imprévues tout en résolvant tout problème du monde réel.

    Les problèmes liés à l'intelligence artificielle ne peuvent pas être résolus uniquement avec la technologie informatique actuelle et nécessitent également un calcul humain. Cette propriété pourrait être utile, par exemple, pour tester la présence d'humains, comme le souhaitent les CAPTCHA; et pour que la sécurité informatique repousse les attaques par force brute.

    Recherche AGI

    AI classique

    La recherche sur l'IA moderne a commencé au milieu des années 1950. La première génération de chercheurs en IA était convaincue que l'intelligence générale artificielle était possible et qu'elle existerait dans quelques décennies. Comme l'écrivait le pionnier de l'IA Herbert A. Simon en 1965: les machines seront capables, dans vingt ans, de faire tout le travail qu'un homme peut faire. Leurs prédictions ont inspiré le personnage de Stanley Kubrick et Arthur C. Clarke, HAL 9000, qui incarnait ce que les chercheurs en IA pensaient pouvoir créer d'ici à 2001. Marvin Minsky, pionnier de l'IA, était consultant sur le projet de rendre HAL 9000 aussi réaliste que possible selon les prédictions consensuelles de l'époque; Crevier le cite comme ayant déclaré à ce sujet en 1967: Dans une génération... le problème de la création d'une intelligence artificielle sera résolu de manière substantielle, bien que Minsky déclare qu'il a été mal cité.

    Cependant, au début des années 1970, il est devenu évident que les chercheurs avaient largement sous-estimé la difficulté du projet. Les agences de financement sont devenues sceptiques vis-à-vis de l'AGI et ont mis les chercheurs sous une pression croissante pour produire une IA appliquée utile. Au début des années 80, le projet informatique de cinquième génération du Japon a ravivé l'intérêt pour AGI, établissant un calendrier de dix ans qui comprenait des objectifs AGI tels que «poursuivre une conversation informelle». En réponse à cela et au succès des systèmes experts, l'industrie et le gouvernement ont réinjecté de l'argent sur le terrain, mais la confiance dans l'IA s'est effondrée de façon spectaculaire à la fin des années 1980 et les objectifs du projet informatique de cinquième génération n'ont jamais été atteints. En 20 ans, les chercheurs en IA qui avaient prédit la réalisation imminente de l'AGI s'étaient fondamentalement trompés. Dans les années 1990, les chercheurs en IA avaient acquis la réputation de faire de vaines promesses. Ils sont devenus réticents à faire des prédictions et à éviter toute mention de l'intelligence artificielle au niveau humain de peur d'être étiquetés rêveur aux yeux sauvages.

    Recherche étroite sur l'IA

    Dans les années 1990 et au début du 21e siècle, l'IA grand public a obtenu un succès commercial et une respectabilité académique bien plus importants en se concentrant sur des sous-problèmes spécifiques où ils peuvent produire des résultats vérifiables et des applications commerciales, telles que les réseaux de neurones artificiels, la vision par ordinateur ou l'exploration de données. Les systèmes d'IA appliquée sont désormais largement utilisés dans l'industrie des technologies, et la recherche dans ce domaine est très largement financée par les universités et l'industrie. Actuellement, le développement dans ce domaine est considéré comme une tendance émergente, et une étape mature devrait se produire dans plus de 10 ans.

    La plupart des chercheurs traditionnels en IA espèrent qu'une IA forte peut être développée en combinant les programmes qui résolvent divers sous-problèmes en utilisant une architecture d'agent intégrée, une architecture cognitive ou une architecture de subsomption. Hans Moravec a écrit en 1988:

    Je suis convaincu que cette voie ascendante vers l'intelligence artificielle rencontrera un jour la voie descendante traditionnelle à plus de la moitié du chemin, prête à fournir les compétences du monde réel et la connaissance du bon sens qui a été si frustrante et insaisissable dans les programmes de raisonnement. Machines entièrement intelligentes se produira lorsque la pointe d'or métaphorique est entraînée unissant les deux efforts.

    Cependant, même cette philosophie fondamentale a été contestée; par exemple, Stevan Harnad de Princeton a conclu son article de 1990 sur l'hypothèse de mise à la terre des symboles en déclarant:

    L'attente a souvent été exprimée que les approches top-down (symboliques) pour modéliser la cognition rencontreront en quelque sorte les approches bottom-up (sensorielles) quelque part entre les deux. Si les considérations de base dans ce document sont valides, alors cette attente est désespérément modulaire et il n'y a vraiment qu'une seule route viable du sens aux symboles: de bas en haut. Un niveau symbolique flottant comme le niveau logiciel d'un ordinateur ne sera jamais atteint par cette route (ou vice versa) - ni pourquoi nous devrions même essayer d'atteindre un tel niveau, car il semble que y arriver reviendrait à déraciner nos symboles de leur signification intrinsèque (nous réduisant ainsi simplement à l'équivalent fonctionnel d'un ordinateur programmable).

    Recherche moderne sur l'intelligence générale artificielle

    L'intelligence générale artificielle (AGI) décrit la recherche qui vise à créer des machines capables d'une action intelligente générale. Le terme a été utilisé dès 1997, par Mark Gubrudin, une discussion sur les implications de la production et des opérations militaires entièrement automatisées. Le terme a été réintroduit et popularisé par Shane Legg et Ben Goertzel vers 2002. L'objectif de recherche est beaucoup plus ancien, par exemple le projet Cyc de Doug Lenat (qui a commencé en 1984), et le projet Soar d'Allen Newell est considéré comme relevant du champ d'application de l'AGI. L'activité de recherche de l'AGI en 2006 a été décrite par Pei Wang et Ben Goertzelas produisant des publications et des résultats préliminaires. La première université d'été à AGI a été organisée à Xiamen, en Chine en 2009 par le laboratoire de cerveau artificiel de l'université de Xiamen et OpenCog. Le premier cours universitaire a été donné en 2010 et 2011 à l'Université de Plovdiv, Bulgarie par Todor Arnaudov. Le MIT a présenté un cours à AGI en 2018, organisé par Lex Fridman et mettant en vedette un certain nombre de conférenciers invités. Cependant, jusqu'à présent, la plupart des chercheurs en IA ont accordé peu d'attention à l'AGI, certains affirmant que l'intelligence est trop complexe pour être complètement reproduite à court terme. Cependant, un petit nombre d'informaticiens sont actifs dans la recherche AGI, et bon nombre de ce groupe contribuent à une série de conférences AGI. La recherche est extrêmement diversifiée et souvent pionnière dans la nature. Dans l'introduction de son livre, Goertzel dit que les estimations du temps nécessaire à la construction d'un AGI vraiment flexible varient de 10 ans à plus d'un siècle, mais le consensus au sein de la communauté de recherche AGI semble être que le calendrier discuté par Ray Kurzweil dans The Singularity est proche (c'est-à-dire entre 2015 et 2045) est plausible.

    Cependant, la plupart des chercheurs en IA traditionnels doutent que les progrès soient aussi rapides. Les organisations qui poursuivent explicitement l'AGI comprennent le laboratoire suisse d'IA IDSIA, Nnaisense, Vicarious, Maluuba, la Fondation OpenCog, Adaptive AI, LIDA et Numenta et le Redwood Neuroscience Institute associé. En outre, des organisations telles que le Machine Intelligence Research Institute et OpenAI ont été fondées pour influencer la voie de développement d'AGI. Enfin, des projets tels que le Human Brain Project ont pour objectif de construire une simulation fonctionnelle du cerveau humain. Une enquête de 2017 sur AGI a classé quarante-cinq projets de R&D actifs connus qui, explicitement ou implicitement (par le biais de recherches publiées), font des recherches sur AGI, les trois plus importants étant DeepMind, le Human Brain Project et OpenAI (d'après l'article).

    En 2019, le programmeur de jeux vidéo et ingénieur en aérospatiale John Carmack a annoncé son intention de rechercher AGI.

    À savoir DeepMind avec leur succès dans la simulation de joueur humain pour par exemple AlphaGo a utilisé de nouveaux concepts:

    Renforcement de l'apprentissage pour améliorer les réseaux déjà formés avec de nouvelles données ou

    Apprentissage non supervisé, par exemple par un réseau contradictoire génératif pour obtenir des réseaux améliorés par la concurrence.

    Puissance de traitement nécessaire pour simuler un cerveau

    Émulation du cerveau entier

    Une approche populaire discutée pour réaliser une action intelligente générale est l'émulation du cerveau entier. Un modèle de cerveau de bas niveau est construit en scannant et en cartographiant un cerveau biologique en détail et en copiant son état dans un système informatique ou un autre appareil informatique. L'ordinateur exécute un modèle de simulation si fidèle à l'original qu'il se comportera essentiellement de la même manière que le cerveau d'origine, ou à toutes fins pratiques, de manière indiscernable. L'émulation du cerveau entier est discutée en neurosciences computationnelles et en neuroinformatique, dans le contexte de la simulation du cerveau à des fins de recherche médicale. Il est discuté dans la recherche sur l'intelligence artificielle comme une approche de l'IA forte. Les technologies de neuroimagerie qui pourraient fournir la compréhension détaillée nécessaire s'améliorent rapidement, et le futuriste Ray Kurzweil dans le livre The Singularity Is Near prédit qu'une carte de qualité suffisante deviendra disponible à une échelle de temps similaire à la puissance de calcul requise.

    Premières estimations

    Pour une simulation cérébrale de bas niveau, un ordinateur extrêmement puissant serait nécessaire. Le cerveau humain possède un grand nombre de synapses. Chacun des 10 (cent milliards) de neurones possède en moyenne 7 000 connexions synaptiques avec d'autres neurones. Il a été estimé que le cerveau d'un enfant de trois ans a environ 10 synapses (1 quadrillion). Ce nombre diminue avec l'âge, se stabilisant à l'âge adulte. Les estimations varient pour un adulte, allant de 10 à 5 × 10 synapses (100 à 500 billions). Une estimation de la puissance de traitement du cerveau, basée sur un modèle de commutateur simple pour l'activité des neurones, est d'environ 10 (100 000 milliards) de mises à jour synaptiques par seconde (SUPS). En 1997, Kurzweil a examiné diverses estimations du matériel nécessaire pour égaler le cerveau humain et a adopté un chiffre de 10 calculs par seconde (cps). (À titre de comparaison, si un calcul équivalait à une opération à virgule flottante - une mesure utilisée pour évaluer les superordinateurs actuels - alors 10 calculs équivaudraient à 10 pétaFLOPS, réalisés en 2011). Il a utilisé ce chiffre pour prédire le matériel nécessaire serait disponible entre 2015 et 2025, si la croissance exponentielle de la puissance informatique au moment de la rédaction de cet article se poursuivait.

    Modéliser les neurones plus en détail

    Le modèle de neurone artificiel supposé par Kurzweil et utilisé dans de nombreuses implémentations actuelles de réseaux de neurones artificiels est simple par rapport aux neurones biologiques. Une simulation cérébrale devrait probablement saisir le comportement cellulaire détaillé des neurones biologiques, actuellement compris uniquement dans les contours les plus larges. Les frais généraux introduits par la modélisation complète des détails biologiques, chimiques et physiques du comportement neuronal (en particulier à l'échelle moléculaire) nécessiteraient des puissances de calcul de plusieurs ordres de grandeur supérieures à l'estimation de Kurzweil. De plus, les estimations ne tiennent pas compte des cellules gliales, qui sont au moins aussi nombreuses que les neurones, et qui peuvent être plus nombreuses que les neurones de 10: 1, et sont maintenant connues pour jouer un rôle dans les processus cognitifs.

    Les recherches en cours

    Il existe quelques projets de recherche qui étudient la simulation du cerveau à l'aide de modèles neuronaux plus sophistiqués, mis en œuvre sur des architectures informatiques conventionnelles. Le projet Artificial Intelligence System a mis en œuvre des simulations en temps non réel d'un «cerveau» (avec 10 neurones) en 2005. Il a fallu 50 jours à un groupe de 27 processeurs pour simuler 1 seconde d'un modèle. Le projet Blue Brain a utilisé l'une des architectures de superordinateurs les plus rapides au monde, la plate-forme Blue Gene d'IBM, pour créer une simulation en temps réel d'une colonne néocorticale à rat unique composée d'environ 10 000 neurones et 10 synapses en 2006. pour construire une simulation détaillée et fonctionnelle des processus physiologiques dans le cerveau humain: Il n'est pas impossible de construire un cerveau humain et nous pouvons le faire en 10 ans, a déclaré Henry Markram, directeur du Blue Brain Project en 2009 au TED. conférence à Oxford. Il y a également eu des allégations controversées pour avoir simulé un cerveau de chat. Les interfaces neuro-silicium ont été proposées comme une stratégie de mise en œuvre alternative qui pourrait mieux évoluer.

    Hans Moravec a abordé les arguments ci-dessus (le cerveau est plus compliqué , les neurones doivent être modélisés plus en détail) dans son article de 1997 Quand le matériel informatique correspondra-t-il au cerveau humain?. Il a mesuré la capacité des logiciels existants à simuler la fonctionnalité de le tissu neural, en particulier la rétine. Ses résultats ne dépendent pas du nombre de cellules gliales, ni du type de traitement des neurones où.

    La complexité réelle de la modélisation des neurones biologiques a été explorée dans le cadre du projet OpenWorm qui visait à simuler complètement un ver qui ne possède que 302 neurones dans son réseau neuronal (parmi environ 1000 cellules au total). Le réseau neuronal de l'animal était bien documenté avant le début du projet. Cependant, bien que la tâche semblait simple au début, les modèles basés sur un réseau neuronal générique ne fonctionnaient pas. Actuellement, les efforts se concentrent sur une émulation précise des neurones biologiques (en partie au niveau moléculaire), mais le résultat ne peut pas encore être considéré comme un succès total. Même si le nombre de problèmes à résoudre dans un modèle à l'échelle du cerveau humain n'est pas proportionnel au nombre de neurones, la quantité de travail le long de cette voie est évidente.

    Critiques des approches basées sur la simulation

    Une critique fondamentale de l'approche du cerveau simulé dérive de la cognition incarnée où l'incarnation humaine est considérée comme un aspect essentiel de l'intelligence humaine. De nombreux chercheurs pensent que l'incarnation est nécessaire pour fonder le sens. Si cette vue est correcte, tout modèle cérébral entièrement fonctionnel devra englober plus que les neurones (c'est-à-dire un corps robotisé). Goertzel propose une réalisation virtuelle (comme Second Life), mais on ne sait pas encore si cela serait suffisant.

    Des ordinateurs de bureau utilisant des microprocesseurs capables de plus de 10cps (unité non standard de calculs par seconde de Kurzweil, voir ci-dessus) sont disponibles depuis 2005. Selon les estimations de puissance cérébrale utilisées par Kurzweil (et Moravec), cet ordinateur devrait être capable de soutenir une simulation d'un cerveau d'abeille, mais malgré un certain intérêt, aucune simulation de ce type n'existe. Il y a au moins trois raisons à cela:

    Le modèle neuronal semble être trop simplifié (voir la section suivante).

    La compréhension des processus cognitifs supérieurs est insuffisante pour établir avec précision la corrélation entre l'activité neuronale du cerveau, observée à l'aide de techniques telles que l'imagerie par résonance magnétique fonctionnelle.

    Même si notre compréhension de la cognition progresse suffisamment, les premiers programmes de simulation seront probablement très inefficaces et auront donc besoin de beaucoup plus de matériel.

    Le cerveau d'un organisme, bien que critique, peut ne pas être une frontière appropriée pour un modèle cognitif. Pour simuler un cerveau d'abeille, il peut être nécessaire de simuler le corps et l'environnement. La thèse Extended Mind formalise le concept philosophique, et la recherche sur les céphalopodes a démontré des exemples clairs d'un système décentralisé.

    De plus, l'échelle du cerveau humain n'est pas actuellement bien contrainte. Une estimation évalue le cerveau humain à environ 100 milliards de neurones et 100 billions de synapses. Une autre estimation est de 86 milliards de neurones dont 16,3 milliards dans le cortex cérébral et 69 milliards dans le cervelet. Les synapses des cellules gliales sont actuellement non quantifiées mais sont connues pour être extrêmement nombreuses.

    Recherche sur la conscience artificielle

    Bien que le rôle de la conscience dans une IA / AGI forte soit discutable, de nombreux chercheurs d'AGI considèrent que la recherche qui étudie les possibilités de mise en œuvre de la conscience est vitale. Dans un premier temps, Igor Aleksander a soutenu que les principes de création d'une machine consciente existaient déjà mais qu'il faudrait quarante ans pour former une telle machine à comprendre le langage.

    Relation avec une «IA forte»

    En 1980, le philosophe John Searle a inventé le terme IA forte dans le cadre de son argumentation sur la chambre chinoise. Il voulait distinguer deux hypothèses différentes sur l'intelligence artificielle:

    Un système d'intelligence artificielle peut penser et avoir un esprit. (Le mot «esprit» a une signification spécifique pour les philosophes, tel qu'il est utilisé dans «le problème du corps mental» ou «la philosophie de l'esprit».)

    Un système d'intelligence artificielle peut (seulement) agir comme il le pense et a un esprit.

    La première est appelée l'hypothèse de l'IA forte et la seconde est l'hypothèse de l'IA faible parce que la première fait la déclaration la plus forte: elle suppose que quelque chose de spécial est arrivé à la machine qui va au-delà de toutes ses capacités que nous pouvons tester. Searle a qualifié l 'hypothèse d'intelligence artificielle forte de l'intelligence artificielle forte. Cette utilisation est également courante dans la recherche universitaire en IA et les manuels.

    L'hypothèse de l'IA faible équivaut à l'hypothèse selon laquelle l'intelligence générale artificielle est possible. Selon Russell et Norvig, la plupart des chercheurs en IA tiennent l'hypothèse de l'IA faible pour acquise, et ne se soucient pas de l'hypothèse de l'IA forte.

    Contrairement à Searle, Kurzweil utilise le terme «IA forte» pour décrire tout système d'intelligence artificielle qui agit comme s'il avait un esprit, peu importe si un philosophe serait en mesure de déterminer s'il a réellement un esprit ou non.

    Explications possibles de la lenteur des progrès de la recherche sur l'IA

    Depuis le lancement de la recherche sur l'IA en 1956, la croissance de ce domaine s'est ralentie au fil du temps et a bloqué les objectifs de création de machines compétentes avec une action intelligente au niveau humain. Une explication possible de ce retard est que les ordinateurs n'ont pas suffisamment de mémoire ou de puissance de traitement. En outre, le niveau de complexité lié au processus de recherche sur l'IA peut également limiter les progrès de la recherche sur l'IA.

    Alors que la plupart des chercheurs en IA pensent qu'une IA forte peut être réalisée à l'avenir, il y a des individus comme Hubert Dreyfus et Roger Penrose qui nient la possibilité de parvenir à une IA forte. John McCarthy était l'un des divers informaticiens qui pensent que l'IA au niveau humain sera accomplie, mais une date ne peut pas être prédite avec précision.

    Les limitations conceptuelles sont une autre raison possible de la lenteur de la recherche en IA.Les chercheurs en IA peuvent avoir besoin de modifier le cadre conceptuel de leur discipline afin de fournir une base et une contribution plus solides à la recherche d'une IA forte. Comme l'écrivait William Clocksin en 2003: le cadre part de l'observation de Weizenbaum que l'intelligence ne se manifeste que par rapport à des contextes sociaux et culturels spécifiques.

    De plus, les chercheurs en IA ont pu créer des ordinateurs capables d'effectuer des tâches compliquées pour les gens, mais à l'inverse, ils ont eu du mal à développer un ordinateur capable d'exécuter des tâches simples à effectuer par les humains (paradoxe de Moravec). Un problème décrit par David Gelernter est que certaines personnes supposent que la pensée et le raisonnement sont équivalents. Cependant, l'idée de savoir si les pensées et le créateur de ces pensées sont isolées individuellement a intrigué les chercheurs en IA.

    Les problèmes rencontrés dans la recherche sur l'IA au cours des dernières décennies ont encore entravé les progrès de l'IA. Les prédictions ratées qui ont été promises par les chercheurs en IA et le manque de compréhension complète des comportements humains ont contribué à affaiblir l'idée principale de l'IA au niveau humain.Bien que les progrès de la recherche sur l'IA aient apporté à la fois amélioration et déception, la plupart des chercheurs ont établi l'optimisme sur la possibilité d'atteindre l'objectif de l'IA au 21e siècle.

    D'autres raisons possibles ont été proposées pour les longues recherches sur les progrès de l'IA forte. La complexité des problèmes scientifiques et la nécessité de comprendre pleinement le cerveau humain par le biais de la psychologie et de la neurophysiologie ont empêché de nombreux chercheurs d'émuler la fonction du cerveau humain dans un matériel informatique.Beaucoup de chercheurs ont tendance à sous-estimer tout doute lié aux futures prédictions de l'IA, mais sans prendre ces questions au sérieux, les gens peuvent alors ignorer les solutions aux questions problématiques.

    Clocksin dit qu'une limitation conceptuelle qui peut entraver le progrès de la recherche sur l'IA est que les gens peuvent utiliser les mauvaises techniques pour les programmes informatiques et la mise en œuvre de l'équipement. Lorsque les chercheurs en IA ont commencé à viser l'objectif de l'intelligence artificielle, le raisonnement humain était un intérêt principal.Les chercheurs espéraient établir des modèles informatiques de la connaissance humaine par le raisonnement et découvrir comment concevoir un ordinateur avec une tâche cognitive spécifique.

    La pratique de l'abstraction, que les gens ont tendance à redéfinir lorsqu'ils travaillent avec un contexte particulier dans la recherche, fournit aux chercheurs une concentration sur seulement quelques concepts. L'utilisation la plus productive de l'abstraction dans la recherche sur l'IA provient de la planification et de la résolution de problèmes.Bien que l'objectif soit d'augmenter la vitesse d'un calcul, le rôle de l'abstraction a posé des questions sur l'implication des opérateurs d'abstraction.

    Une raison possible de la lenteur de l'IA tient au fait que de nombreux chercheurs en IA reconnaissent que l'heuristique est une section qui contient une rupture importante entre les performances de l'ordinateur et les performances humaines. Les fonctions spécifiques qui sont programmées sur un ordinateur peuvent être en mesure de répondre à de nombreuses exigences qui lui permettent de correspondre à l'intelligence humaine. Ces explications ne sont pas nécessairement garanties d'être les causes fondamentales du retard dans la réalisation d'une IA forte, mais elles sont largement acceptées par de nombreux chercheurs.

    De nombreux chercheurs en IA débattent de l'idée de créer des machines avec des émotions.Il n'y a pas d'émotions dans les modèles typiques d'IA et certains chercheurs disent que la programmation des émotions dans des machines leur permet d'avoir leur propre esprit. L'émotion résume les expériences des humains car elle leur permet de se souvenir de ces expériences. David Gelernter écrit: Aucun ordinateur ne sera créatif s'il ne peut simuler toutes les nuances de l'émotion humaine. Cette préoccupation concernant l'émotion a posé des problèmes aux chercheurs en IA et elle se connecte au concept d'une IA forte à mesure que ses recherches progressent dans le futur.

    La conscience

    Outre l'intelligence, il existe d'autres aspects de l'esprit humain qui sont pertinents pour le concept de l'IA forte et qui jouent un rôle majeur dans la science-fiction et l'éthique de l'intelligence artificielle:

    Conscience: Avoir une expérience et une pensée subjectives.

    Conscience de soi: être conscient de soi en tant qu'individu séparé, en particulier être conscient de ses propres pensées.

    Sensibilité: La capacité de «ressentir» les perceptions ou les émotions de manière subjective.

    Sapience: La capacité de sagesse.

    Ces traits ont une dimension morale, car une machine avec cette forme d'IA forte peut avoir des droits légaux, analogues aux droits des animaux non humains. En outre, Bill Joy, entre autres, soutient qu'une machine avec ces caractéristiques peut être une menace pour la vie ou la dignité humaine. Il reste à voir si l'un de ces traits est nécessaire pour une IA forte. Le rôle de la conscience n'est pas clair et il n'existe actuellement aucun test convenu pour sa présence. Si une machine est construite avec un appareil qui simule les corrélats neuronaux de la conscience, aurait-elle automatiquement la conscience de soi? Il est également possible que certaines de ces propriétés, telles que la sensibilité, émergent naturellement d'une machine entièrement intelligente, ou qu'il devienne naturel d'attribuer ces propriétés aux machines une fois qu'elles commencent à agir de manière clairement intelligente. Par exemple, une action intelligente peut être suffisante pour la sensibilité, plutôt que l'inverse.

    En science-fiction, l'AGI est associée à des traits tels que la conscience, la sensibilité, la sapience et la conscience de soi observés chez les êtres vivants. Cependant, selon le philosophe John Searle, la question est de savoir si l'intelligence générale est suffisante pour la conscience. Une IA forte (telle que définie ci-dessus par Ray Kurzweil) ne doit pas être confondue avec l'hypothèse de l'IA forte de Searle. L'hypothèse de l'IA forte est l'affirmation qu'un ordinateur qui se comporte aussi intelligemment qu'une personne doit aussi nécessairement avoir un esprit et une conscience. AGI se réfère uniquement à la quantité d'intelligence que la machine affiche, avec ou sans esprit.

    Controverses et dangers

    Faisabilité

    Les opinions varient à la fois sur l'arrivée et le moment de l'intelligence générale artificielle. À un extrême, le pionnier de l'IA, Herbert A. Simon, a écrit en 1965: les machines seront capables, dans vingt ans, de faire tout le travail qu'un homme peut faire. Cependant, cette prédiction n'a pas pu se réaliser. Le co-fondateur de Microsoft, Paul Allen, a estimé qu'une telle intelligence est peu probable au 21e siècle car elle nécessiterait des percées imprévisibles et fondamentalement imprévisibles et une compréhension scientifique profonde de la cognition. Dans le Guardian, le roboticien Alan Winfield a affirmé que le fossé entre l'informatique moderne et l'intelligence artificielle au niveau humain est aussi large que le fossé entre le vol spatial actuel et les vols spatiaux plus rapides que la lumière.Les opinions des experts de l'IA sur la faisabilité de la cire AGI et déclin, et peut avoir vu une résurgence dans les années 2010. Quatre sondages menés en 2012 et 2013 ont suggéré que la médiane des experts quant au moment où ils seraient sûrs à 50% qu'AGI arriverait était de 2040 à 2050, selon le sondage, la moyenne étant de 2081. Il est également intéressant de noter que 16,5% des les experts ont répondu «jamais» lorsqu'on leur a posé la même question, mais avec une confiance de 90% à la place. D'autres considérations actuelles sur les progrès de l'AGI peuvent être trouvées ci-dessous Tests pour confirmer l'AGI au niveau humain et les tests de QI AGI.

    Menace potentielle pour l'existence humaine

    La création de l'intelligence générale artificielle peut avoir des répercussions si importantes et si complexes qu'il n'est peut-être pas possible de prévoir ce qui se produira par la suite. Ainsi, l'événement dans l'avenir hypothétique de la réalisation d'une IA forte est appelé la singularité technologique, car théoriquement, on ne peut pas voir au-delà. Mais cela n'a pas empêché les philosophes et les chercheurs de deviner ce que les ordinateurs intelligents ou les robots du futur pourraient faire, y compris former une utopie en étant nos amis ou nous submerger dans une prise de contrôle de l'IA. Cette dernière potentialité est particulièrement inquiétante car elle présente un risque existentiel pour l'humanité.

    Machines à réplication automatique

    Des ordinateurs ou des robots intelligents seraient capables de concevoir et de produire des versions améliorées d'eux-mêmes.Une population croissante de robots intelligents pourrait en théorie surpasser les humains inférieurs sur les marchés du travail, dans les affaires, en science, en politique (en quête de droits de robot) et sur le plan technologique sociologiquement (en agissant comme un seul) et militairement. Même de nos jours, de nombreux emplois ont déjà été occupés par des machines pseudo-intelligentes alimentées par une IA faible.Par exemple, les robots pour la maison, les soins de santé, les hôtels et les restaurants ont automatisé de nombreuses parties de notre vie: les robots virtuels transforment le service client en auto- service, les applications d'IA Big Data sont utilisées pour remplacer les gestionnaires de portefeuille, et les robots sociaux tels que Pepper sont utilisés pour remplacer les salutations humaines à des fins de service client.

    Superintelligence émergente

    Si la recherche dans une IA forte produisait un logiciel suffisamment intelligent, il serait capable de se reprogrammer et de s'améliorer - une caractéristique appelée auto-amélioration récursive. Il serait alors encore mieux de s'améliorer, et continuerait probablement de le faire dans un cycle en augmentation rapide, conduisant à une explosion de l'intelligence et à l'émergence de la superintelligence.Une telle intelligence n'aurait pas les limites de l'intellect humain, et pourrait être en mesure de inventer ou découvrir presque tout.

    Les logiciels hyper-intelligents pourraient ne

    Vous aimez cet aperçu ?
    Page 1 sur 1