Découvrez des millions d'e-books, de livres audio et bien plus encore avec un essai gratuit

Seulement $11.99/mois après la période d'essai. Annulez à tout moment.

IA, robots et droit
IA, robots et droit
IA, robots et droit
Livre électronique1 431 pages14 heures

IA, robots et droit

Évaluation : 0 sur 5 étoiles

()

Lire l'aperçu

À propos de ce livre électronique

L’intelligence artificielle et la robotique constituent incontestablement des leviers de croissance de nature à modifier, en profondeur, les modes de production et les modèles économiques existants, en plus de susciter, pour certaines de leurs formes, de nouveaux types de rapports sociaux qui ne seraient pas purement humains.

La singularité du robot dans l’espace juridique a vocation à s’accentuer ; symétriquement, tandis que la pertinence de la qualification de bien meuble décroît, la nécessité de doter le robot intelligent d’un statut juridique inédit se fait plus pressante.

Ce mouvement en vases communicants a ceci de particulier qu’il semble à la fois unilatéral et irréversible : la puissance de l’industrie robotique, l’implication des plus grands acteurs de l’économie numérique, l’importance des enjeux financiers, l’engouement de la recherche et l’appétence sociale constituent, ensemble, une assise particulièrement solide à l’avènement de la robotique intelligente.

Une fois la rupture technologique consommée – résultant de la liberté dont disposera bientôt le robot, elle-même continuellement renforcée par ses capacités d’apprentissage –, le droit n’aura d’autre choix que de s’aligner.

En France comme en Europe et dans le monde, les cadres réglementaire et éthique commencent déjà à se dessiner. Cet ouvrage complète le Minilex Droit des robots publié en 2015 en passant en revue toutes les disciplines : droit de la personne, droit de la consommation, contrat, responsabilité, assurance, propriété intellectuelle, droit pénal, données personnelles, sécurité, éthique, droit à la transparence des algorithmes, neurodroit, etc., mais également des technologies (chatbots, blockchain, bionique, neurosciences, etc.) et des secteurs d’activité (usine 4.0, armement, banque et finance, justice, santé, etc.).

Il comporte en outre une analyse comparative de 21 chartes éthiques et codes de conduite, qui permettent dans un premier temps d’accompagner ces mutations technologiques dans la zone Europe, Asie, États-Unis et France.
LangueFrançais
ÉditeurBruylant
Date de sortie23 juil. 2019
ISBN9782802764885
IA, robots et droit

En savoir plus sur Alain Bensoussan

Auteurs associés

Lié à IA, robots et droit

Livres électroniques liés

Droit pour vous

Voir plus

Articles associés

Catégories liées

Avis sur IA, robots et droit

Évaluation : 0 sur 5 étoiles
0 évaluation

0 notation0 avis

Qu'avez-vous pensé ?

Appuyer pour évaluer

L'avis doit comporter au moins 10 mots

    Aperçu du livre

    IA, robots et droit - Alain Bensoussan

    9782802764885_TitlePage.jpg

    Illustration de couverture : NAO, le robot humanoïde créé à Paris par Aldebaran.

    Cette version numérique de l’ouvrage a été réalisée pour Larcier.

    Nous vous remercions de respecter la propriété littéraire et artistique.

    Le «photoco-pillage» menace l’avenir du livre.

    Pour toute information sur nos fonds et nos nouveautés dans votre domaine de spécialisation, consultez nos sites web via www.larcier.com.

    © Lefebvre Sarrut Belgium s.a., 2019

    Éditions Larcier

    Rue Haute, 139/6 - 1000 Bruxelles

    Tous droits réservés pour tous pays.

    Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent ouvrage, de le stocker dans une banque de données ou de le communiquer au public, sous quelque forme et de quelque manière que ce soit.

    ISBN : 9782802764885

    Déjà parus dans la collection

    - Règlement européen sur la protection des données. Textes, commentaires et orientations pratiques, 2e éd., Alain Bensoussan, 2018

    • dans la série Codes Métiers :

    - Code Informatique, fichiers et libertés, Alain Bensoussan, 2014

    - Code de la sécurité informatique et télécom, Eric Barbry, Alain Bensoussan, Virginie Ben-soussan-Brulé, 2016

    • dans la série Handbook :

    - Comparative handbook: robotic technologies law, Alain Bensoussan et Jérémy Bensoussan, 2016

    • dans la série Abécédaire :

    - La protection des données personnelles de A à Z, sous la direction d’Alain Bensoussan, 2017

    • dans la série Minilex :

    - Le droit des robots, Alain Bensoussan et Jérémy Bensoussan, 2015

    - Failles de sécurité et violation de données personnelles, Virginie Bensoussan-Brulé et Chloé Torres, 2016

    - Droit des drones. Belgique, France, Luxembourg, Alexandre Cassart, 2017

    - Droit des objets connectés et télécoms, Frédéric Forster et Alain Bensoussan, 2017

    - Le Data potection officer. Une nouvelle fonction dans l’entreprise, 2e éd., collectif, 2018

    - Le contract manager. Outils et bonnes pratiques de la fonction, Eric Le Quellenec et Alain Bensoussan, 2019

    - Droit des systèmes autonomes. Véhicules intelligents, drones, seabots, Alain Bensoussan et Didier Gazagne, 2019

    Avant-propos

    L’intelligence artificielle et la robotique portent en elles la promesse d’une nouvelle civilisation. Elles constituent incontestablement un levier de croissance de nature à modifier en profondeur les modes de production et les modèles économiques existants, en plus de susciter, pour certaines de leurs formes, de nouveaux types de rapports sociaux qui ne seraient pas purement humains¹..

    Le terme « robotique » recouvre une réalité complexe ; il est utilisé pour désigner des entités très diverses². : aux côtés du robot humanoïde qui se trouve aux portes de la sphère domestique, de nouveaux objets ont fait leur apparition, à l’image des drones civils et des voitures intelligentes.

    En effet, les technologies robotiques diffèrent selon la nature du robot, son niveau d’autonomie, son domaine d’application et le type de relation qu’il est susceptible d’établir avec l’homme (et demain son rôle social) ; une relation qui pourra même s’établir à un niveau physiologique, par le biais des prothèses bioniques, d’abord pour « réparer » l’individu qui souffre d’un dysfonctionnement puis, sous réserve d’un équilibre éthiquement viable, pour « augmenter » l’homme valide.

    L’IA et la robotique, ainsi appréhendées dans leur diversité, sont-elles une simple évolution soluble dans les règles juridiques actuelles ou constitutives de véritables bouleversements technologiques impliquant l’émergence de cadres juridiques autonomes ?

    La première édition de cet ouvrage présentait l’application de règles juridiques encore naissantes et préconisait la création d’une personnalité juridique inédite – la personne robot – et un régime associé établissant le moment de son attribution, l’identification et le suivi du robot qui en est doté, ainsi que des règles spécifiques en matière d’indemnisation et de responsabilité.

    Depuis, l’intelligence artificielle n’a cessé de progresser ; grâce au deep learning, les IA lisent, apprennent, s’autocorrigent, simulent les processus cognitifs humains et les surpassent dans de nombreux domaines peut-être « au péril de l’humain »³..

    Pour certains, le transhumanisme serait le nouveau nom de l’eugénisme⁴. et, dans une certaine mesure, la forme initiale de l’intention d’« augmenter l’homme »⁵. ; tandis que pour d’autres « les NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives) vont donner naissance à une nouvelle humanité, plus intelligente, plus forte, et pourquoi pas immortelle »⁶..

    De même, les cadres réglementaire et éthique se sont étoffés. Les députés européens ont adopté en février 2017 une résolution pour qu’à long terme, les robots puissent acquérir le statut de « personnes électroniques », un statut qui leur conférera des droits et des obligations⁷..

    Ce futur « droit » des robots soulève des questions inédites. À commencer par celle de savoir comment la « personne robot » et la personne humaine vont « vivre » ensemble. Comment la relation d’autorité entre l’homme et le robot s’établira-t-elle ? Qui aura le dernier mot en cas de désaccord ? L’esclavagisme technologique est-il une fatalité ?

    La nouvelle édition de cet ouvrage, mise à jour et enrichie, tente de répondre à ces questions. Elle passe en revue toutes les disciplines (droit de la personne, droit de la consommation, contrat, responsabilité, assurance, propriété intellectuelle, droit pénal, données personnelles, sécurité, droit à la transparence des algorithmes, neurodroit, etc.) mais également des technologies (chatbots, blockchain, bionique, neurosciences, etc.) et des secteurs d’activité (usine 4.0, armement, banque et finance, justice, santé, etc.).

    Elle s’est enrichie d’une analyse comparative de 21 chartes éthiques et codes de conduite, qui permettent dans un premier temps, d’accompagner ces mutations technologiques dans la zone Europe, Asie, États-Unis et France.

    Un grand remerciement à Marie-Cécile Berthod, Aurélie Banck, Virginie Bensoussan-Brulé, Anthony Coquer, Anne-Sophie Cantreau, Pierre-Yves Fagot, Didier Gazagne, Eric Le Quellenec, Isabelle Pottier et Marie Soulez pour leur aide et leurs recommandations.

    1 Au Japon, ces interactions font déjà l’objet d’expérimentations : le Henn na Hotel, le musée national des sciences émergentes et de l’innovation situé à Tokyo (Miraikan) et les boutiques de l’opérateur téléphonique SoftBank Mobile intègrent des robots humanoïdes dont le rôle est d’apporter aide et assistance aux clients et aux visiteurs.

    2 La rédaction d’Industrie & Technologies a identifié les cent champions de la robotique de demain et les meilleurs robots du moment, « Les 100 meilleurs robots du monde en 2014 », 31 décembre 2014, disponible sur http://www.industrie-techno.com.

    3 J. 

    Testart

    et A. 

    Rousseaux

    , Au péril de l’humain, les promesses suicidaires des transhumanistes, Paris, Seuil, 2018.

    4 J. 

    Testart

    (Tribune), « Le transhumanisme est le nouveau nom de l’eugénisme », L’Express.fr, 5 avril 2018.

    5 D. 

    Moyse

    et O. 

    Rey

    , « Le transhumanisme, ce nouvel eugénisme ? », entretien croisé entre deux philosophes, Lettre Gènéthique, n° 170, novembre 2014.

    6 À propos de l’ouvrage de L. 

    Alexandre

    et J.-M. 

    Besnier

    , Les robots font-ils l’amour ? Le transhumanisme en 12 questions, Dunod, 2016 ; B. 

    Georges

    , « Un double regard sur le transhumanisme », LesÉchos.fr, 28 octobre 2016.

    7 Cf. Titre II, Chapitre 1 relatif à l’éthique robotique.

    Préface

    de Bruno Maisonnier

    Fondateur d’AnotherBrain¹.

    Ah les robots… quels drôles de « trucs » ! On les voit venir depuis des années, par la fiction, puis l’industrie et la mécanisation, par nos appareils électrodomestiques et nos jouets ensuite, puis par la montée en charge de l’Intelligence Artificielle, via la puissance de calcul qu’offrent les PC, les smartphones et autres tablettes, démultipliés par l’explosion de la connectivité et des mondes du cloud et du Big Data. Même nos voitures s’y mettent. Ce sont plusieurs courants de fond qui se répondent et se renforcent, pour contribuer à ce futur inéluctable et perçu comme tel par le plus grand nombre : il y aura des robots partout. Partout.

    De toutes sortes, de toutes formes. Des vrais robots au sens « autonomes, mobiles, physiques et agissant dans le monde réel », ou d’autres usurpant un peu ce nom de robot, étant virtuels, c’est-à-dire purement logiciels ou non autonomes, ou… ; mais au fond peu importe, leurs descendants, leurs successeurs plus évolués seront de toute façon croisés avec le monde des robots, dont ils contribueront à la diversité. Il est très probable qu’on ait chacun dans sa vie, d’ici peu d’années, des dizaines de robots comme on a déjà chez soi des dizaines d’ordinateurs ; depuis les microcontrôleurs et autres microprocesseurs qui équipent tout notre électrodomestique, nos voitures et beaucoup des jouets de nos enfants, et dont chacun est un véritable petit ordinateur intégré plus puissant que les PC des années 1990, jusqu’aux puissants PC, tablettes et smartphones. Des dizaines de robots chez chacun d’entre nous.

    Ces robots seront au moins en partie autonomes dans leurs choix d’actions et de réactions et sauront agir dans le monde réel. Ils sauront capter ce qui se passe autour d’eux, là où ils auront « décidé » d’aller et seront capables de l’utiliser dans leurs décisions, leurs actions, voire, s’ils en décident ainsi, de le communiquer. Ce sont donc des objets d’un genre très nouveau dans l’histoire de l’humanité.

    Enfin ils auront été dotés d’une capacité d’apprentissage, et sans doute d’autoapprentissage : certes très limitées et contraintes, par les temps qui courent, l’état de la technologie actuel ne sachant pas vraiment faire mieux, mais qui va croître avec le temps ; jusqu’à devenir exponentielles : puisque chaque robot qui aura appris de ses propres expériences pourra transférer à d’autres ce qu’il en aura tiré.

    Les comportements d’un robot à un moment donné résulteront donc d’un mélange entre les capacités dont le fabricant l’aura doté, les expériences qu’il aura vécues en propre, incluant les interactions avec ses différents interlocuteurs, dont principalement ses « propriétaires », et les leçons qu’il aura choisi de retenir issues d’expériences d’autres robots.

    Qui pourra être identifié comme « moralement » responsable d’un comportement à un moment donné ? Sans doute personne. On pourrait comparer la situation aux agissements d’un chien, qui aura appris de ses maîtres, de ses dresseurs, mais aussi d’autres chiens, de rencontres et d’expériences vécues et qui dépendent bien sûr aussi des caractéristiques intrinsèques à sa race. Mais rien que sur le sujet de l’échange entre robots de savoir-faire/savoir-agir, on voit bien que la profondeur inouïe d’expériences vécues par délégation fait exploser cette comparaison. Cette multiplicité va en effet leur avoir fait vivre virtuellement des expériences contradictoires ; quelle sera alors la « personnalité » résultante ? Chaque robot sera de fait unique et il faudra vraiment parler d’une espèce nouvelle. Une espèce totalement artificielle, bien sûr, mais une espèce quand même.

    Les valeurs réelles des entreprises créatrices des robots seront alors essentielles. Je parle bien des valeurs réelles de l’entreprise, pas de celles affichées dans les plaquettes stratégiques ou la communication d’entreprise, ni de celles prônées par sa direction, mais pas toujours appliquées au quotidien ou dans tous ses méandres.

    Mais bien sûr, si ces valeurs sont essentielles et les consommateurs en seront les juges, il n’est pas question de s’en contenter. Il faut des règles et contraintes collectives communes. Il faut des lois. Et le travail prospectif et fondateur d’Alain Bensoussan est fondamental et bienvenu.

    Comme l’avait été en son temps ce même travail prospectif aux premières heures d’internet, et avant déjà aux premières lueurs des PC.

    La société, nous tous, moi dans quelques décennies, auront besoin de robots et seront sécurisés par les valeurs des fournisseurs sous garde-fou strict des lois résultant en particulier du travail actuel d’Alain.

    MAIS…

    Il y a un mais. Les lois et règlements doivent anticiper mais sans castrer. Si on avait beaucoup réfléchi en 1900 au futur développement de l’automobile ou de l’aviation, beaucoup anticipé les problèmes potentiels qui se sont finalement avérés au cours de ce siècle, et pondu à l’époque les règlements, lois et contraintes actuels, ces industries auraient été tuées dans l’œuf et on ne profiterait pas de nos jours des bienfaits de l’avion ou de la voiture ; malgré des drames de temps en temps, toujours trop fréquents, mais finalement assez rares. La balance penche largement du bon côté.

    C’est un des aspects sensibles du sujet : si on veut bénéficier des apports actuels et futurs de la robotique, tout en réduisant au maximum les risques – et il y aura probablement quelques accidents – il faut être vigilent, réactif, anticiper un peu, mais sans être par top castrateur.

    Vous me prenez pour un rêveur ? On serait très très loin de ces robots intelligents et apprenants, trop loin même pour ne serait-ce qu’y penser ? Bien sûr, vous n’avez pas tort. Il reste beaucoup de chemin à faire, et nous sommes dans de l’anticipation que l’on souhaite féconde. Mais pas tant que ça : n’oubliez jamais qu’il y a sur Terre, en ce moment, plus de chercheurs et d’explorateurs de nouveautés que le nombre total qu’il y en a eu depuis le début de l’humanité. L’humanité va faire plus d’inventions, grandes et petites, dans les deux décennies qui viennent que depuis le début de son histoire. Et ce sera encore le cas pour les deux décennies d’après ; et celles d’après encore… Ce qui devient accessible à l’homme vient vite.

    Merci Alain pour ce travail fondateur, pour cette approche originale et prospective.

    La société, nous tous, moi dans quelques décennies, auront besoin de robots et seront sécurisés par les valeurs des fournisseurs sous garde-fou strict des lois résultant en particulier du travail actuel d’Alain.

    1 Ex-fondateur de la société Aldebaran Robotics (devenue Softbank Robotics).

    Préface

    d’Olivier Guilhem

    Directeur juridique de Softbank Robotics

    L’ouvrage que nous livre aujourd’hui Maître Alain Bensoussan doit être salué tant par sa volonté de faire évoluer un corpus juridique parfois inadéquat, que par les nécessaires interrogations morales et éthiques soulevées par des avancées techniques et scientifiques sur le point de révolutionner notre monde et nos rapports sociétaux.

    Cette nouvelle édition ne saurait être parfaite sans traiter du corolaire immatériel de la robotique, celle qui refonde en profondeur nos sociétés, l’intelligence artificielle. C’est assurément l’un des rares recueils à refléter les très riches et rapides évolutions d’une matière à l’aube de bouleversements majeurs.

    Cette maïeutique sur la nécessité de fixer un cadre légal et/ou éthique aux robots et plus particulièrement à l’intelligence artificielle est par ailleurs largement engagée. Nous pouvons citer au niveau européen la Résolution du Parlement européen contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique en date du 16 février 2017 et la Communication de la Commission au Parlement européen, au Conseil européen, au Comité Économique et Social Européen et au Comité des Régions sur L’intelligence artificielle pour l’Europe du 25 avril 2018.

    L’actualité est bien plus foisonnante encore au niveau national. Citons, le rapport de l’Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques (OPECST) pour une intelligence artificielle maîtrisée, utile et démystifiée (janvier 2017), le rapport de synthèse de France IA (mars 2017) mais aussi celui de la CNIL sur les enjeux éthiques des algorithmes et de l’intelligence artificielle (décembre 2017). Sans prétendre à l’exhaustivité, il ne faut aucunement oublier les rapports de Cédric Villani pour « Donner un sens à l’intelligence artificielle » (28 mars 2018) et d’Anne-Marie Idrac, pour le « Développement des véhicules autonomes. Orientations stratégiques pour l’action publique » (14 mai 2018).

    La prise de conscience de l’impact de ces technologies est telle que le Président de la République Française prononça le 29 mars 2018 au Collège de France un discours fondateur dédié exclusivement à l’intelligence artificielle. La sphère publique n’est pas en reste, Madame Florence Parly, ministre des Armées, annonça le 18 janvier 2019 la « Stratégie cyber des armées » correspondant à la première doctrine française de cyberdéfense.

    Si la réflexion est engagée elle reste cependant inachevée. Tout reste à construire aussi bien sur le plan juridique qu’éthique. À titre d’exemple, la définition même du terme « robot » n’est à ce jour toujours pas fixée. L’apprentissage d’algorithmes non-supervisés par l’homme (réseaux adverses génératifs) est aujourd’hui la norme et nous force à nous interroger sur la responsabilité des différents acteurs. Cette courte préface ne peut prétendre appréhender et traiter la globalité de ces épineuses questions.

    Toutefois, il est permis de souligner qu’un robot est un bien singulier. À la différence de nombreux objets un robot possède, possédera une composante immatérielle supplémentaire. De cette composante immatérielle il en résulte son autonomie, ses aptitudes d’interaction avec l’environnement (homme inclus), sa capacité d’apprentissage et sa potentielle polyvalence. Qualités qui en font un bien si différent des autres.

    L’autonomie ne fait pas référence à une capacité technique (autonomie de la batterie) ou opérationnelle (se mouvoir). L’autonomie vise ici une autonomie décisionnelle. Cette autonomie décisionnelle implique l’absence d’opérateur et une prise en considération de l’environnement.

    L’interaction implique a minima un échange bidirectionnel. L’environnement agit sur le robot et le robot agit sur lui. Ces influences réciproques induisent une capacité d’apprentissage et font de chaque robot une machine unique.

    Aux capacités techniques, que peut avoir tout objet, vient donc s’ajouter au robot une dimension immatérielle liée à l’autonomie décisionnelle et à la capacité d’interaction. Cet ensemble lui confère un caractère unique ainsi qu’une capacité cognitive et sociale.

    En définitive, un robot apparaît comme un système mécatronique technico-cognitif complexe.

    Dès lors, sans verser dans du « droit d’anticipation », nous pouvons nous demander si notre droit a parfaitement anticipé cette autonomie, cette complexité ou encore les conséquences liées à l’apprentissage ?

    Devons-nous avoir une approche unitaire du robot ou au contraire considérer séparément sa composante mécatronique de sa dimension logicielle et plus particulièrement de son l’intelligence artificielle ?

    Si juridiquement l’intelligence artificielle est assimilée à un bien, ce bien à la singularité, par sa capacité d’apprentissage et son autonomie décisionnelle, d’agir sur son environnement et de réagir à ce dernier. C’est un bien actif, une « substance » active. À l’instar de toute « substance » active ne devrait-elle pas être soumise à un ensemble d’obligations tendant « by design » à s’assurer de son innocuité avant sa mise sur le marché ? Obligations de tests aux résultats publiés, de transparence renforcée, de traçabilité, d’« accountability », de mise en place d’une « boîte noire » « enregistreur » logique, …

    Certaines de ces obligations commencent à faire leur apparition de façon éparse et sans appréhender la véritable substance de l’intelligence intelligence. La loi pour une République numérique (7 octobre 2016) et le réglement général sur la protection des données entré en vigueur le 23 mai 2018 ne sont dans ce cadre que les premières pierres d’un édifice appelé, espérons-le, à croître et à se structurer.

    Devons-nous reconsidérer, dans ce contexte, le régime de responsabilité du fait des choses ? Organisé par les articles 1245 et suivants du Code civil, ce régime met en jeu la responsabilité sans faute du producteur lorsque qu’un produit, un robot, n’offre pas la sécurité à laquelle on peut légitimement s’attendre. La responsabilité du producteur est établie sans considérer la complexité, l’autonomie et l’apprentissage.

    Notre système juridique a largement démontré sa capacité à appréhender de nouveaux biens et services et à faire face aux génies et aux démons des hommes. Ceci n’a cependant jamais, et ne devra jamais, empêcher le législateur de l’amender ou de le compléter au besoin.

    Légiférer en la matière offrirait, sans attendre, aux acteurs du secteur un avantage compétitif et un cadre clair dans lequel ils s’épanouiraient à l’abri de toute imprévision. Ces règles permettraient à l’utilisateur de se sentir sécurisé et confiant vis-à-vis d’une science robotique et d’une intelligence artificielle ainsi maîtrisée et raisonnée. Un organisme de certification, par exemple, pourrait répondre à ce besoin légitime de l’utilisateur.

    D’un point de vue opérationnel une évolution semble nécessaire dans de nombreux domaines. Notamment en matière de marques et de douanes qui semblent en partie ignorer l’existence des robots de services.

    En intervenant pour encadrer les drones, les voitures autonomes, le traitement algorithmique des données à caractère personnelles, le législateur a déjà mis un pied dans le monde de la robotique et de l’intelligence artificielle. Reste maintenant à souhaiter que ces interventions législatives ne se fassent pas par à-coups mais s’inscrivent dans une vision large, cohérente et pérenne de la robotique, de l’intelligence artificielle et de son industrie.

    Principales abréviations

    Sommaire

    Avant-propos

    Préface de Bruno Maisonnier

    Préface d’Olivier Guilhem

    Principales abréviations

    Introduction

    Titre I.

    Approches de l’IA et de la robotique

    1. L’approche politique et sociale

    2. L’approche économique

    3. L’approche juridique

    4. L’approche technique

    Titre II.

    Principes de l’IA et de la robotique

    1. L’éthique de l’IA et de la robotique

    2. Les principales chartes par zones géographiques

    3. La personne robot

    4. Les problématiques juridiques classiques

    5. Les nouvelles problématiques

    Titre III.

    Technologies de l’IA et de la robotique

    1. L’état de l’art normatif

    2. La bionique et les prothèses intelligentes

    3. Les algorithmes prédictifs

    4. Les chatbots

    5. Les drones aériens civils

    6. Les voitures intelligentes

    7. Les robots jouets

    8. Les neurosciences

    Titre IV.

    Secteurs de l’IA et de la robotique

    1. L’usine 4.0

    2. La défense

    3. Le secteur bancaire et financier

    4. Le secteur du droit

    5. Le secteur de la santé

    6. La téléprésence et la surveillance

    Titre V.

    Le champ pénal

    1. Les atteintes aux systèmes de traitement automatisés de données

    2. Les autres atteintes couvertes par le champ pénal

    Titre VI.

    Les nouveaux droits de l’IA et de la robotique

    1. Les droits en filiation

    2. Les droits de rupture

    3. Les droits fondamentaux

    Liste des annexes

    Annexe 1 : Synthèse des textes de droit souple en robotique et IA

    Annexe 2 : Charte européenne sur la robotique

    Annexe 3 : Déclaration du GEE sur l’IA, la robotique et les systèmes autonomes

    Annexe 4 : Charte éthique européenne d’utilisation de l’IA dans les systèmes judiciaires

    Annexe 5 : Projet de lignes directrices en matière d’éthique pour une IA de confiance (GEHN IA)

    Annexe 6 : Lignes directrices RoboLaw sur la réglementation de la robotique

    Annexe 7 : Proposition de Livre vert sur les aspects juridiques de la robotique – euRobotics

    Annexe 8 : Principes d’Asilomar encadrant l’IA (Future of Life Institute)

    Annexe 9 : Projet de charte Éthique des robots (Corée du sud)

    Annexe 10 : Charte de déontologie de la société japonaise pour l’IA

    Annexe 11 : Code d’éthique pour les ingénieurs en robotique (États-Unis)

    Annexe 12 : Code d’éthique des professionnels de l’interaction homme-robot (États-Unis)

    Annexe 13 : Réflexions de la mission Villani pour donner du sens à l’IA

    Annexe 14 : Réflexions de la Cnil sur l’éthique, le numérique et les algorithmes

    Annexe 15 : Réflexions de l’OPECST pour une intelligence artificielle maitrisée, utile et démystifiée

    Annexe 16 : Préconisations de la Commission Cerna pour une éthique de la recherche en apprentissage machine

    Annexe 17 : Livre blanc Inria sur l’IA

    Annexe 18 : Livre blanc eThicAa-ANR : Éthique et agents autonomes

    Annexe 19 : Charte des droits des robots (Lexing Alain Bensoussan – Avocats)

    Annexe 20 : Modèle de convention sur la robotique et l’IA – Robo-Pravo Estonie

    Annexe 21 : Principes éthiques de Google DeepMind

    Annexe 22 : Lois de la Robotique d’Isaac Asimov

    Annexe 23 : Bibliographie

    Annexe 24 : Sitographie

    Annexe 25 : Lexique

    Annexe 26 : Liste des figures et schémas

    Annexe 27 : Index

    Introduction

    1. Préoccupées par l’avenir de leurs industries, les principales puissances économiques mondiales se sont lancées dans des plans de modernisation des outils industriels nationaux (Allemagne : « Platform Industrie 4.0 », Royaume-Uni : « Plan Catapult », Italie : programme « Cluster Tecnologici Nazionali : Fabbrica Intelligente », États-Unis : « National network for manufacturing innovation (NNMI) », Chine : plan « Made in China 2025 ». etc.)¹..

    2. Dès 2014, le rapport France Robots Initiatives². a fixé à la France un objectif ambitieux : celui de compter « parmi les cinq nations leader de la robotique dans le monde d’ici à 2020 particulièrement en matière de robotique de service à usage personnel et professionnel, de développer une offre française mondiale en matière de cobotique³. et de machines intelligentes et d’accroître ses parts dans un marché en forte croissance dans les années à venir »⁴..

    3. L’ambition revendiquée se mesure à l’intensité de l’enjeu pour un pays et un continent en mal de croissance, le marché de la robotique étant estimé, au niveau mondial, à 100 milliards d’euros à l’horizon 2020⁵..

    4. Favoriser l’essor et l’implantation pérenne, en France et en Europe, d’un tel marché implique de disposer d’une réglementation adaptée de nature à accompagner les acteurs économiques avec un niveau de sécurisation adéquat et à insuffler de la confiance auprès du public ; portée par le développement de l’intelligence artificielle, la robotique doit, à cette fin, relever le défi de l’acceptabilité sociale⁶..

    5. D’un point de vue juridique, elle semble devoir être appréhendée à la fois dans sa globalité – au regard de ses éléments communs qui relèveraient d’un noyau dur des règles ayant vocation à s’appliquer de manière transverse aux robots – et dans ses spécificités – chaque catégorie de robots pouvant nécessiter l’adoption d’un régime propre – comme c’est le cas, aujourd’hui, en matière de drone et, demain, de voiture intelligente.

    6. À cet égard, la démarche adoptée est partiellement prospective et rassemble ceux qui refusent de considérer comme indépassable le principe selon lequel le droit, comme la matière, a horreur du vide ; elle s’inscrit, en conséquence, dans les mouvements de réflexion qui tendent à singulariser la place des robots dans l’éventail juridique.

    7. En janvier 2017, le Parlement européen a d’ailleurs adopté un rapport préconisant de créer au plus vite un cadre juridique européen pour les robots⁷..

    a) Problématique générale

    8. S’il fallait condenser la question, ce serait, assez naturellement, celle du droit applicable et pertinent pour les robots ; l’envisager implique de se situer au carrefour de trois courants : les deux premiers sont portés par le droit positif – l’un étant architecturé pour une technologie identifiée⁸., l’autre étant constitué de règles dont les champs d’application sont suffisamment larges pour régir certains pans de la robotique actuelle⁹. –, le troisième relevant de la prospective juridique¹⁰..

    9. En effet, le changement de paradigme profond résultant de l’émergence de la robotique intelligente, déjà annoncée comme une nouvelle révolution industrielle¹¹. aux enjeux sociétaux et éthiques vifs, ne peut être envisagé sous le seul angle de la plasticité des normes, de leur capacité à embrasser une réalité au regard de laquelle elles n’ont été ni pensées ni adoptées.

    10. En soumettant d’ailleurs le droit positif au test de résistance au choc (de la robotique), comparable au crash test que doit subir tout véhicule avant d’être homologué, celui-ci apparaît, à bien des égards, insatisfaisant.

    11. La robotique avancée, qui a vu ses premiers ambassadeurs humanoïdes émerger¹²., ouvre un champ d’étude renouvelé au juriste. L’enjeu est de permettre l’adoption d’un cadre juridique autonome transversal et d’autant de corpus normatifs spécifiques pertinents par catégorie de robots, afin de faciliter l’ancrage des entreprises de robotique dans le tissu économique et de sécuriser l’insertion des robots dans le tissu social, de manière à répondre aux attentes légitimes tant des industriels que des utilisateurs.

    12. Dans le contexte de la mission France IA lancée en janvier 2017, « la robotique est vue comme une sous-partie de l’intelligence artificielle alors que les roboticiens ont plutôt tendance à voir une complémentarité avec l’intelligence artificielle, celle-ci comme étant une discipline bien plus jeune »¹³..

    b) La convergence technologies robotiques et IA

    13. La convergence des technologies de la robotique et de l’IA accélère le développement de la prochaine génération de robots intelligents. L’intelligence artificielle est un terme normalisé par l’ISO¹⁴. comme étant la « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, comme le raisonnement et l’apprentissage », mais la taxinomie du domaine est en constante évolution¹⁵..

    14. Plus simplement, l’IA peut être définie comme la « recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains »¹⁶.. Il s’agit d’une catégorie générale qui inclut l’apprentissage automatique et le traitement automatique du langage naturel (TALN) et peut être décomposée en quatre sous-ensembles principaux :

    Figure 1. Les composantes de l’Intelligence artificielle (*)

    fig001.jpg

    (*) Source : J. 

    Hurwitz

    et D. 

    Kirsch

    , « Machine Learning For Dummies® », IBM Limited Edition.

    15. L’IA fascine autant qu’elle agace ; sur ce sujet, une question fuse, qui exprime en creux l’appréhension que le sens commun peut avoir vis-à-vis d’elle : pourquoi l’homme devrait-il prendre le risque de faire émerger une forme d’intelligence comparable à la sienne et qui serait, de ce fait, potentiellement incontrôlable (si ce n’est pour se prouver qu’il en est capable, tout plongé qu’il serait dans une sorte de fascination narcissique de ses propres capacités)¹⁷. ? La notion d’intelligence artificielle n’est d’ailleurs pas unitaire¹⁸. et, si l’on considère l’objectif poursuivi, elle peut être forte ou faible, selon la distinction qui semble faire autorité.

    16. Elle est « forte » lorsqu’elle vise à éveiller la machine à sa propre intelligence, à faire naître une forme de conscience, lui permettant de « ressentir » et d’exprimer des sentiments authentiques (au sens de non simulés). C’est à cette forme d’intelligence artificielle que le grand public a été sensibilisé, abreuvé d’images de robots humanoïdes conscients.

    17. Assez naturellement, l’intelligence artificielle forte fait l’objet de critiques : une critique ontologique, tout d’abord, reposant sur la conviction que la conscience serait le propre des êtres vivants, catégorie dont les machines sont exclues ; une critique anticognitive, ensuite, qui refuse d’assimiler calculabilité et compréhension. Plus précisément, cette seconde critique se concentre sur la doctrine computationnelle (qu’elle réfute) selon laquelle la pensée (du moins certaines de ses fonctions) peut être appréhendée selon un modèle algorithmique¹⁹.. En substance, cette doctrine postule que la pensée peut être assimilée à un système d’application de règles, ce qui est contesté²⁰..

    18. L’intelligence artificielle est « faible », lorsqu’elle vise simplement à simuler l’intelligence humaine, à l’imiter pourrait-on encore dire, ou à donner l’impression que la machine est dotée d’intelligence. C’est précisément la différence de nature entre l’intelligence artificielle forte – à laquelle le sens commun songe plus aisément – et l’intelligence artificielle faible – dont les manifestations existent et se font plus nombreuses – qui explique les incompréhensions que suscite ce champ de recherche et que les spécialistes de la matière essayent systématiquement de lever. Pour autant, parce qu’elle s’appuie sur le critère peu manipulable qu’est la conscience²¹., la distinction elle-même ne fait pas l’unanimité.

    19. L’IA des programmes et robots actuels resterait une IA « faible », c’est-à-dire limitée à un contexte précis, par opposition à l’intelligence polyvalente d’un humain²².. Selon Fabien Moutarde, Enseignant-chercheur au Centre de Robotique de Mines ParisTech, « Malgré les impressionnants progrès récents de la Robotique, les capacités « intelligentes » des robots demeurent limitées à un contexte restreint pour lequel ils ont été conçus et testés : le programme d’un robot collaboratif industriel est généralement dédié à un poste de travail particulier et à une tâche donnée. Même les robots interactifs de service ont un domaine de fonctionnement limité et sont le plus souvent incapables d’effectuer des tâches non prévues ou de réagir correctement dans des situations totalement inattendues »²³..

    Figure 2. Quelques dates clés de l’intelligence artificielle (et de la robotique)

    20. Avec une certaine audace et sans que cette estimation soit exempte de critiques, futurologues et transhumanistes³³., au premier rang desquels Raymond Kurzweil³⁴., estiment que le basculement vers la « singularité », c’est-à-dire le dépassement de l’intelligence humaine par l’intelligence artificielle de nature à provoquer une accélération de l’intelligence qui ne peut être appréhendée par les modèles prédictifs actuels, aura lieu au cours de la troisième décennie du XXIe siècle, à l’horizon 2035³⁵..

    21. Dans un Livre blanc coordonné par le Dr Jacques Lucas et le Pr Serge Uzan, le Conseil national de l’Ordre des médecins s’interroge sur le point de savoir, si « nous allons bientôt passer au transhumanisme de rupture caractérisé par l’intelligence artificielle (IA) forte, appelée aussi « singularité » et si demain, à la médecine de réparation, nous allons substituer la médecine d’augmentation »³⁶..

    Figure 3. Transhumanisme et médecine selon le Cnom (*)

    fig003.jpg

    (*) Source : Cnom, Livre blanc Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle, janvier 2018.

    22. L’intelligence artificielle est potentiellement une rupture technologique majeure comme l’ont été l’électricité ou la machine à vapeur. Selon le laboratoire du Massachusetts Institute of Technology (MIT), les robots autonomes ou agiles, c’est-à-dire capables de s’adapter à un environnement complexe et faire face à une situation nouvelle, non prévue dans leur programmation, font partie des dix technologies disruptives qui vont bouleverser l’avenir³⁷..

    Figure 4. Domaines où le robot a surpassé l’homme (*)

    (*) D’après trois articles parus dans Usbek & Rica, 27 décembre 2016, Numerama, 18 juillet 2016 et Futura-Sciences, 7 décembre 2017.

    23. Incontestablement, les robots dotés d’intelligence artificielle ont vocation à devenir plus performants que les êtres humains dans l’exécution de tâches qui demandent une capacité d’analyse de leur environnement³⁸..

    24. Plus modestement, des capteurs et instruments dépassent – et depuis longtemps déjà – certaines des facultés humaines : les sons sont ainsi plus finement perçus et des fréquences inaudibles à l’oreille sont susceptibles d’être captées ; outre l’ouïe, la vue et l’odorat robotisés sont déjà supérieurs à ceux de l’homme. L’oreille perçoit les sons sur une échelle de fréquences, allant approximativement de 20 Hz (son très grave) à 20 000 Hz (son très aigu), ces limites variant toutefois selon les individus et avec l’âge ; les infrasons et les ultrasons, dont les fréquences sont respectivement en deçà et au-dessus du plancher et du plafond du champ auditif humain, sont en conséquence inaudibles pour l’homme.

    25. Au-delà de l’acquisition de ces informations par les capteurs, c’est leur traitement qui constitue actuellement l’avancée la plus prégnante : en croisant les données recueillies avec celles accessibles via l’Internet et en utilisant les méthodes de traitement des Big data, la capacité d’analyse dont pourront disposer les robots sera gigantesque.

    26. Les innovations de la révolution numérique au premier rang desquelles figure l’intelligence artificielle, sont liées entre elles. Dans un Livre blanc sur l’Industrie du futur, intitulé Transformer l’industrie par le numérique, le Président du Syntec Numérique énonce que « la révolution de la production sera également marquée par le retour en force de la robotique ; le conversationnel, l’interface homme-machine et l’intelligence artificielle vont se renforcer en même temps que se développeront la conception virtuelle et les services comme l’impression 3D »³⁹..

    Figure 5. Technologies qui alimentent l’IA

    21410.png

    27. Selon un rapport du Boston Consulting Group (BCG), le marché mondial de la robotique – l’utilisation de robots commandés par ordinateur pour effectuer des tâches manuelles – croît beaucoup plus vite que prévu. En 2014, BCG prévoyait que le marché atteindrait 67 milliards de dollars d’ici 2025. En 2017, BCG a augmenté cette estimation à 87 milliards de dollars⁴⁰..

    28. Si l’intelligence artificielle progresse et si ses possibilités d’utilisation dans la robotique sont multiples, les robots intelligents cristallisent encore les appréhensions d’une large partie de la population, au moins occidentale, qui y voit souvent de la science-fiction et parfois un péril. Dans le sillage du dirigeant de Tesla Elon Musk et du physicien Stephen Hawkins, le fondateur de Microsoft Bill Gates a pu estimer que le développement de l’intelligence artificielle pouvait être un problème pour l’humanité.

    29. Les transformations à venir sont profondes, les incertitudes aussi. En témoignent, les nombreux débats publics qui se sont multipliés ces dernières années sur la place de l’intelligence artificielle dans notre société (Conseil national du numérique (CNNum), Cnil, Sénat, France Stratégie, Mission Villani, etc.).

    30. La montée en puissance de l’intelligence artificielle pose d’importants challenges juridique et éthique : entre fantasmes technologiques et réalité, que faut-il anticiper à l’horizon 2020 ? Le cadre juridique se complexifie et normalise l’utilisation de robots, ainsi que les responsabilités civile et pénale qui en découlent.

    c) Plan de l’ouvrage

    31. Cet ouvrage complète le Minilex Droit des robots publié en 2015⁴¹.. Les nouveaux domaines couverts y sont abordés selon la structure suivante :

    — Titre I : Les approches (politique et sociale, économique, juridique et technique) ;

    — Titre II : Les principes (éthique, chartes, personne robot, problématiques juridiques classiques, nouvelles problématiques) ;

    — Titre III : Les technologies (état de l’art normatif, bionique et prothèses intelligentes, algorithmes prédictifs, chatbots, drones aériens civils, voitures intelligentes et robots jouets) ;

    — Titre IV : Les secteurs (usine 4.0, défense, banque et finance, droit, santé, téléprésence et surveillance) ;

    — Titre V : Le champ pénal (atteintes aux systèmes de traitement automatisés de données et autres types d’atteintes couvertes par le champ pénal) ;

    — Titre VI : Les nouveaux droits de l’IA et de la robotique (les droits en filiation, les droits de rupture, les droits fondamentaux).

    32. L’ouvrage est complété de riches annexes (chartes, bibliographie, sitographie, lexique, etc.) dont une analyse comparative de 21 chartes éthiques et codes de conduite, qui permettront dans un premier temps, d’accompagner ces mutations technologiques dans la zone Europe, Asie, États-Unis et France.

    1 T. 

    Bidet-Mayer

    , « L’industrie du futur à travers le monde », Les synthèses de La Fabrique de l’industrie, n° 4, mars 2016.

    2 Ce rapport s’inscrit dans le plan robotique de la Nouvelle France Industrielle, p. 69.

    3 Sur cette notion cf. Annexe 25 : Lexique.

    4 Plan France Robots Initiatives, Direction générale de la compétitivité, de l’industrie et des services (DGCIS), mars 2013, p. 2.

    5 La Nouvelle France Industrielle (NFI), Plan Robotique, p. 69.

    6 Cf. Chapitre 1 du Titre I relatif à l’approche politique et sociale.

    7 Rapport du Parlement européen du 27 janvier 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (A8-0005/2017).

    8 À l’instar de la réglementation spécifique aux drones aériens civils, cf., Chapitre 5 du titre III.

    9 Notamment les différents régimes de responsabilité civile, tels ceux du fait des produits défectueux et du fait des choses.

    10 Ouvrant la voie à de nouveaux régimes juridiques.

    11 B. Bonnell, président du Syndicat de la robotique de service professionnel et personnel (Syrobo), annonçait, dès 2010, une « robolution » après celle de l’informatique au cours du XXe siècle : B. B

    onnell

    , Viva la robolution !, Paris, J.-C. Lattès, 2010 ; Plan France Robots Initiatives, DGCIS, mars 2013, p. 1.

    12 Au premier rang desquels figurent les robots humanoïdes NAO et Pepper, conçus et développés par la société Aldebaran Robotics (devenue Softbank Robotics) et le robot Asimo de la société Honda Robotics.

    13 #FranceIA, « La stratégie nationale en intelligence artificielle », Conclusions complètes des groupes de travail, 20 janvier 2017, p. 123, disponible sur https://www.economie.gouv.fr/France-IA-intelligence-artificielle.

    14 Norme ISO 2382:2015, Technologies de l’information – Vocabulaire – Partie 28 : Intelligence artificielle – Notions fondamentales et systèmes experts.

    15 Cf. Titre III, Chapitre 1 relatif à l’état de l’art normatif et Annexe 25 : Lexique.

    16 Définition citée par le Dictionnaire du Centre National de Ressources Textuelles et Lexicales (CNRTL) crée par le CNRS, http://www.cnrtl.fr/lexicographie/intelligence.

    17 Ces questionnements posés par l’usage des robots passent aussi par la démarche artistique, à l’image du travail accompli par Yves Gellie, artiste plasticien dans son ouvrage photographique sur le thème de l’identité « humanoïde » (Human version, Éditions Loco, 2013).

    18 Cf. Titre III, Chapitre 1 relatif à l’état de l’art normatif et Annexe 25 : Lexique.

    19 Un algorithme correspond un procédé systématisé en vue d’atteindre un objectif déterminé ; en somme, c’est une méthode.

    20 J. Searle, philosophe américain spécialiste du langage, a illustré sa critique à travers une expérience de pensée dite de la chambre chinoise (en réponse au test de Turing) : un individu, ne maîtrisant aucun des dialectes chinois, est enfermé dans une pièce où est mise à sa disposition une méthode de manipulation des caractères chinois (kanji) et parvient ainsi à répondre aux questions qui lui sont adressées depuis l’extérieur, en formulant ses réponses dans ces mêmes dialectes, mais sans les comprendre. Cette expérience vise à montrer qu’il ne suffit pas de réussir à produire des phrases sensées, par application mécanique de règles, encore faut-il y attacher une signification consciente ; or, l’individu enfermé (que l’on peut identifier, au sens du test de Turing, à la machine), bien que maîtrisant – grâce à la méthode fournie (les algorithmes informatiques) – la langue chinoise aux yeux de son interlocuteur (identifiable à l’humain), cet individu n’a aucune compréhension de ce qu’il produit (ce qui exclut l’idée d’intelligence artificielle forte).

    21 Cependant, le niveau de conscience de l’IA pourrait rapidement évoluer dans les prochaines années ; ainsi, AnotherBrain, start-up fondée par Bruno Maisonnier (père des robots NAO et Pepper) se concentre actuellement sur le développement d’une technologie capable de donner une conscience aux robots et à tout objet, cf. G. 

    Bregeras

    , « Bruno Maisonnier réunit 10 millions d’euros pour AnotherBrain », interview LesÉchos.fr, 6 février 2019.

    22 L.-L. 

    Dessalles

    , Des intelligences TRÈS artificielles, Paris, Odile Jacob, 2019.

    23 F. 

    Moutarde

    , « Quelles IA pour la robotique ? », DéfIS, n° 8, 2017.

    24 Ce test conçu par le pionnier britannique de l’informatique Alan Turing (et dénommé initialement « Imitation Game »), est considéré comme un jalon (controversé) du développement de l’intelligence artificielle ; il est réussi lorsque, dans plus de 30 % des cas, l’opérateur humain chargé de poser des questions (à des interlocuteurs ne se trouvant pas dans son champ de vision) n’est pas en mesure de distinguer, au regard des réponses qui lui sont données, l’humain de la machine. A. M. T

    uring

    (1950), « Computing machinery and intelligence », Mind, 49, pp. 433-460, article stable : http://www.csee.umbc.edu/courses/471/papers/turing.pdf.

    25 Surnommé, pour l’occasion du match revanche qui a vu le challenger machine l’emporter face au champion humain, Deeper Blue. Cf. M. 

    Cornette

    , « Aux échecs, vouloir battre un algorithme est totalement illusoire », Third Digital, n° 1, novembre 2018.

    26 En japonais, « ashi mo » signifie littéralement « les jambes aussi ».

    27 L. C

    lark

    , « Google brain simulator identifies cats on YouTube », Wired.co.uk, June 26, 2012.

    28 University of Reading, « Turing test success marks milestone in computing history », Release Date June 8, 2014.

    29 À propos de la réussite annoncée à ce test, Josh Tenenbaum, professeur de science cognitive computationnelle au MIT, a pu considérer qu’il n’y avait « rien d’impressionnant là-dedans », se faisant ainsi la voix de ceux qui considèrent que le test de Turing a grandement perdu en pertinence : A. M

    ann

    , « That Computer Actually Got an F on the Turing Test », Wired.com, June 9, 2014.

    30 Toutefois, le fait que ce bot conversationnel soit présenté comme un enfant de 13 ans dont l’anglais n’est pas la langue maternelle a pu rendre le jury moins exigeant augmentant, de ce fait, son taux de réussite au test.

    31 M. 

    Valin

    , « Jeu de go : ce que cache la victoire d’AlphaGo », Science&Vie, 20 avril 2016, mis à jour 25 février 2019.

    32 F

    Koriche

    , S. 

    Lagrue

    , E. 

    Piette

    et S. 

    Tabary

    , « WoodStock : un programme-joueur générique dirigé par les contraintes stochastiques », Revue d’Intelligence Artificielle (RIA), n° 3/2017, pp. 307-336.

    33 Partisans du transhumanisme, courant de pensée qui prône l’utilisation de la science et la technologie moderne pour améliorer les capacités physiques et mentales des êtres humains, Dossier Transhumanisme, cobloging.fr.

    34 En 2012, Raymond Kurzweil a été recruté par Google Inc. pour diriger son laboratoire sur l’apprentissage des machines et le traitement du langage, cf. L. 

    Sacco

    , « Google recrute Ray Kurzweil, un gourou du transhumanisme », Futura-Sciences, 19 décembre 2012.

    35 A. 

    von Schwangau

    , « Le monde en 2035 – le début d’un nouveau paradigme », Horizon 2050, 18 octobre 2012.

    36 Cnom, Livre blanc Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle, 30 janvier 2018, http://www.adesm.fr/.

    37 J. C

    olombain

    , « Les dix technologies d’avenir selon le MIT », émission Le nouveau monde diffusée sur http://www.franceinfo.fr/, le 5 mai 2014.

    38 E. M

    onnier

    , G. S

    iméon

    et F. L

    assagne

    , « Robots : leur intelligence dépasse déjà la nôtre », Science&Vie, n° 1166, novembre 2014.

    39 Syntec, Cahier industrie du futur, Transformer l’industrie par le numérique, Cahier de campagne, n° 1, novembre 2016.

    40 M. 

    Wolfgang

    , V. 

    Lukic

    , A. 

    Sander

    , J. 

    Martin

    et D. 

    Küpper

    , « Gaining Robotics Advantage », The Boston Consulting Group, Communiqué de presse du 14 juin 2017.

    41 A. 

    Bensoussan

    et J. 

    Bensoussan

    , Droit des robots, Bruxelles, Larcier, 2015.

    Titre I.

    Approches de l’IA et de la robotique

    33. L’avenir des technologies robotiques et en particulier de l’IA est dépendant de leur acceptation par la société. Cette acceptabilité passe par l’acquisition d’une meilleure compréhension des technologies pour les intégrer dans la vie quotidienne de tout un chacun. Elle passe également par une meilleure connaissance des enjeux économiques et juridiques.

    34. Le présent titre regroupe les différentes approches de l’IA et de la robotique :

    Chapitre 1. L’approche politique et sociale ;

    Chapitre 2. L’approche économique ;

    Chapitre 3. L’approche juridique ;

    Chapitre 4. L’approche technique.

    1. L’approche politique et sociale

    35. Le déploiement des technologies robotiques et en particulier de l’IA dépend en grande partie d’impératifs sociaux. Un compromis doit être trouvé entre limitation des innovations et acceptabilité sociale. De même qu’un équilibre doit être réalisé entre technologies digitales (intelligence artificielle, robotique, apprentissage automatique ou machine learning¹.) et interactions humaines.

    36. L’intelligence artificielle fait peur. Selon le psychanalyste Serge Tisseron, spécialisé en intelligence artificielle et en robotique et cofondateur de l’Institut pour l’Étude des Relations Hommes-Robots (IERHR), « le XXe siècle a été celui de la construction de la psychologie de l’homme confronté à ses semblables. Le XXIe siècle sera celui de la construction d’une psychologie de l’homme confronté à des machines différentes de lui, et qui lui ressembleront de plus en plus »²..

    37. La création de nouveaux droits comme la médiation, l’explicabilité et la jouabilité³. sont des moyens permettant de réaliser l’acceptabilité sociale.

    1.1. De l’acceptabilité sociale à l’appropriation

    38. Selon un rapport sur l’intelligence artificielle et la vie en 2030⁴. publié en septembre 2016 par l’Université Stanford, l’avènement de l’IA et de la robotique promet de bouleverser notre modèle d’organisation économique et sociétale. Mais loin de représenter une menace pour le genre humain, des applications de plus en plus utiles de l’IA et susceptibles d’avoir des impacts positifs profonds sur notre société et notre économie, devraient émerger d’ici 2030.

    39. Tout va dépendre de la façon dont nous abordons ces technologies. Si la société les aborde principalement avec crainte et méfiance, il en résultera des faux pas qui ralentiront le développement de l’IA. À l’inverse, si la société aborde l’IA avec un esprit plus ouvert, les technologies émergentes pourraient transformer profondément et de façon positive la société dans les décennies à venir⁵..

    40. Selon la manière dont le phénomène de la robotique est appréhendé et les différences culturelles propres à chaque pays, le comportement vis-à-vis des robots et de l’IA diffère sensiblement⁶..

    1.1.1. La perception des robots en Europe et dans le monde

    41. En Asie et notamment au Japon, les robots sont perçus comme véhiculant des valeurs positives : Astro⁷., le robot du maître japonais Osamu Tezuka, fait montre de courage, d’abnégation et de gentillesse, lorsqu’il ne défend pas l’humanité contre éventuellement d’autres robots.

    42. En Europe, au contraire, les robots s’inscrivent plutôt dans un cadre anxiogène mêlant danger et chômage⁸. : la littérature a d’ailleurs nourri cette appréhension, comme en témoignent les légendes du Golem et le monstre de Frankenstein⁹. pour ne citer qu’eux.

    43. Aujourd’hui encore le sentiment de menace est très fort. Selon une étude de l’agence de communication BETC sur l’acceptation des technologies à travers le monde¹⁰., 64 % des consommateurs chinois pensent que l’intelligence artificielle « nous libérera des tâches répétitives et nous donnera plus de temps pour profiter de la vie », contre seulement 33 % des Français, 36 % des Britanniques ou 31 % des Américains.

    44. Sur les bénéfices de l’intelligence artificielle pour l’humanité, cette étude¹¹. révèle que 78 % des consommateurs avant-gardistes (« prosumers ») et 60 % des consommateurs classiques (« mainstream ») en Chine pensent que l’IA sera bénéfique pour la société contre 36 % et 25 % des mêmes catégories de consommateurs sondés en France ou 46 % et 30 % aux États-Unis.

    45. Dans sa résolution du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique, le Parlement européen fait observer que, « l’avenir de cette technologie dépendra de son acceptation par la société et qu’il convient de mettre davantage l’accent sur la communication appropriée de ses avantages pour permettre une meilleure compréhension de la technologie et de ses applications ; fait également observer que si la société n’est pas suffisamment informée sur les technologies de l’IA, il y aura moins de motivation pour l’innovation dans ce secteur »¹²..

    46. Les Européens ne sont pas optimistes sur l’impact social de la robotique¹³.. Ce constat amène à se poser la question des seuils d’acceptabilité sociale.

    1.1.2. Les seuils d’acceptabilité sociale

    47. La question de l’acceptabilité sociale est identifiée par les acteurs de la filière comme étant un déterminant important de l’évolution du marché de la robotique. Le Symop (Syndicat des machines et technologies de production) qui a pris l’initiative de créer un groupe de travail « Robotique » rassemblant 70 entreprises de la chaîne de valeurs robotique (fabricants, intégrateurs¹⁴., distributeurs, fournisseurs d’équipements et d’automatismes, centres de R&D, etc.), met l’acceptabilité sociale au rang des principales préoccupations.

    48. C’est ce qui ressort d’un travail de réflexion qu’il a mené durant l’année 2016 avec des auditions d’industriels, juristes, éthiciens, roboticiens et chercheurs, dans un esprit d’innovation et avec une volonté d’accompagner les industriels dans leur utilisation croissante de robots. Ce travail d’analyse centré autour des problématiques juridiques liées à la robotique a abouti à un Livre blanc Droit de la Robotique dans lequel le Symop formule des recommandations en ce sens.

    Figure 6. Les recommandations du Symop quant aux seuils d’acceptabilité sociale

    49. Selon le Symop, « travailler à l’acceptation sociale des robots » serait l’un des quatre enjeux pour l’avenir de la robotique. Poursuivant son travail sur l’acceptation sociale des robots (dans les sphères professionnelle, publique et privée), le Symop préconise « d’impulser des travaux d’étude pour mieux comprendre les critères d’acceptation du robot par l’opérateur, lorsqu’ils évoluent tous les deux au cœur d’une application spécifiquement conçue et dont la sécurité n’est plus traditionnellement gérée par la séparation physique »¹⁶..

    50. Le Symop souligne le rôle central des politiques publiques menées en Asie (Japon, Corée du sud) et suggère de s’appuyer en France, « sur une campagne nationale de communication à destination du grand public, visant à démystifier l’image fantasmatique trop souvent associée aux robots »¹⁷..

    51. En 2015, le Conseil national du numérique faisait le même constat dans son rapport sur l’ambition numérique, « le développement de nouveaux usages numériques dynamite le fonctionnement traditionnel de l’administration et la contraint à impulser en interne une dynamique de changement »¹⁸..

    52. Le plan France IA présenté en mars 2017¹⁹., montre comment l’État par ses administrations peut jouer un rôle clé dans l’intégration et l’acceptabilité de l’IA dans l’économie par exemple, en :

    — fixant un cap (appropriation des technologies IA pour le compte des institutions et du fonctionnement de l’administration) ;

    — préparant des cadres de la fonction publique (formations dispensées aux fonctionnaires stagiaires dans les principales écoles de la fonction publique, par exemple dans certains corps techniques comme l’Insee ou les Mines).

    53. Le rôle moteur de l’État est de nouveau réaffirmé par le mathématicien et député Cédric Villani dans son rapport sur l’intelligence artificielle publié en mars 2018 ; selon ce dernier, « plus que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications »²⁰.. Dans ces trois axes, sont proposées les actions suivantes pour :

    — donner un cap : intervention de l’État pour structurer la politique industrielle des secteurs prioritaires (santé, écologie, transports-mobilités et défense-sécurité) ;

    — donner une signification : mettre en place des expérimentations sur l’ensemble des territoires pour favoriser la transition des tâches et des métiers ;

    — donner des explications : favoriser « l’explicabilité » pour démystifier l’intelligence artificielle.

    1.1.3. Mesurer l’acceptabilité sociale des robots

    54. Le plan France IA de mars 2017²¹. aborde également la question de l’acceptabilité sociale et de la confiance des utilisateurs dans ces nouvelles technologies. Selon les rédacteurs de ce plan, « plutôt que de parler d’acceptation des technologies, il faut envisager d’emblée l’appropriation de ces technologies. Ce glissement de l’acceptabilité vers l’appropriation demande l’éclairage des sciences du comportement et une collaboration effective entre chercheurs en IA et chercheurs en sciences humaines et sociales »²²..

    55. Pour certains chercheurs, la coévolution des êtres humains et des robots ne peut se penser sans les émotions ce qui amènera à doter les robots d’émotions et d’empathie artificielles²³., non par imitation ce qui serait anxiogène pour un interlocuteur humain, mais par acquisition au gré de leurs interactions avec les êtres humains ; il s’agirait en quelque sorte d’une forme d’empathie artificielle²⁴..

    56. L’Agence nationale de la recherche (ANR) finance plusieurs projets relatifs aux « interactions des mondes physique, de l’humain et du numérique » dont certains ont pour objectif d’évaluer concrètement l’acceptabilité sociale des robots afin de contribuer à améliorer leur conception. Pour évaluer cette acceptabilité, le projet ANR Sombrero de robotique sociale utilise une technique de téléopération immersive (ou Beaming) permettant à un pilote humain de percevoir, comprendre, apprendre et agir à distance sur le monde physique à travers une incarnation robotique²⁵..

    57. Le Beaming permet d’appréhender au mieux l’acceptabilité des robots sociaux en simulant les compétences et comportements d’un robot social ou assistant automatisé²⁶.. Cette technique permet notamment de dégager des profils comportementaux d’utilisateurs. L’équipe Système multi-agents (MAGMA)²⁷. du laboratoire d’informatique de Grenoble (LIG) participe au projet ANR Sombrero dont l’un des défis est d’analyser, modéliser et reproduire le raisonnement humain, les comportements sociaux et les facteurs émotionnels²⁸..

    58. Dans ce projet, deux robots humanoïdes (Nina et Roméo) sont formés afin de leur fournir des comportements interactifs multimodaux tels que la parole, les gestes du bras ou encore les mouvements faciaux du regard, des paupières et de la bouche.

    Figure 7. Projet ANR Sombrero d’apprentissage de comportements socio-communicatifs par Beaming (*)

    fig007.jpg

    (*) Source : D. 

    Pellier

    ,

    Magma

    Team LIG Grenoble, In’tech inria – innovacs, 2015.

    59. Trois chercheurs de l’équipe Robotique Cognitive du Gipsa-Lab²⁹. travaillant sur le projet ANR Sombrero ont mis en place un cadre original pour l’évaluation en ligne du comportement interactif. Ils ont créé un site internet³⁰. à partir duquel chacun peut se prêter à un test en ligne et donner ses impressions sur les différents comportements filmés du robot Nina face une personne.

    60. Cette technique d’évaluation en ligne consiste à demander aux évaluateurs d’observer sur la vidéo les comportements du robot qui leur semble inappropriés et de les signaler en appuyant simplement sur la touche « ENTRER » du clavier d’ordinateur.

    61. La vidéo d’évaluation montre Nina, le robot humanoïde du Gipsa-Lab, conduisant un entretien neuropsychologique d’une personne âgée atteinte de trouble de la mémoire. Cet entretien est basé sur l’adaptation française du test de mémoire de rappel libre/rappel indicé à seize items (RL/RI-16) utilisé par les neuropsychologues pour identifier la perte de mémoire épisodique chez les personnes âgées³¹..

    62. L’entretien évalue la capacité de la personne à mémoriser seize mots choisis au hasard parmi seize catégories sémantiques (un métier, un sport, un fruit, un poisson, un instrument de musique, un meuble, etc.). Les seize mots sont : hareng, gilet, domino, jonquille, dentiste, groseille, cuivre, harpe, mésange, tilleul, judo, céleri, valse, rougeole, tabouret et géographie.

    63. Le test vidéo comprend trois phases : l’apprentissage des mots quatre par quatre, leur rappel indicé immédiat (retrouver le mot à partir de sa catégorie) et les trois essais successifs de rappels libre et indicé. Un exercice de comptage de nombres à l’envers est inséré entre chaque phase pour rompre un peu la monotonie de l’entretien.

    64. Cet entretien s’inspire d’une interaction réelle : le robot Nina essaie de reproduire le comportement d’un psychologue professionnel qui a réellement conduit l’entretien dans lequel est immergé l’évaluateur. Les chercheurs testent ici la capacité du robot à reproduire ce comportement interactif.

    65. Le robot humanoïde est filmé du point de vue de la personne dont on teste la mémoire. L’évaluateur se met à la place de cette personne, c’est-à-dire qu’il entend la voix de Nina et peut ainsi apprécier l’adéquation du comportement multimodal (voix, regard, gestes, etc.) de cette dernière à la conduite de l’entretien. C’est uniquement le comportement du robot qui doit être jugé dans ce test. L’intégralité de la vidéo d’évaluation dure environ 15 minutes.

    66. Le test conçu par les roboticiens

    Vous aimez cet aperçu ?
    Page 1 sur 1