IDLabs-IoT Le site dédié aux objets connectés

Un site des laboratoires pédagogiques de l'école CampusID

La détermination des responsabilités dans un accident causé par un système autonome

Posted on 13 mai 2018  in Non classé

La responsabilité des intelligences artificielles lors d’un accident causé par une machine autonome

 

 

De nos jours, les progrès technologiques concernant l’intelligence artificielle ne cessent de s’accélérer. Ainsi on retrouve aujourd’hui sur les routes des voitures complètement autonome qui ne nécessite pas de conducteur (ou du moins juste sa présence et non ses actions) ou encore des machines autonomes assistant des personnes durant leur travail sans qu’aucun être humain ne soit aux commandes.

 

Cependant une machine n’ayant pas les même reflexes et jugements qu’un être humain cette dernière va se contenter de faire ce pourquoi elle à été conçu sans se soucier de l’éventualité que sa tache provoque un accident. C’est ce qui s’est d’ailleurs produit en mars 2018 en Arizona où un véhicule autonome de la société Uber à percuter et tuer une personne apportant ainsi une nouvelle problématique juridique : A qui la faute ?

 

 

 

C’est la question à laquelle nous allons tenter de répondre mais avant de s’intéresser aux lois déjà en applications qui peuvent répondre à cette question voyons plus en détails ce qu’est une intelligence artificielle.

 

1. Les intelligences artificielles

 

L’intelligence artificielle est « l’ensemble de théorie et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée.

 

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique et à l’informatique. Elle recherche des méthodes de résolution de problème à forte complexité logique ou algorithmique. Par extension elle désigne les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives.

 

Ainsi une voiture autonome est une voiture comportant une intelligence artificielle et, suivant les fonctions voulues, l’intelligence artificielle à besoins de plusieurs technologies comme par exemple des algorithmes précis dans le cas d’une voiture pour détecter une collision possible, ou encore un accès au réseau et/ou à une base donnée pour récupérer des informations dans le cas d’un assistant pour smartphone ordinateur ou autre appareil technologique (Siri, Cortana, Google home etc.)

Enceinte google home, assistant personnel intelligent

Un système autonome (possédant une intelligence artificielle) peut donc agir indépendamment de la volonté de l’utilisateur et est capable d’effectuer ses propres décisions conformément à sa fonction initiale.

 

Sachant cela on peut déjà entrevoir plusieurs inconvénients et problèmes lié à l’autonomie et « l’indépendance » d’une machine.

2.Les problématiques des IA

 

Ayant la capacité de faire des choix grâce à son autonomie, l’intelligence artificielle apporte des problématiques au niveau juridique et a fortiori morale puisqu’une machine autonome possèdent une capacité de détermination qui implique donc une certaine morale.

 

a.La problématique juridique

 

Le principal problème qu’apporte l’intelligence artificielle est son autonomie en effet une machine autonome prend des décisions constamment et serait donc responsable de ces propres actes.

 

Cependant une intelligence artificielle n’est pas concernée par la responsabilité contractuelle en effet selon l’article 1128 du Code civil (sont nécessaires à la validité d’un contrat : le consentement des parties, leur capacité de contracter, un contenu licite et certain) seul un humain est capable de contracter.

 

De plus pour ce qui est de la responsabilité civil ( et de la responsabilité en générale), cela relève de l’action humaine ainsi une intelligence artificielle n’est pas concerné par l’article 1241 ( Chacun est responsable du dommage qu’il a causé non seulement par son fait, mais encore par sa négligence ou par son imprudence.) et n’est pas affecté par l’article 1242 (On est responsable non seulement du dommage que l’on  cause  par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde …).

 

Puisque l’intelligence artificielle, à l’instar d’une machine pilotée par l’homme comme par exemple un drone, n’est pas lié à l’action humaine.

Elle détermine elle-même ses propres actions sans aucunes influences humaines après conception d’autant plus que dans le cas d’une intelligence artificielle capable d’apprendre, son concepteur ne peut pas forcément avoir conscience des modifications que la machine a subi en termes de détermination.

 

De plus l’intelligence artificielle n’est pas encore bien définie juridiquement. On ne sait pas si l’on doit considérer l’intelligence artificielle comme un produit ou service, ce qui changerait drastiquement les lois qui s’appliquent au système autonome.

L’intelligence artificielle n’est également pas considérée comme une personne civile ainsi on ne sait pas sur quel pied danser avec l’intelligence artificielle ce qui crée un énorme vide juridique.

 

Le gouffre juridique ne fait de s’élargir si l’on considère qu’effectivement une intelligence artificielle ait une responsabilité pénale.

En effet si une intelligence artificielle peut être éligible de sanctions il faudrait devoir au préalable définir quelles seront ces sanctions mais l’on également se demander si une intelligence artificielle peut se défendre ou être défendu.

 

Le vide juridique provoqué par l’intelligence artificielle est également accompagné d’une autre difficulté : la morale. En effet lorsque l’on parle de responsabilité et que l’on juge les actes d’une personne, on peut les juger par rapport à la loi mais également par rapport aux mœurs.

b.La problématique morale

 

Pour parler du lien entre la morale et l’intelligence artificielle le mieux et de prendre en exemple le cas de la voiture autonome.

En effet sur la route un conducteur risque de faire face à des situations délicates où une prise de décision rapide est nécessaire pour éviter un éventuel accident ou, si l’accident est inévitable, faire en sorte qu’il y est le moins de dégâts possible.

C’est alors là qu’intervient la question de morale. Mais là ou un être humain peut paniquer lors d’un accident et commettre des erreurs, un véhicule autonome lui ne peut subir la pression du stress ou de la panique lors d’un accident.

 

Le véhicule et donc capable de prendre des décisions réfléchies mais surtout moralement discutable. Cependant il est important de préciser que cette prise de décision dépend des algorithmes et instructions déterminées à l’avance par le constructeur du véhicule afin de se rendre compte que ce choix moral est déterminé bien avant que l’accident ne se soit produit.

Prenons pour exemple un cas très particulier (semblable au dilemme du tramway) mais démonstratif de la question de morale lié à l’intelligence artificielle où l’accident est inévitable entre 4 piéton et une voiture autonome comportant 4 passager :

Quel situation adopter ?

Des piétons se retrouve sur la route sans prévenir et il est impossible pour la voiture de freiner puisque les freins sont défectueux, l’accident ne peut alors se dérouler de deux façons distinctes : la voiture écrase les piétons ou la voiture tourne subitement afin d’éviter les piétons mais amène les passagers vers un mur.

 

On serait tenté de dire que le devoir du constructeur est de garantir la sécurité du client / passager du véhicule et que donc la voiture va écraser les piétons cependant cela peut être discutable d’autant plus que ce cas particulier prend une tournure bien plus complexe si le nombre de passagers ou de piétons vient à changer.

Le choix n'en devient que plus complexe

 

On se retrouve donc avec un dilemme moral complexe sachant qu’il semble évident qu’une machine autonome doit assurer, pour sa commercialisation et sa mise en place, la sécurité de l’utilisateur mais également de toute autre personne susceptible d’être affecter par les actions de cette machine.

 

Encore aujourd’hui il nous est difficile de faire un choix juste moralement sachant que la mise en danger d’un groupe d’individu ou d’un autre peut s’appliquer à d’autre thématique que le véhicule autonome et la route. Cette problématique morale est donc très importante à prendre en compte lorsque l’on traite de la responsabilité d’une intelligence artificielle.

Ces problèmes juridiques et éthiques sont des problèmes de taille que l’on ne peut se permettre d’ignorer dans la création et l’amélioration de machine autonome. Ainsi nous allons voir ce qui est ou ce qui pourrait être mit en place afin de gérer ces différentes problématiques.

3.Les solutions

 

Le premier accident impliquant un être humain et une machine autonome ayant fait scandale étant très récent peut de lois (voir aucune suivant les pays) ont été mis en place pour faire face à ce genre de situation. C’est pourquoi nous allons voir quelles seraient les mesures les plus efficaces pour résoudre les diverses problématiques vues précédemment.

a.  Le côté juridique

 

Dans le cadre de l’entreprise le recherche du responsable lors d’un accident impliquant un système autonome et un être humain n’est pas bien compliqué.

En effet pour le code du travail français, l’employeur est personnellement responsable de l’accident au travail si la machine présente un défaut de sécurité. C’est donc à l’employeur d’assurer la sécurité des machines et autours d’elles (sans précision sur leur autonomie) selon l’article L ;4311-1 du code du travail. Ici donc l’intelligence artificielle n’est pas considérée comme responsable vis-à-vis des salariés mais c’est plutôt l’employeur qui endosse cette responsabilité.

 

La véritable problématique et difficulté qu’engendre l’intelligence artificielle est vis-à-vis de l’utilisateur/ de la machine et d’autrui dans un domaine autre que professionnel.

En effet, lors d’un accident provoqué par une machine autonome le plus important et le plus compliqué est de trouver un responsable. On pourrait donc considérer la machine comme étant responsable de l’accident mais comme vue précédemment cela apporté beaucoup plus de problème (droit à la défense, type de sanction etc.) puisque l’on considèrerait la machine comme une personne juridique.

 

Alors il faut donc aller voir un peu plus loin que la machine en elle-même. En effet la machine autonome ne fait qu’exécuter des ordres qui lui ont été programmés à l’avance la faut de l’accident ne peut qu’être attribuer à un défaut de fabrication ou aux différents algorithmes qui sont intégré à la machine.

 

Ainsi la responsabilité de l’accident doit être attribuer non pas à la machine mais bien à son concepteur voir même à la personne qui a été responsable de la programmation de la machine, cette dernière ne faisant qu’appliquer les règles et restrictions qui lui sont imposées.

Ainsi le livre blanc « Gouvernance de l’intelligence artificielle dans les entreprises » établi par le CIGREF et Lexing Alain Bensoussan Avocats a préconisé la mise en place d’un régime de responsabilité en cascade en prenant en considération la responsabilité de l’utilisateur, qui s’occupe de la partie apprentissage de l’intelligence artificielle sur le schéma suivant : le ou les utilisateurs de l’intelligence artificielle du fait de sa capacité d’apprentissage, son propriétaire s’il est différent et le concepteur.

Cependant ce régime fait face à deux difficultés, la première, la diversité des acteurs susceptibles d’être impliqués et leur degré de contribution à la mise en œuvre de l’intelligence artificielle. En effet de qui du concepteur de l’algorithme, du fournisseur de la base de données des connaissances, du fournisseur de réseaux ou du titulaire utilisateur de l’intelligence artificielle est le véritable fautif et ainsi lequel d’entre eux constituera le débiteur de responsabilité en tant que tel chargé de s’assurer contre le risque. Ce risque constitue une deuxième difficulté.

 

En effet chez les débiteurs classiques de responsabilités sans faute (parent etc…), les dommages générés, sans pour autant pouvoir être prédits, peuvent être prévus et circonscrits. Ceci permet une pérennité et une grande viabilité du modèle fondé sur la mesure du risque. Pour l’intelligence artificielle, ces dommages et ces risques ne le sont pas, puisque la part d’inconnues mathématiques et comportementales n’est pas mesurable.

 

Malheureusement si on ne peut pas attribuer justement la responsabilité du côté de l’utilisateur ou des concepteurs et que l’on ne peut ne peut pas non plus considérer l’intelligence artificielle comme une personne civile (cela impliquera énormément de questionnement sur la nature de l’intelligence artificielle et sur les lois qui s’applique sur cette dernière). On se retrouve presque sur une voie sans issue.

C’est d’ailleurs pour cela qu’aujourd’hui au niveau juridique, l’intelligence artificielle pose un véritable paradoxe qui sera difficile de résoudre sans revoir complètement le régime de responsabilité.

b.  Le côté éthique

 

Lorsque l’on parle d’éthique lié à l’intelligence artificielle, on parlera précisément de la protection à la fois physique (prévention d’accident avec voiture autonome) mais aussi mentale, à savoir qu’il y a eu des cas où des chatbots ou agent conversationnel (intelligence artificielle programmé pour tenir une discussion avec un être humain) on diffuser des propos racistes et/ou passible d’une sanction pénale, des usagers du système autonome et d’autrui.

 

Cette responsabilité morale ne peut qu’être attribuer à ceux ayant conçu l’intelligence artificielle puisque ceux sont eux qui définissent les instructions, les règles, les algorithmes et les fonctionnalités de l’intelligence artificielle en question.

Pour assurer la sécurité des usagers de la machine autonome et d’autrui on peut s’imaginer quelque règle ou restriction simple que l’intelligence artificielle doit contenir dans son programme.

 

On entre par ailleurs dans le domaine de la fiction et de la spéculation puisque nous sommes actuellement en pleine période de naissance de l’intelligence artificielle et nous ne savons pas encore aujourd’hui quel chemin et quelle forme prendra cette technologie à l’avenir.

Cependant certains ont déjà tenter d’imaginer ces règles notamment Isaac Asimov, écrivain de science-fiction et inventeur des « trois lois de la robotique » qui comporte donc trois lois :

 

1-un robot ne peu porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.

2- un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.

3- un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

 

Il est à noter que même si ces lois relèvent d’un univers de science-fiction, le gouvernement sud-coréen a annoncé en mars 2007 qu’il émettrait une Charte sur l’éthique des robot (par conséquent des intelligence artificielle) afin de fixer des normes pour les utilisateurs et les fabricants  et que, selon Park Hye-Young, du ministère de l’information et de la communication, la Charte serait très similaire aux trois lois d’Asimov : la définition de règle de base pour le développement futur dans le domaine de la robotique.

 

Pour ce qui est des cas concrets, les principaux accidents provoqués par un système autonome sont d’ordre physique et concerne principalement les machines industrielles dont nous avons déjà parler (c’est à l’employeur d’assurer la sécurité du système autonome) mais aussi les voitures autonomes qui posent un réel dilemme.

 

Nous l’avons vue ce dilemme (prioriser la sécurité des usagers plutôt que des piétons ou inversement) doit être résolu encore une fois par le constructeur, c’est donc aux concepteurs du véhicule qu’incombe la tache de définir si le véhicule doit favoriser la sécurité des usagers, des piétons ou du plus grand nombre de personne.

 

Encore une fois ce choix incite au débat puisqu’il n’y a pas vraiment de bonne ou mauvaise option bien qu’il semble quelque peu évident que la sécurité de l’utilisateur est essentielle mais si cela suppose un jugement de valeur sur la vie des usagers et des piétons.

 

On se retrouve donc comme pour la partie juridique du problème avec une impasse, nous ne somme pas capable de choisir de manière juste et impartial la bonne manière de choisir entre les passagers et les piétons.

 

Il semble donc que la meilleure option que l’on a serait d’améliorer considérablement l’intelligence artificielle des véhicule (portée des capteurs de collision, meilleure visibilité de nuit, calcul plus précis sur les risques potentiels sur la route etc.) pour que le dilemme de l’accident ne se pose plus ou que du moins la probabilité qu’une telle situation se produise (le choix entre les passagers ou les piétons) soit quasi nulle.

c.   Une impasse ?

 

Que ce soit du point de vue éthique ou du point de vue juridique, l’intelligence artificielle ce pose comme une difficulté comme nous n’en avons jamais connue. En effet que l’on rejette la responsabilité d’un accident cause par un système autonome sur la machine ou le un être humain on se retrouve avec un problème :

 

D’une part il y a beaucoup trop de personnes responsables des diverses fonctionnalités de l’intelligence artificielle ce qui rend la recherche d’un responsable fastidieuse, beaucoup trop compliqué et parfois même injuste.

D’autre part rejeter la faute sur le système autonome en lui-même reviendrait à définir l’intelligence artificielle comme une personne juridique à part entière or encore aujourd’hui la place que possède l’intelligence artificielle dans notre société pousse au débat.

 

Et il n’y a eu réellement aucun accord sur le statut de l’intelligence artificielle. Est-ce un produit ou bien service ou même un être doté d’intelligence ? Aucun gouvernement n’a vraiment pris de décision quant à l’intelligence artificielle du fait de l’ambiguïté de son statut ce qui explique que nous somme arriver au point mort où l’accident mortelle causé par un véhicule autonome s’est juste soldé par l’arrêt des tests de ce genre d’engins de la société responsable du véhicule ayant commis l’accident dans la région.

 

L’intelligence artificielle ne fait pourtant que s’améliorer de jours en jours et aucune mesure n’a été mise en place pour réellement gérer ce genre de situation.

4.Conclusion

 

A qui la faute donc ? Eh bien pour le moment à pas grand monde puisque nous sommes dans une période où tous cherchent une place à l’intelligence artificielle, à un moyen de la définir clairement, de l’encadrer au niveau et de la loi et surtout de la perfectionner.

Ainsi comme toutes les technologies innovantes, l’intelligence artificielle est dans une phase de transition où seul l’avenir nous dira comment celle-ci est considérée et utilisée par la l’humanité.

 

Il va falloir donc continuer à réfléchir pour trouver une solution au problème de la responsabilité d’un système autonome lors d’un accident ainsi qu’à tous les autres problèmes que nous avons pu découvrir avant.

L’avenir et la place de l’intelligence artificielle dans le monde est encore aujourd’hui incertain et nous n’avons pas fini de débattre sur l’intelligence artificielle et sur sa responsabilité.

 

0 thoughts on “La détermination des responsabilités dans un accident causé par un système autonome”

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *