Quelle responsabilité juridique pour l’IA – Vers un régime de responsabilité spécifique ?

3 avril 2023

Quelle responsabilité juridique pour l'IA - Vers un régime de responsabilité spécifique

Woody Allen a dit “l’intelligence artificielle se définit comme le contraire de la bêtise humaine“, une expression soulevant un constat indéniable : celui de l’accélération inédite du développement des technologies numériques et notamment de l’intelligence artificielle (IA). En témoigne par exemple l’obtention, en mars 2023, par l’IA GPT-4 aux États-Unis, lors d’une expérience menée par des professeurs de droit, du score requis pour être admis à pratiquer la profession d’avocat. Sa nature particulière soulève donc la nécessité pour le droit de s’adapter à l’évolution technologique.

Un contexte d’accélération inédite du déploiement de l’intelligence artificielle

Avant d’étudier les enjeux juridiques liés à l’IA, rappelons que la Commission européenne dans sa Communication sur l’intelligence artificielle datant de 2018, définit l’IA comme « les systèmes qui font preuve d’un comportement intelligent en analysant leur environnement et en prenant des mesures, avec un certain degré d’autonomie, pour atteindre des objectifs spécifiques. Une fois performantes, elles peuvent contribuer à améliorer et à automatiser les processus décisionnels »

Enjeu juridique initial de l’IA

Le développement rapide de l’intelligence artificielle, avec récemment des expérimentations sur des avocats-IA, constitue un facteur d’évolution positive de nos sociétés et de nos économies mais l’immixtion croissante des systèmes d’IA dans notre quotidien soulève cependant de vifs débats.

Pour la grande majorité des acteurs, leur déploiement doit alors être strictement encadré afin de prévenir les risques susceptibles d’en résulter. De fait, il convient de prévoir un cadre juridique et un régime de réparation effective en cas de dommage. 

À cet égard, David Kaye, rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression auprès des Nations Unies, affirmait alors dès 2018 « Un grand défi mondial se pose à tous ceux qui oeuvrent à promouvoir les droits de l’homme et l’État de droit : comment les États, les entreprises et la société civile peuvent-ils faire en sorte que les techniques d’intelligence artificielle respectent et renforcent les droits de l’homme plutôt que de les fragiliser et de les menacer ? ».

Intervention de la Commission européenne

C’est donc dans un contexte d’incertitude ou encore de flou au niveau national, que la Commission européenne est intervenue en 2022 afin d’introduire des règles spécifiques aux dommages causés par un système d’intelligence artificielle. C’est alors après avoir affirmé “l’innovation technologique ne doit jamais se faire au détriment de la protection des citoyens“, que cette dernière a entendu instaurer un cadre juridique harmonisé au niveau de l’Union européenne afin d’éviter un vide juridique susceptible d’être crée par ces progrès technologiques sans précédent.

En effet, la situation est loin d’être réglée au niveau national, les règles restant inefficaces et lacunaires. Retenant une responsabilité pour faute, les victimes doivent démontrer l’existence d’un dommage, d’une faute et d’un lien de causalité. Une preuve, en pratique souvent difficile à rapporter, aboutissant rarement à l’engagement de la responsabilité pour dommage du fait d’une IA, et avant tout susceptible de porter atteinte au droit à l’accès effectif à la justice (article 47 de la Conventions des Droit Fondamentaux de l’Union Européenne (CFDUE)). Émerge ainsi la nécessité de garantir aux victimes une réparation en cas de dommage causé par un système d’IA.

Une proposition européenne de directive en date du 28 septembre 2022, au secours d’une législation nationale lacunaire en matière de responsabilité des systèmes d’IA

C’est au regard de l’inefficacité du régime de responsabilité civile pour indemniser les victimes de dommage causé par une IA, que la commission européenne a entendu introduire des règles spécifiques aux dommages causés par l’intelligence artificielle afin de protéger les victimes et leur garantir une réparation. À cet égard, des auteurs, comme Margo Benelin, chargée de recherche CNRS, sont allés jusqu’à énoncer « l’IA et la réparation du dommage : un cocktail explosif ». 

Cette proposition de directive, s’inscrivant dans la volonté de “compléter et moderniser” le cadre européen en matière de responsabilité des systèmes d’IA, était alors attendue. Alain Bensoussan évoquait dans un article du Figaro « la responsabilité des IA mieux encadrée en Europe » avant d’ajouter que « c’est la première fois dans le monde qu’on met en place une réglementation horizontale valable pour tous les systèmes d’intelligence artificielle ». 

Une proposition de directive qui entend faciliter l’engagement de la responsabilité de l’IA et permettre la réparation des dommages causés aux victimes

Deux mesures principales sont prévues par la directive du 28 septembre 2022 :

  • une « présomption de causalité » : qui dispense les victimes de s’acquitter de la charge de la preuve, et leur évite ainsi d’avoir à démontrer l’existence d’un dommage, d’une faute/omission et d’un lien de causalité. De fait, le simple fait pour la victime de démontrer la commission d’une faute ayant causé un dommage et dont le lien de causalité avec l’IA est « raisonnablement probable » suffit à présumer l’existence d’une causalité. Cette présomption simple peut cependant être renversée, par la preuve qu’une autre cause a entraîné le dommage.
  • La facilitation de l’accès aux éléments de preuve pertinents détenus par les entreprises ou fournisseurs qui utilisent l’IA à haut risque : les victimes pourront désormais demander à la juridiction d’ordonner la divulgation d’informations concernant l’utilisation de systèmes d’IA à haut risque.

Le champ d’application de la directive étant étendu, celle-ci vise à obtenir réparation pour tout type de dommage couvert par la législation nationale (en matière de santé, de biens, ou encore de vie privée) et pour tout type de victime (particulier, entreprise, organisation).

En somme, la proposition de directive entend favoriser la confiance dans l’intelligence artificielle en veillant à ce que toutes les victimes puissent obtenir une réparation en cas de dommage. En outre, il convient de se demander si cela ne revient pas à “banaliser” la responsabilité du fait de l’IA, en instaurant un régime de réparation des dommages similaire à celui existant dans d’autres circonstances.

La commission européenne a d’ailleurs précisé, dans ses questions-réponses sur le texte, que “la législation sur l’IA et la directive sur la responsabilité en matière d’IA sont les deux faces d’une même médaille”. Il convient alors de souligner le caractère complémentaire de la législation sur l’IA et de la directive sur la responsabilité en matière d’IA.

Si la législation sur l’IA entend prévenir les dommages, la directive vise quant à elle à permettre aux victimes d’obtenir une réparation effective en cas de dommage. D’ailleurs, ces dernières emploient les mêmes termes, et conservent la distinction entre « IA à haut risque » et « IA qui ne sont pas à haut risque ». Ladite directive s’appliquera cependant tant à l’hypothèse d’une IA à haut risque qu’une IA à faible risque. 

Des réflexions soulevées quant à l’engagement de la responsabilité pénale des systèmes d’IA – une idée encore trop prématurée

Enfin, si la question de la responsabilité civile des systèmes d’IA semble avoir été clairement précisée par la proposition de directive du 28 septembre 2022, cela demeure insuffisant pour certains auteurs.

En effet, certains professionnels de droit s’interrogent désormais sur l’engagement d’une responsabilité pénale des systèmes d’IA. ces derniers énoncent alors “Nous avons décrit trois situations possibles. Dans la première on considère que le droit pénal n’a pas sa place puisque l’IA n’est pas humaine. Il n’y a pas de peine et seule la responsabilité civile entre en compte avec indemnisation de la victime. Dans la deuxième, on recherche la responsabilité pénale objective, qui pourrait par exemple être attribuée au constructeur de l’automobile ou au concepteur de l’algorithme. Dans le troisième cas, l’IA pourrait être pénalement responsable, comme ce peut être déjà le cas pour une personne morale telle une société ou une association”.

« Une idée originale mais qui paraît encore prématurée », prévient Juliette Lelieur, directrice adjointe de la Fédération de recherche l’Europe en mutation et membre du Comité européen pour les problèmes criminels.

Une question émerge alors : “Peut-on porter un jugement moral sur une machine?”.

Ainsi, il convient de s’interroger sur l’évolution future du droit, national et européen, pour s’adapter au développement des systèmes d’IA. S’il est classique de considérer que « les innovations technologiques précèdent toujours le droit », certains auteurs s’interrogent sur le point de savoir si le législateur pourrait inverser la tendance en anticipant de telles évolutions. Une question à laquelle, Adrien Bonnet, auteur du mémoire « la responsabilité du fait de l’intelligence artificielle », a répondu « il serait vain voire dangereux de chercher à légiférer sur des technologies dont on commence à peine à comprendre les implications. Toutefois, il pourrait être nécessaire de prévoir à terme un régime général de responsabilité du fait des dispositifs d’IA, afin de ne pas laisser le juge désarçonné face à des hypothèses inédites ».

Derniers articles UYL