Approcher juridiquement l’IA
IA, ou barbare digramme où tant s’y cloître. Où nos espoirs humains escomptent l’inouïe conscience artificielle et rêvent l’automatisation du demain. Mais avant de projeter sa destinée, ne devrions-nous point cerner l’objet ? Que comprend le terme « IA » ? L’on sait pourtant que l’affaire du droit est de catégoriser, puis de juger ; définir et classer pour mieux normer. Or admettrions-nous approcher aujourd’hui les bornes de l’intelligence artificielle avec précision ? Non, l’on reconnaitrait plutôt que « IA » renvoie à des représentations toutes plus vagues qu’emphatiques dans l’imaginaire commun.
L’intelligence artificielle désignerait un outil technologique capable de raisonnement, planification, ou créativité 1. Cet outil maîtriserait une ou plusieurs de ces facultés à degrés différent. Le terme « IA » entendrait ainsi plusieurs outils différents, tous plus spécifiables que caractérisables ; chacun présentant potentiellement un modèle technique et/ou poursuivant une fin singulière, relativement aux trois critères précités. Fermier, je peux par exemple créer un outil capable d’identifier des pommes de terre, sélectionner les plus comestibles, et replanter les restantes pour le lendemain. Cet outil serait une IA dotée d’un niveau moyen de raisonnement et faible de planification ; point de faculté à la création. Architecte, je peux inversement créer une IA me suggérant différents plans de constructions, soit généré dans un hasard complet, soit guidé par des prompts (ou consignes). L’outils serait alors caractérisé par son haut niveau de créativité.
Ainsi, affirmerons-nous qu’il existe autant d’IA que d’usages et constitutions techniques possibles ; il ne faut donc pas penser un régime juridique de l’IA, mais des régimes juridiques selon chaque type d’IA. L’on pourrait alors arrêter des critères objectifs de distinction selon le niveau de raisonnement, planification, ou créativité de l’outils. Toutefois cela requerrait une technicité algorithmique, mathématique et numérique que deux simples étudiants de droit n’ont pas (encore).
Il n’en demeure qu’un type précis d’IA s’extrait de l’ordinaire et fascine les masses par son potentiel : l’IA générative. ChatGPT, Dall-E pour les plus connues, Stable Diffusion, Topaz AI, Pixverse AI pour les plus underground. L’Open Data n’aidant pas, les algorithmes pullulent et se diversifient insensiblement dans l’approche et la complexification du réseau technique derrière l’outils. En bref ; l’IA générative progresse à pas de Géant-Titan-Colossal et s’apprête bientôt à détruire les murs de l’originalité humaine. Il paraît alors impérieux de l’encadrer juridiquement, car elle entraînera des conséquences économiques et sociales non-négligeables ; il s’agira là, bien évidemment, d’un euphémisme.
Or l’encadrer juridiquement, c’est d’abord et avant tout la qualifier. Initiative que semble envisager l’IA ACT 2024, au travers de son article 50 §2 2 qui mentionne des « systèmes d’IA » (1), « à usage général » (2), « qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte » (3). L’acte n’est toutefois point encore entré en vigueur.
Autrement, le Code de la Propriété intellectuelle qualifie à l’article L112-2 alinéa 13 les logiciels d’œuvres de l’esprits. Or en attendant l’IA Act, il se peut que l’IA générative y soit à défaut associée, comme ce fut le cas un temps aux débuts du jeu vidéo (cf. l’affaire Mortal Kombat dans les années 2000). La jurisprudence administrative mentionne quant à elle une « solution logicielle d’intelligence artificielle » (TA Paris, 19 décembre 2023, n°2327212)
Ainsi, la conceptualisation de l’IA n’étant pas aujourd’hui gravée dans le marbre, les juristes ont encore l’occasion de faire preuve de créativité pour parachever la définition. Cependant, l’encadrement de l’IA n’a pas entendu d’avoir la définition faisant l’unanimité pour débuter l’encadrement.
La mise en œuvre progressive de l’encadrement de l’IA
Les exigences nécessaires résultant de l’IA act
L’IA act3 est aujourd’hui le premier cadre juridique de grande envergure pour l’Intelligence artificielle. Il permet en donnant une définition assez générale d’appréhender les différents aspects et utilisations consécutifs à l’usage de l’IA.
Le règlement indique notamment dans l’article 2 son champ d’application en y précisant les différents ratione personnae soit les acteurs concernés (développeurs, déployeurs, fournisseurs) tous définis dans l’article 3. Il faut également préciser que si la règlementation ne s’appliquera que dans le territoire des Etats membres. Il est d’ailleurs exigé en cas de coopération avec des Etats tiers que ces derniers assurent des garanties minimales en matière de droits fondamentaux et libertés pour les personnes.
Concrètement, L’IA act établit une gradation de régimes selon que l’IA est qualifiée de risque haut, élevé, limité ou minime. Il en découle des obligations plus ou moins contraignantes que se doivent de respecter les différents acteurs avant que les différentes IA puissent être misent sur le marché ou en service.
En effet, l’article 5 liste un ensemble de pratiques à prohiber. Ces pratiques concernent l’utilisation de systèmes IA usant de techniques délibérément manipulatrices ou trompeuses ayant pour objectif d’altérer le comportement d’une personne ou d’un groupe de personnes. Cela peut également résulter des systèmes ayant pour objectifs d’exploiter les personnes vulnérables ou encore des systèmes automatisés permettant l’analyse de comportements sociaux.
Le chapitre 2 du règlement encadre les IA dites à hauts risques. Il est fait mention d’un certain nombre d’obligations et d’interdictions que les déployeurs et fournisseurs doivent respecter. Ces IA sont ensuite notifiées aux différentes autorités administratives des marchés qui vont les contrôler puis accorder un marquage CE validant leur mise sur le marché. La liste des domaines relevant de l’IA à haut risque et les obligations n’étant pas exhaustive, le règlement précise que c’est au déployeur de veiller « au contexte prévisible » dans lequel s’inscrit l’usage d’une IA à haut risque pour limiter les risques liés à l’utilisation.
Cependant, la majorité des IA génératives ne relèvent pas du régime à Haut risque. Le Chapitre 4 se rapporte aux obligations de transparence pour les fournisseurs et déployeurs de certaines IA. L’article 50 paragraphe 2 précédemment cité vise les systèmes IA qui interagissent avec des personnes physiques et plus particulièrement des IA dites à usage général qui génèrent des contenus de synthèse de type audio, vidéo, image ou texte. Plusieurs obligations pèsent aux fournisseurs et déployeurs notamment en ce qui concerne la transparence, d’informations permettant la décision éclairée de l’Humain.
Enfin, L’IA act souhaite limiter les violations en amont en donnant une place importante aux autorités des marchés pour effectuer la surveillance et veiller au respect des obligations. Cependant le parlement européen dispose de pouvoirs importants allant de la sollicitation à l’information, la demande de mesures concrètes aux fournisseurs jusqu’au retrait complet du modèle d’une IA comme le prévoit l’article 93. De plus, l’IA act détermine à partir de l’article 99 les différentes sanctions applicables (amendes, pourcentage sur le chiffre d’affaires) aux différents acteurs (opérateurs, autorités administratives).
Ce même article précise que c’est aux Etats membres de déterminer le régime de sanction et d’exécution applicable en droit interne tout en prenant en compte les lignes directrices qu’instaure le règlement.
L’enjeu croissant de la responsabilité
L’IA act, projet novateur semble poser une base solide pour encadrer l’intelligence artificielle en donnant un certain nombre d’obligations à vérifier pour établir simplement la responsabilité des différents acteurs. Néanmoins, un grand nombre de questions restent en suspens. En effet, la normalisation du règlement va venir généraliser les législations internes sporadiques des Etats. Cependant il est évident que les Etats doivent compléter l’IA act face aux usages variés et à la spécialisation croissante des systèmes d’intelligence artificielle qui créent de nouveaux contentieux. C’est ce que semble d’ailleurs vouloir le règlement puisqu’il indique par exemple au paragraphe 11 de l’article 2 que le « règlement n’empêche pas l’Union ou les États membres de maintenir ou d’introduire des dispositions législatives, réglementaires ou administratives plus favorables aux travailleurs quant à la protection de leurs droits en ce qui concerne l’utilisation de systèmes d’IA par les employeurs, ou d’encourager ou de permettre l’application de conventions collectives plus favorables aux travailleurs »
En l’état, le cadre juridique français tend à considérer les intelligences artificielles génératives dans le régime du logiciel. En effet, la proposition de loi n°1630 du 12 septembre 20234 souhaite ajouter un nouvel alinéa à l’article l131-3 du code de la propriété intellectuelle. Cette proposition implique que le droit français considère le logiciel d’intelligence artificielle et que les données qui l’alimente peuvent se voir protégées par le droit d’auteur.
Ainsi, les régimes de responsabilité qui en découlent seraient alors les mêmes que ceux du logiciel5. De ce fait, la garantie des vices cachés peut s’appliquer en vertu de l’article 1641 du code civil, la responsabilité du fait du commettant pour le salarié d’un des opérateurs de l’IA comme le dispose l’article 1242 du même code. Autrement la responsabilité du fait des produits défectueux issus de la directive européenne n°85-574 du 25 juillet 1985. Il est même possible d’envisager une responsabilité pénale avec l’article 226-16 du code pénal concernant le traitement des données à caractère personnel. Il n’y a alors rien de réellement novateur et ce sont bien souvent les personnes physiques ou morales qui seront responsables. Cela s’inscrit d’ailleurs totalement dans la logique de l’article 4 de l’IA act qui rappelle effectivement que les fournisseurs et déployeurs de systèmes IA se doivent d’avoir un niveau suffisant de maîtrise globale entre le fonctionnement et l’utilisation.
Cependant des questions se posent. Si une personne utilise une IA générative en créant du contenu diffamant. Faut-il envisager la responsabilité du développeur, du fournisseur ou de l’utilisateur qui a rédigé le prompt ? Voir faut-il envisager une responsabilité in solidum ?
Une autre question se pose également sur les préjudices réparables. L’IA act tend vers les préjudices les plus importants mais est-ce que le cadre juridique français va permettre la reconnaissance d’autres préjudices ?
Enfin un des enjeux à venir est le problème de l’automatisation de l’IA qui est d’ailleurs le prochain objectif de la société Open AI. L’automatisation indique un tel niveau d’indépendance que les opérateurs soient dans l’incapacité d’influer sur les modèles ni d’expliquer l’origine des réponses du modèle. Il faudra alors se demander si un tel système doit relever des IA à haut risque ou convenir de la création d’un régime de responsabilité sans faute. Il pourrait même être envisagé de consacrer la controversée personnalité robotique.
Ainsi, l’IA aussi passionnante soit-elle continue en se développant de questionner. Elle renouvelle constamment les enjeux qui la concerne et permet de sonder profondément notre système actuel. Par conséquent, l’entrée en vigueur de l’IA act sera a minima la base permettant un encadrement suffisant et adaptable aux Etats membres ou la première pierre d’une véritable révolution juridique.
- Lien 1 : https://www.europarl.europa.eu/topics/fr/article/20200827STO85804/intelligence-artificielle-definition-et-utilisation ↩︎
- Lien 2 : https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_FR.pdf ↩︎
- Lien 3 : https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A52021PC0206 ↩︎
- Lien 4 : https://www.assemblee-nationale.fr/dyn/16/textes/l16b1630_proposition-loi ↩︎
- Lien 5 : https://www.persee.fr/doc/jhydr_0000-0001_2000_act_26_1_5628 ↩︎