Les attaques terroristes menées par le groupe terroriste Hamas en Israël ont fait la une de nombreux journaux du monde entier le 07 octobre dernier, jour du lancer de l’offensive du groupe jihadiste.
Dans le giron de ce conflit, des milliers de vidéos et de photos du conflit ont été simultanément diffusées sur les réseaux sociaux, soulevant d’importants enjeux juridiques. Il n’y avait qu’à ouvrir son fil d’actualité TikTok le samedi matin de l’attaque pour découvrir des vidéos d’otages israéliens emmenés de force à Gaza ou de soldats du Hamas déambulant dans une base israélienne près de Gaza au milieu de corps sans vie de soldats de Tsahal, l’armée israélienne.
Une protection juridique contre les contenus illicites inégale aux Etats-Unis et en Europe
L’irresponsabilité des plateformes aux Etats-Unis
La question de la responsabilité des acteurs d’Internet et notamment les grandes plateformes pour les contenus diffusés sur leur plateforme n’est pas nouvelle. Et elle ne concerne pas que la France, ou l’Union européenne. En effet, dans les arrêts Gonzales v. Google et Twitter v. Tamneh de 2023, la Cour Suprême américaine a rejeté la responsabilité respectivement de Google, moteur de recherche, et de Twitter, réseau social, pour avoir hébergé des contenus terroristes. Elle a donc refusé de considérer ces sociétés comme complice des attentats du 13 novembre 2015 et d’un attentat dans une boîte de nuit à Istanbul. La Cour suprême protège ainsi le principe d’immunité des intermédiaires, affirmé par la section 230 du Communication Decency Act, qui affirme l’irresponsabilité des plateformes et plus généralement de toute personne physique ou morale pour les propos tenus sur interne.
La directive e-commerce, solution pour mettre fin à la propagation des contenus illicites dans l’Union européenne ?
Au sein de l’Union européenne, la situation juridique est bien différente. Friand de règlementer la diffusion de ces contenus illicites, l’Union européenne a adopté le 19 octobre 2022 la directive e-commerce DSA (Digital Service Act) censée entrer en vigueur le 17 février 2024, sauf pour les très grandes plateformes en ligne et les très grands moteurs de recherche devant déjà appliquer la directive européenne depuis le 25 août 2023. Elle apporte un puissant changement concernant la responsabilité des acteurs de l’Internet.
Cette directive tourne autour d’une régulation par les risques. En clair, les obligations qui pèsent sur les intermédiaires internet sont croissantes en fonction des risques de circulations de contenus illicites (contenus violents, terroristes ou encore pédopornographiques) chez un intermédiaire. Selon la définition donnée par le Conseil de l’Europe au Forum sur la gouvernance de l’internet 2022, les intermédiaires internet “désign[ent] habituellement un large éventail, varié et évoluant rapidement, de prestataires de service qui facilitent les interactions sur Internet entre les personnes physiques et les personnes morales“.
Ainsi, des obligations pèsent uniformément sur tous les intermédiaires comme avoir des conditions générales d’utilisations accessibles et claires qui affichent la possibilité que de restrictions soient prises sur une base objective et sans discrimination. L’ensemble des hébergeurs définis par l’article 6-1-2 de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie du numérique ont des obligations spécifiques comme installer des mécanismes permettant de notifier tout contenu illicite de sorte à ce qu’ils puissent être restreints. Des obligations propres aux opérateurs de plateformes en ligne existent également, définis selon l’article L111-7 du Code de la consommation.
Pour autant, au-delà de ces obligations générales, au vu de l’importance considérable de certaines sociétés numériques, la directive a prévu des obligations particulièrement rigoureuses pour les 17 very large online platforms (VLOP) tels que TikTok ou Wikipedia et les 2 very large online search engines, Bing et Google Search, identifiés par la Commission européenne. Ces sociétés ont l’obligation de mettre en place des procédures de détection, de permettre de signaler tout contenu généré ou manipulé apparaissant comme authentique ou digne de foi ou encore la possibilité de la Commission d’exiger de ces plateformes de prendre des mesures d’urgence en cas de contenus de crise menaçant la sécurité publique ou la santé publique de l’Union européenne ou d’un Etat membre.
Le conflit Israël-Hamas, une première illustration importante de la protection nouvelle accordée par le DSA
A la suite d’une propagation massive de vidéos violentes liées à ce conflit sur les réseaux sociaux et les moteurs de recherche, le commissaire européen Thierry Breton a rappeler leurs obligations à plusieurs géants du net et la faculté de voir la responsabilité des grandes plateformes en ligne soulevée en cas de non-respect de leurs obligations. Et la plupart du temps, ces sociétés américaines ou chinoises, collaborent avec l’Union européenne. TikTok a ainsi affirmé avoir supprimé plus de 500 000 vidéos et fermés 8000 diffusions en direct de contenus liés au conflit à l’aide d’organisations de vérifications des informations tels que l’AFP. Il en est de même pour le groupe Meta (Instagram et Facebook) qui affirme avoir supprimé 795 000 contenus illicites. Thierry Breton a en conséquence salué les efforts de ses plateformes dans la lutte contre les contenus illicites, malgré quelques réserves.
Le DSA semble donc efficace ? Eh bien, cela dépend des plateformes. En effet, depuis son rachat par le milliardaire Elon Musk, Twitter renommé X a été remodelé par ce-dernier. Fervent défenseur d’une liberté d’expression quasiment sans limites, le patron de Tesla est assez réfractaire à respecter les obligations lui incombant en vertu du DSA. Face à la réponse évasive du milliardaire et de son réseau social, Thierry Breton a ainsi engagé une procédure d’information formelle, imposant au réseau social de fournir un certain nombre d’informations, sous peines de se voir imposer différentes sanctions, telles que des amendes en cas d’informations inexactes, incomplètes ou trompeuses conformément à l’article 74 paragraphe 2 du DSA. La Commission européenne a ainsi déclaré, le 18 décembre dernier, lancé contre X — l’ex-Twitter — « des procédures formelles d’infraction contre X » qui auront pour objectif notamment de vérifier la conformité du réseau social aux exigences du DSA et porteront sur l’évaluation des risques, les mesures d’atténuation et les mesures prises pour lutter contre la manipulation de l’information et les mesures prises pour accroître la transparence de la plateforme.
Des procédures similaires ont été lancé contre le groupe Meta et Snapchat.
Cette crise, vue par certains comme une véritable épreuve à moins d’un an des élections européennes, a donc eu des conséquences juridiques importantes en droit du numérique.
Succès européen ou non ? L’avenir nous le dira. Mais ce qu’on peut dire aujourd’hui, c’est que la volonté des grandes plateformes, poussée par la nouvelle règlementation européenne, de lutter contre les contenus illicites semblent réels. Alors oui, des progrès sont possibles.
Pour autant, pour un conflit ayant généré selon la société de veille Visibrain, 166 millions de messages sur X, Facebook, YouTube, Instagram et TikTok du 7 octobre 2023 jusqu’au 16 octobre, soit 47% de plus que pour la Coupe du Monde 2022, cette lutte des grandes plateformes contre les contenus illicites constitue un joli succès européen.