LES PLATEFORMES EN LIGNE ET LA LIBERTE D'EXPRESSION

Les plateformes en ligne, aussi communément appelées « réseaux sociaux », ont un rôle majeur et systémique dans la diffusion de l’information. A ce titre, ils sont des acteurs incontournables du débat démocratique. Or, ces plateformes demeurent des acteurs privés, régis à ce titre par leurs conditions d’utilisation, qui fixent très strictement les informations et les idées qui y sont tolérées. De cette manière, de nombreux contenus et comptes d’utilisateurs se trouvent censurés, particulièrement en cette période de crise sanitaire. Cette censure est-elle légale ? Peut-elle être contestée ? C’est l’objet des développements qui suivent.  

 I. Les plateformes en ligne sont régies par leurs conditions générales d’utilisation

 

   i. De manière générale, les plateformes en ligne sont des hébergeurs

En l’état actuel du droit, les réseaux sociaux et les plateformes de partage de contenus sont des « hébergeurs », au sens de la directive 2000/31/CE[1].

L’hébergeur n’est en principe qu’un intermédiaire technique qui offre une plateforme se limitant à héberger des contenus fournis par des tiers pour leur diffusion sur le Web ; contrairement aux médias qui, eux, sont des « éditeurs », et sont donc soumis au droit de la presse et aux responsabilités qui en découlent. 

Le statut d’hébergeur implique une responsabilité très limitée : il ne doit contrôler, et retirer, que les contenus illicites (c’est-à-dire illégaux).

 

En conclusion, les hébergeurs stricto sensu ont une obligation peu contraignante de modération des contenus illicites.

 

 ii. Néanmoins, et au-delà de leurs obligations légales, les plateformes modèrent les contenus qu’elles hébergent en appliquant leurs conditions générales d’utilisation

 

 

Les règles qui régissent l’usage des plateformes sont définies dans des conditions générales d’utilisation, que chaque utilisateur accepte au moment de son inscription sur la plateforme. L’ensemble du contenu publié par l’ensemble des utilisateurs est donc soumis aux règles définies en interne, par la plateforme elle-même.

 

Généralement, l’utilisateur consent en cochant une case virtuelle.

 

Chaque plateforme dispose de ses propres conditions générales d’utilisation. Ces dernières peuvent être modifiées à tout moment.  

 

   iii. Le contexte juridique actuel concernant la régulation des plateformes

 

En France, un arsenal juridique a été développé pour lutter contre les fausses informations (loi du 22 décembre 2018[2]) et contre la haine en ligne (loi dite « Avia » du 24 juin 2020[3]). Toutefois, les plateformes demeurent à ce jour relativement peu régulées, le Conseil Constitutionnel ayant émis des réserves sur la loi « fake news »[4] et ayant censuré des pans entiers de la loi Avia[5], considérant que les atteintes portées à la liberté d’expression n’étaient pas proportionnées. 

 

Au niveau européen, cependant, la réglementation est en passe d’être modifiée. La Commission européenne a publié, le 15 décembre 2020, les projets de règlements Digital Services Act (DSA) et Digital Markets Act (DMA)[6], textes appelés à doter l'Union européenne d'un nouveau cadre de responsabilité pour les plateformes numériques. 

 

L'objectif de la Commission est de parvenir à l'adoption de ces textes début 2022, après leur examen par le Parlement européen et les États membres, conformément à la procédure législative ordinaire.

 

Concrètement, la législation sur les services numériques (DSA) introduira dans l'ensemble de l'UE une série de nouvelles obligations harmonisées pour les services numériques, qui seront modulées en fonction de la taille et de l’impact des opérateurs numériques. Par exemple : des règles en vue de la suppression de biens, services ou contenus illicites en ligne ; des garanties pour les utilisateurs dont un contenu a été supprimé par erreur par une plateforme. 

 

Il est également envisagé que des codes de conduite soient élaborés, notamment dans le domaine de la désinformation. Les plateformes s’engageraient, sur invitation de la Commission, à appliquer ces codes de conduite.  

 

II. Contester la suppression d'un compte et/ou d'un contenu par une plateforme

 

  i. Déterminer le tribunal compétent

 

L’une des premières difficultés à résoudre lorsque l’on cherche à assigner une plateforme réside dans l’identification de la juridiction à saisir. En effet, la plupart de ces plateformes sont domiciliées aux États-Unis et précisent, dans leurs conditions générales d’utilisation, que seules les juridictions américaines sont compétentes pour examiner une demande contentieuse. 

 

Face à ces clauses attributives de compétence, les juridictions françaises ont déjà été saisies. Elles ont, à plusieurs reprises, dans des affaires concernant Facebook, déclaré ces clauses abusives et donc réputées « non écrites ». Elles sont alors inopposables à l’utilisateur victime de la désactivation de son compte personnel[7].

 

Ainsi, il a été jugé que les utilisateurs de Facebook peuvent parfaitement se prévaloir de l’ensemble des dispositions protectrices du droit français de la consommation à l’encontre de la société Facebook, même si cette dernière a son siège social aux Etats-Unis.

 

  ii. Une contestation fondée sur la liberté d’expression

 

En France, il pourrait être envisageable de développer un argumentaire juridique afin de soutenir que la liberté d’expression s’applique aux hébergeurs. L’objectif de cet argumentaire est de démontrer que l’atteinte portée par les plateformes à la liberté d’expression n’est pas proportionnée. 

 

  a) Le principe : la liberté d’expression 

En premier lieu, il convient de rappeler que la liberté d’expression est le principe, et la restriction l’exception. Ce principe est protégé par le droit constitutionnel[8] et le droit européen[9]. 

 

La liberté d'expression est en effet considérée comme l'un des fondements de la société démocratique par la Cour européenne des droits de l'homme et, par là même, comme l'un des fondements de sa jurisprudence. La liberté d’expression est interprétée de manière large par la Cour : « Elle vaut non seulement pour les informations ou les idées accueillies avec faveur, ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’Etat ou une fraction quelconque de la population » (CEDH, Handyside c/ Royaume-Uni, 7 décembre 1976).

 

 b) Les exceptions au principe : la liberté d’expression peut être limitée 

La liberté d'expression n'est pas un droit absolu, car elle est susceptible de limitations. Les atteintes à la liberté d’expression doivent cependant faire l’objet d’un contrôle de proportionnalité.

 

De manière générale, il ne peut être porté atteinte à la liberté qu’en cas d’abus prévu par la loi.

 

Plusieurs textes prévoient des limites à la liberté d’expression, dont la loi de 1881 relative à la liberté de la presse, laquelle définit notamment les infractions d’injure, de diffamation, et de provocation ; le code civil ; ou encore le code pénal. 

 

C’est dans ce cadre-là que les plateformes ont la responsabilité de supprimer des contenus illicites.

 

c) Les plateformes pratiquent une modération des contenus qui n’est ni nécessaire ni proportionnée 

 

Les plateformes, compte tenu de leurs caractéristiques et de leur rôle dans la société, restreignent la liberté d’expression de manière abusive. Leur liberté contractuelle doit être mise en balance avec les autres libertés fondamentales. 

 

Tout d’abord, des arguments procéduraux pourraient être soulevés. Les décisions de censure des contenus postés par les utilisateurs interviennent généralement de manière abrupte, unilatérale, sans motivation et sans aucune possibilité pour l’utilisateur censuré de contester la décision dont il fait l’objet. 

 

Ensuite, si cette situation est conforme à leur liberté d’entreprendre et à leur liberté contractuelle, ces acteurs jouent de facto un rôle majeur dans l’accès à l’information et l’exercice de la liberté d’expression. Ces plateformes de réseaux sociaux sont en effet devenues « systémiques » par le nombre d’utilisateurs qu’elles touchent, et sont, par le biais de leurs algorithmes et politiques de référencement, des acteurs incontournables de l’information des citoyens européens. Elles se trouvent ainsi au cœur du jeu démocratique. A ce titre, leur devoir de régulation, attaché à leur qualité d’hébergeurs théoriquement neutres, ne peut aller au-delà des obligations légales de modération des contenus illicites. 

 

De manière plus générale, l’application du droit des contrats en général et du contrat d’adhésion à la plateforme en particulier n’est pas détachée des droits fondamentaux. Une conciliation des deux logiques, parfois concordantes, parfois discordantes, est alors nécessaire. L’arrêt Herbai[10] en fournit une parfaite illustration. 

 

La liberté contractuelle et ses déclinaisons s’exercent ainsi normalement dans les limites fixées par la loi et sans pouvoir déroger aux règles intéressant l’ordre public, précise l’article 1102 du Code civil. Au-delà, elle est également placée sous l’influence ambivalente des droits fondamentaux, qui la renforcent autant qu’ils la disciplinent[11].

 

En France, le droit applicable actuellement pourrait vraisemblablement permettre de faire sanctionner de telles violations des principes démocratiques par les plateformes. 

 

  iii. Une contestation fondée sur la qualification d’éditeur

 

La qualification juridique d’ « éditeur » ou d’ « hébergeur » est essentielle d’un point de vue juridique.

 

Les réseaux sociaux se trouvent en effet à la frontière de la définition de l’éditeur, puisque ce sont eux qui, avec leurs algorithmes et leurs politiques de référencement mettent en avant certains contenus plutôt que d’autres. Comme nous l’avons vu, ils contrôlent aussi largement les contenus dont ils permettent la diffusion, par le biais de leurs conditions générales d’utilisation. Il serait ainsi tout à fait envisageable de soutenir qu’ils disposent à ce titre d’une « ligne éditoriale ». En outre, comme déjà mentionné, les réseaux sociaux étant devenus « systémiques », ils sont des acteurs incontournables de l’information des citoyens européens et se trouvent ainsi au cœur du jeu démocratique, au même titre que les médias « traditionnels ». 

 

Ainsi, il pourrait être intéressant de chercher à faire requalifier les plateformes en ligne en éditeurs.

 

Les hébergeurs sont en principe irresponsables du contenu qu’ils hébergent : ils n’engagent leur responsabilité que s’ils ne suppriment pas un contenu manifestement illicite dont ils ont connaissance. Au contraire, les éditeurs, qu’ils soient ou non professionnels, sont par principe responsables du contenu qu’ils diffusent, sauf preuve contraire. Entre les éditeurs et les hébergeurs, le régime de responsabilité est donc inversé.

 

Ce régime de responsabilité découle de la loi de 1881 qui prévoit plusieurs types d’infractions : diffamation, injures, information policière et judiciaire, refus du droit de réponse, etc. D’autres sources de responsabilité se trouvent dans le droit pénal et le droit civil : c’est par exemple le cas de la protection de la vie privée, ou encore de la réglementation de la publicité. 

 

L’avantage de cette requalification serait de faire peser sur les plateformes en ligne le lourd régime de responsabilité des éditeurs. De cette manière, les plateformes, si elles veulent garder leur statut d’hébergeur et les obligations minimales qui en découlent, seraient incitées à ne pas avoir des conditions générales d’utilisation trop restrictives s’apparentant in fine à une ligne éditoriale. 

 

  iv. Une contestation fondée sur le droit de la consommation : des déséquilibres importants dans le contrat d’adhésion

 

C’est le droit de la consommation qui permet d’appréhender les rapports de pouvoir entre les plateformes et leurs usagers. 

 

Les contrats proposés par les plateformes sont en effet des contrats d’adhésion, l’adhésion s’effectuant au terme d’un processus de simple clic pour accepter les conditions générales d’utilisation ; soit par la seule navigation, autrement dit, la simple utilisation du réseau. 

 

En France, la Commission des clauses abusives a, en 2014, consacré une recommandation aux contrats proposés par les fournisseurs de services de réseaux sociaux[12].  

 

Dans une autre affaire, devant la Cour d’Appel de Paris du 12 février 2016[13], un plaignant a mené avec succès une bataille judiciaire contre le célèbre réseau social Facebook. 

 

En France toujours, la jurisprudence a également donné lieu à des jugements sévères envers les plateformes, dont les CGU étaient composées de nombreuses clauses abusives. C’est ainsi par exemple que le Tribunal de grande instance de Paris a condamné Twitter dans une procédure qui l’opposait à l’association de consommateurs UFC Que Choisir pour l’utilisation de 256 clauses abusives ou illicites dans ses conditions générales[14]. 

 

Surtout, au niveau européen, les pratiques des plateformes interrogent au regard de la protection des consommateurs. La Commission a par exemple dû enjoindre, au mois de mars 2017[15], à plusieurs réseaux sociaux – dont Facebook et Twitter - de mettre leurs conditions d’utilisation en conformité avec le droit européen des consommateurs. La Commission européenne, ainsi que les autorités nationales de protection des consommateurs, entendent en particulier voir appliquer les dispositions issues de la directive concernant les clauses abusives dans les contrats conclus avec les consommateurs du 5 décembre 1993[16]. Deux clauses cristallisaient ainsi les inquiétudes de la Commission : celle permettant à l’opérateur de la plateforme de s’exonérer de tout ou partie de sa responsabilité ; tandis que la seconde confère au réseau social la faculté de disposer de prérogatives unilatérales de modification du contrat[17]. 

 

Enfin, il convient de noter que la directive 93/13/CEE a été modifiée par la directive 2019/2161[18]. Cette nouvelle directive envoie un message fort aux plateformes en permettant aux États membres de prononcer des sanctions en cas d’infraction au droit de la consommation pouvant atteindre 4% du chiffre d’affaires réalisé par le professionnel dans l’ensemble des États membres concernés. Cette directive illustre ainsi l’engagement de l’Union Européenne contre la présence de clauses abusives dans les contrats d’adhésion sur internet. 


[1] Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»)

[2] LOI n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information

[3] LOI n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet

[4] Décision n° 2018-773 DC du 20 décembre 2018

[5] Décision n° 2020-801 DC du 18 juin 2020

[6] Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (législation sur les services numériques) et modifiant la directive 2000/31/CE

[7] Cour d’Appel de Pau, 23 mars 2012, n°12/1373 et TGI Paris, 4ème chambre-2ème section, ordonnance du juge de la mise en étant, 5 mars 2015

[8] Article 11 de la Déclaration des droits de l’Homme et du citoyen

[9] Article 10 de la Convention européenne des droits de l’Homme. 

[10] CEDH, 4e sect., 5 nov. 2019, n° 11608/15, Herbai c/ Hongrie

[11] Pour un autre exemple, voir l’arrêt récent : CEDH, 5e sect., 5 nov. 2019, no 15271/16 et 6 autres, Baldassi et a. c/ France

[12] Recommandation CCA n°2014-02 du 07 novembre 2014

[13] CA Paris, 12 février 2016, n°15/08624

[14] TGI Paris, 7 août 2018, UFC Que Choisir c/ Twitter

[15] Communiqué de presse, « La Commission européenne et les autorités de protection des consommateurs des États membres demandent aux entreprises de médias sociaux de se conformer au droit des consommateurs de l'UE », 17 mars 2017, IP/17/631

[16] Directive 93/13/CEE

[17] AJ contrat 2018, p.521, Mise en conformité des conditions générales de Facebook, la Commission européenne s’impatiente, Faustine Jacomino, Docteur en droit

[18] Directive (UE) 2019/2161 du Parlement Européen et du Conseil du 27 novembre 2019 modifiant la directive 93/13/CEE du Conseil et les directives 98/6/CE, 2005/29/CE et 2011/83/UE du Parlement européen et du Conseil en ce qui concerne une meilleure application et une modernisation des règles de l’Union en matière de protection des consommateurs