Article très intéressant sur la "Loi anti-haine" portée par la mordeuse de taxi Laetitia #Avia.
En résumé tout propos sera interdit, sauf ceux qui flattent #Macron.
Dérive totalitaire très inquiétante de la France, qui se rapproche de la #Chine communiste.
Napoléon@tprincedelamour, Jul 5
Haine en ligne : ce que contient la proposition de loi
examinée par l’Assemblée
De nouvelles obligations vont peser sur les réseaux sociaux,
chargés de faire disparaître certains contenus haineux, sous peine
d’importantes sanctions.
Par Martin
Untersinger Publié hier à 13h39, mis à jour à 06h37
Les députés ont achevé, dans la nuit du jeudi 4 au
vendredi 5 juillet, l’examen de la proposition de loi contre la haine sur
Internet. Elle sera formellement adoptée mardi 9 juillet. Ce texte,
lorsqu’il sera définitivement adopté (après au minimum un passage au Sénat),
pourrait avoir des conséquences très concrètes pour tous les internautes.
N’importe qui pourra effectivement porter à la connaissance
d’un réseau social public ou d’un moteur de recherche un contenu haineux que la
plate-forme devra supprimer dans les vingt-quatre heures.
- Quels
contenus pourront être signalés ?
On ne pourra pas signaler n’importe quel message. Le texte
définit une liste précise de contenus interdits par divers articles de la loi
française pour lesquels ce délai de vingt-quatre heures s’appliquera.
Il s’agit :
- des messages incitant à commettre des actes
terroristes ;
- des messages faisant l’apologie du terrorisme, des crimes
de guerre ou des crimes contre l’humanité ;
- des messages injurieux, incitant à haïr, à discriminer ou
à commettre des violences sur des personnes en fonction de leur sexe, de leur
orientation sexuelle, de leur identité de genre, de leur handicap, de leur
ethnie, de leur nationalité, de leur « race » ou de leur
religion ;
– des messages constitutifs de harcèlement sexuel ;
– des messages relevant du proxénétisme ou de la traite des
êtres humains ;
– des contenus pédopornographiques ;
– des messages violents, pornographiques, portant gravement
atteinte à la dignité humaine ou incitant des mineurs à se livrer à des jeux
les mettant physiquement en danger susceptibles d’être vus par des mineurs.
Ainsi, les insultes visant les personnes noires ou juives
tombent sous le coup de la loi. Ce qui n’est pas le cas d’insultes simples (« casse-toi,
pauvre con ») ou d’appels à la violence contre, comme l’auraient
souhaité certains députés, les agriculteurs. Cela ne signifie pas que ces
contenus sont légaux ou qu’ils sont nécessairement acceptés par les réseaux
sociaux, mais simplement que le dispositif de la nouvelle loi ne s’y applique
pas.
Par ailleurs, il faut que le message signalé
soit « manifestement illicite », c’est-à-dire qu’il n’y
ait aucun doute possible sur son caractère illégal. Le gouvernement et la
majorité assument parfaitement de ne pas viser tous les messages problématiques
ou illégaux, mais simplement les pires. Certains députés craignent tout de même
un risque de surcensure, car il est très difficile de distinguer ce qui est
manifestement illicite ou non. Même pour un juge : la Cour de cassation a
par exemple estimé que dire « l’homosexualité est une
abomination » n’était pas une incitation directe à la violence en
raison de son orientation sexuelle…
- Quels
services en ligne seront concernés ?
La loi ne mentionne pas nommément les services en ligne qui
devront retirer ces contenus sous vingt-quatre heures, mais dégage deux
catégories : les sites qui permettent à leurs utilisateurs de poster des
messages publiquement à destination d’autres utilisateurs (les réseaux
sociaux), et les moteurs de recherche (Google, Bing, Qwant…).
Un décret précisera les critères de taille (nombre de connexions,
nombre d’utilisateurs…) nécessaires pour rentrer dans le champ de la loi.
L’idée est de soumettre à ce dispositif les principaux réseaux sociaux
(YouTube, Instagram, Twitter et Facebook). Le débat ne semble pas être tranché
pour certains autres, comme TikTok ou Snapchat. De même, le gouvernement
pourrait rédiger le décret de manière à intégrer les espaces discussions de
certains sites Internet, comme jeuxvideo.com, souvent pointés du
doigt pour des problèmes de haine en ligne.
- Qui
peut signaler ?
N’importe quel internaute trouvant un contenu « manifestement
illicite » pourra le signaler. Il lui suffira de fournir son nom,
son prénom et son adresse e-mail (sauf si le réseau social sur lequel il est
inscrit dispose de ces informations, auquel cas il ne doit rien fournir de
plus) et les raisons pour lesquelles il demande le retrait de ce contenu.
Signaler des contenus de mauvaise foi, en sachant qu’ils ne sont pas
manifestement illicites, sera passible d’un an d’emprisonnement et de
15 000 euros d’amende.
Il est très probable que certains réseaux sociaux intègrent
ce dispositif de signalement à ceux qui existent déjà et qui permettent de leur
notifier des contenus contraires à leurs règles internes (bouton
« Signaler ce tweet » par exemple). De fait, le signalement que
prévoit la loi est, sur la forme, très proche de ce que tous les réseaux
sociaux ont mis en place ces dernières années.
Les mineurs pourront mandater une association spécialisée
pour signaler à leur place les contenus.
- Que
se passe-t-il une fois qu’un contenu est signalé ?
D’abord, le fameux délai de vingt-quatre heures
s’enclenche. La plate-forme doit accuser réception de ce signalement.
Ensuite, si le message ou le contenu est manifestement
illicite, il est supprimé ou, dans le cas des moteurs de recherche,
déréférencé. Un message indiquant qu’il a été supprimé doit apparaître à sa
place.
Une fois sa décision prise, le réseau social doit avertir
l’internaute qui a notifié ainsi que l’auteur du contenu (quand il le peut) de
sa décision et des raisons qui y ont présidé. Il doit aussi leur fournir un
moyen de « faire appel » de cette décision, quelle qu’elle soit.
La plate-forme numérique doit ensuite informer la personne
qui a signalé le contenu des options judiciaires qui s’offrent éventuellement à
elle et sur les moyens de se faire accompagner (par une association par
exemple).
Le réseau social doit également informer la personne qui a
écrit le message des éventuels recours judiciaires ou internes dont elle
dispose, mais aussi des risques judiciaires à poster des contenus haineux.
Lire aussi Loi
contre la cyberhaine : la députée Laetitia Avia et Twitter affichent un
objectif commun
En cas de suppression, il doit conserver le message supprimé
pour les futures enquêtes judiciaires. Il doit également informer « promptement
les autorités publiques compétentes de toute activité » haineuse
signalée par ses utilisateurs, sans que l’on sache très bien si la justice sera
saisie de tous les contenus signalés et supprimés.
Enfin, les plates-formes doivent empêcher la rediffusion du
contenu. Les députés ont adopté un amendement en ce sens tard dans la nuit et
sans grand débat : ses conséquences, notamment s’il va déboucher sur une
liste de contenus « précensurés », ne sont pas claires à ce stade.
- A
quoi s’expose le réseau social ?
D’abord, s’il refuse à tort de supprimer un contenu, ou s’il
le fait trop tard, il est possible de se retourner contre lui. Il s’agit d’un
délit pénal et d’une procédure judiciaire classique. Le représentant du réseau
social ou du moteur de recherche encourt une peine d’un an d’emprisonnement et
de 250 000 euros d’amende (qui pourra être portée à 1,25 million
d’euros dans le cas d’une personne morale). Les associations spécialisées dans
la lutte contre les contenus haineux pourront se porter partie civile lors de
ce procès.
Outre ce volet pénal, le réseau social s’expose à des
sanctions administratives, infligées par le Conseil supérieur de l’audiovisuel
(CSA). Elles sont plus lourdes, jusqu’à 4 % du chiffre d’affaires mondial,
mais sont plus difficiles à mobiliser. Pour cela, il faut que le CSA vérifie si
le réseau social ou le moteur de recherche s’est conformé à un certain nombre
d’obligations.
- Les
obligations des plates-formes numériques
Le CSA ne va pas sanctionner un réseau social dès que ce
dernier ne supprime pas, à tort, un contenu. Il va plutôt s’assurer que réseaux
sociaux et moteurs de recherche respectent de grands principes et obligations
généraux. Certaines obligations, évoquées plus tôt, concernent les informations
données aux utilisateurs qui signalent des contenus ou sont les auteurs des
contenus signalés.
Réseaux sociaux et moteurs de recherche devront aussi
proposer un dispositif de signalement « directement accessible et
uniforme » : cela pourra être inséré dans les formulaires de
signalement de contenus qui existent déjà chez tous les réseaux sociaux.
Ils devront aussi mettre en œuvre des procédures, des moyens
humains et/ou technologiques pour traiter correctement les demandes : à la
fois pour se conformer au délai de vingt-quatre heures pour les contenus
haineux mais aussi pour éviter tout retrait abusif. A noter que s’ils encourent
une forte amende, voire de la prison, pour ne pas avoir supprimé un contenu,
ils n’encourent rien sur le front pénal pour avoir supprimé à tort.
Les réseaux devront expliquer clairement ce que les
utilisateurs risquent à publier des contenus haineux, la manière dont ils
modèrent les contenus, les moyens dont ils disposent et les outils qu’ils
utilisent pour cela. Le CSA décidera de ce qui, dans cette liste, est rendu
public ou non.
Les plates-formes numériques devront aussi communiquer les
résultats obtenus dans la lutte contre les contenus haineux et s’adresser
directement aux mineurs de moins de 15 ans, au moment où ces derniers
créeront un compte, pour les sensibiliser aux risques de poster des contenus haineux.
Elles devront également désigner un représentant légal
physique et formuler « en termes précis, aisément compréhensibles,
objectifs et non discriminatoires » les règles qui définissent ce
que les utilisateurs ont le droit, ou non, de poster sur leurs réseaux. Enfin,
elles devront coopérer entre elles pour mieux lutter contre les contenus
haineux, sans que cette coopération soit précisément définie par la loi.
- Le
rôle du CSA
Le Conseil supérieur de l’audiovisuel disposera d’un rôle
central dans le contrôle de la liberté d’expression sur Internet.
Il formulera des recommandations, des bonnes pratiques et
des lignes directrices aux réseaux sociaux et moteurs de recherche pour qu’ils
se conforment bien aux règles, notamment de suppression sous
vingt-quatre heures des contenus haineux, et il ira chercher toute
information nécessaire pour pouvoir le contrôler.
Lire aussi L’Allemagne
a déjà fait une loi pour lutter contre la haine en ligne, son efficacité est
incertaine
Il publiera un bilan de son action chaque année.
Il pourra surtout activer une importante procédure de
sanction, pouvant aller jusqu’à 4 % du chiffre d’affaires mondial de
l’entreprise sanctionnée. Pour cela, le CSA se posera plusieurs
questions : l’entreprise a-t-elle bien suivi mes recommandations concernant
ses diverses obligations, a-t-elle suffisamment bien respecté l’obligation de
retrait, a-t-elle supprimé trop de contenus à tort ?
Après une mise en demeure, et si cette dernière reste sans
effet, la sanction de 4 % pourra intervenir.
- Un
maigre volet judiciaire
La proposition de loi a également fait rentrer dans le droit
quelques éléments liés au traitement judiciaire des contenus haineux en ligne.
Trop peu, selon ses opposants.
Elle permet la création par exemple d’un parquet
spécialisé : toutes les plaintes visant les contenus haineux seront
traitées, en première intention, par ce parquet spécialisé, doté de moyens plus
importants et de magistrats spécialement formés. Il sera désigné après entrée
en vigueur de la loi par le ministère de la justice. Ce parquet procédera aux
premiers actes d’enquête, notamment les réquisitions aux réseaux sociaux, afin
d’identifier l’auteur des propos. Ensuite, deux solutions. Soit il s’agit
d’actes isolés, simples, et la procédure sera redirigée vers les parquets du
domicile de l’auteur présumé. Soit il s’agit d’actes groupés, menés depuis
plusieurs points du territoire, ou d’actes complexes et graves, et le parquet
spécialisé conservera l’enquête.
Le parquet spécialisé pourra également traiter les injures
non publiques (envoyées par e-mail, message privé Twitter, message WhatsApp…)
lorsqu’une plainte contre ces faits aura été déposée en ligne (un mécanisme qui
sera disponible au premier semestre 2020).
La loi prévoit aussi que désormais les juges puissent
interdire à des individus condamnés ou sous contrôle judiciaire de communiquer
électroniquement avec leur victime.
- Bloquer
les contenus déjà jugés
Si un contenu haineux a été jugé par la justice comme étant
illégal, alors l’autorité administrative (par exemple la police) pourra demander
à l’hébergeur de supprimer et/ou de déréférencer ce contenu, voire aux
fournisseurs d’accès à Internet de bloquer tout un site Internet, sans passer
de nouveau par la case justice. Cette disposition est clairement inspirée par
la décision de blocage prise
à l’endroit du site Démocratie participative, qui est rapidement revenu en
ligne sous une autre adresse que celle qui avait été bloquée.
Enfin, un « observatoire de la haine en ligne »
regroupant entreprises du numérique, associations et chercheurs pour observer
le phénomène des messages haineux sur Internet, sera créé. Chaque année, le
gouvernement présentera un rapport sur la manière dont fonctionne cette
nouvelle loi.
Aucun commentaire:
Enregistrer un commentaire