
https://ibloga.blogspot.com/2017/05/dont-fuck-wit-ma-peeps-from-heat-street.html

Facebook bannit les comptes de plusieurs personnalités
d’extrême-droite «dangereuses»
Après avoir interdit les
contenus faisant l’apologie du nationalisme ou du séparatisme blanc suite à
l’attentat de Christchurch, Facebook a annoncé hier la suppression définitive
de sept comptes haineux sur la plateforme éponyme et sur son réseau social
Instagram.
Lire la suite : http://www.lefigaro.fr/secteur/high-tech/facebook-bannit-les-comptes-de-plusieurs-personnalites-d-extreme-droite-dangereuses-20190503
Facebook continue sur sa lancée
et prend davantage de mesure contre les contenus haineux. Jeudi soir, la firme
de Mark Zuckerberg a annoncé la suppression des comptes de sept personnalités
américaines jugées comme des «individus et organismes dangereux» sur le célèbre
réseau social. Elles sont également bannies d’Instagram, l’application de
photos et de vidéos de Facebook.
La liste comprend des figures
d’extrême droite bien connues des réseaux sociaux aux États-Unis telles Louis
Farrakhan, qui prône le séparatisme noir et avait qualifié les personnes de
confession juive de «termites», ou encore le fondateur du site Infowars, Alex
Jones, connu pour propager des théories du complot. Il estime notamment que la
tuerie de l’école de Sandy Hook, qui a fait 28 morts (dont de nombreux enfants)
en 2012, est une manipulation du gouvernement américain. Ce dernier avait déjà
été banni de Facebook l’année dernière mais nombreuses de ses pages étaient
restées actives. Il disposait également d’un compte sur Instagram. Facebook
précise que tous comptes, pages, groupes et événements associés au nom des
personnes bannies seront également supprimés: par exemple, sur Facebook, la
page officielle du site Infowars n’est plus disponible.
Dilemmes et cafouillage
«Nous avons toujours interdit les
individus ou organisations qui promeuvent ou se livrent à la violence et à la
haine, quelle que soit l’idéologie» a indiqué le réseau social. Pourtant, si la
violence et la haine sont bien interdites par les règles de Facebook, ce
dernier peine à appliquer une modération efficace sur le sujet. Dernière
polémique en date: l’attentat de Christchurch, où un suprémaciste blanc a tué
cinquante personnes dans deux mosquées, en Nouvelle-Zélande. L’attaque avait
été filmée puis diffusée en direct sur Facebook. Le géant du numérique avait
alors été vivement critiqué: il avait fallu un certain temps avant que la vidéo
et toutes ses copies soient supprimées du réseau social. Face à ces problèmes
de modération, le 27 avril, Facebook
annonçait l’interdiction des contenus faisant l’apologie du nationalisme
blanc ou du séparatisme blanc sur son réseau social ainsi que sur Instagram.
Avec le bannissement de ces sept
personnalités très controversées, Facebook souhaitait frapper un grand coup.
Néanmoins, le réseau social a été victime d’un gros cafouillage: lors de
l’officialisation de sa décision, relayée par plusieurs médias prévenus en
avance, les comptes concernés n’étaient en fait pas encore supprimés. Laissant
le temps aux personnes en questions de prévenir leurs abonnés. «Je m’apprête à
être banni. S’il vous plaît, inscrivez-vous à liste de diffusion (lien dans la
description de mon profil) avant que mon compte disparaisse», a par exemple
écrit Milo Yiannopoulos, figure de «l’alt-right», un mouvement américain
d’extrème-droite.
Facebook effectively gave these folks a heads up. In response to his ban, Milo
got this up... on Instagram. pic.twitter.com/fSFcebvOjX
La modération de la haine n’est
pas seulement un sujet délicat pour Facebook: c’est le cas pour toutes les
plateformes en ligne. Dans une longue enquête publiée le 25 avril
dernier, le site américain Motherboard révélait par exemple les difficultés rencontrées par
Twitter pour supprimer les contenus liés au suprémacisme blanc.
De son côté, pour savoir quels contenus supprimer après les attentats de
Christchurch, Facebook
a expliqué avoir fait appel à une vingtaine d’experts pour comprendre les
concepts de suprémacisme, de nationalisme et de séparatisme. La modération
est définitivement un sujet compliqué.
La rédaction vous conseille
- Après
l’attentat de Christchurch, Facebook interdit l’apologie du nationalisme
blanc
- Peut-on
accuser Facebook de censurer ou d'amplifier le mouvement des «gilets
jaunes»?
- Banni
par Facebook, Alex Jones a trouvé le moyen de relayer ses discours sur le
rése
Après l’attentat de Christchurch, Facebook interdit
l’apologie du nationalisme blanc
Par Kesso Diallo Mis
à jour le 28/03/2019 à 14:49 Publié le 28/03/2019 à 14:49
Après avoir interdit le
suprémacisme blanc sur sa plateforme, Facebook a décidé d’étendre son
interdiction au nationalisme et au séparatisme.
Facebook va plus loin pour
endiguer les propos haineux. Dès le 1er avril, les contenus faisant l’apologie
du nationalisme blanc ou du séparatisme blanc seront interdits sur le réseau
social et sur Instagram (dont Facebook est aussi propriétaire). Le géant du
numérique l’a annoncé mercredi 27 mars au site Motherboard, soit quelques jours après l’attentat de
Christchurch, où un terroriste d’extrême droite a tué une cinquantaine de
personnes dans deux mosquées en Nouvelle-Zélande.
Le suprémacisme blanc déjà
interdit sur Facebook
Cette décision a été prise après
que Facebook ait consulté une vingtaine d’experts sur les trois concepts que
sont le suprémacisme, le nationalisme et le séparatisme. «Nous avons estimé que
les points communs entre le nationalisme blanc, le séparatisme blanc et le
suprémacisme blanc sont tellement importants qu’il est impossible de les
distinguer sérieusement. Et ce, parce que le langage et la rhétorique utilisés
et l’idéologie qu’ils représentent se chevauchent tellement qu’on ne peut pas
les distinguer». Par ailleurs, Facebook a annoncé que les utilisateurs
effectuant des recherches liées à ces thèmes seraient redirigés vers le site de
l’association Life After Hate («La Vie après la Haine»). Cette dernière a été
fondée par Arno Michaellis, un ancien suprémaciste blanc luttant désormais
contre l’extrémisme et la violence.
Facebook interdisait déjà le
suprémacisme blanc sur sa plateforme, mais il tolérait le nationalisme et le
séparatisme. L’année dernière, Motherboard avait obtenu des documents internes
au géant où celui-ci indiquait que le nationalisme blanc «ne semble pas
toujours associé au racisme (du moins pas explicitement)». Ces trois concepts
se chevauchent, mais ils sont sensiblement différents. Le nationalisme ne prône
pas la supériorité des Blancs, mais leurs intérêts, contrairement au
suprémacisme. Le séparatisme, lui, correspond à une volonté de séparer les
Blancs des autres, avec un État qui leur serait exclusivement réservé.
Facebook a souvent été critiqué
pour sa politique de modération. Cette
dernière est jugée inégale. Sur le sujet du terrorisme islamique, le réseau
social a fait de nombreux efforts, éradiquant la majorité des contenus de
propagande de ce type de ses pages. Néanmoins, d’autres publications violentes,
notamment ayant trait à l’extrême droite, mais aussi au harcèlement ou aux
discours racistes, sexistes, homophobes ou antisémites, ne sont pas toujours
modérées de la même manière, faute de règles claires et de moyens de contrôle
efficaces.
La rédaction vous conseille
- Pourquoi
a-t-on oublié les modérateurs?
- Une
semaine après la tuerie de Christchurch, la Nouvelle-Zélande rend hommage
aux victimes
- Peut-on
accuser Facebook de censurer ou d'amplifier le mouvement des «gilets jaune
Banni par Facebook, Alex Jones a trouvé le moyen de relayer
ses discours sur le réseau
Par Harold Grand Publié le
06/11/2018 à 18:47
Le conspirationniste américain
Alex Jones n'a, en théorie, plus aucun moyen de diffuser ses discours de haine
sur Facebook. Pourtant, ses soutiens continuent de diffuser ses messages sur le
réseau social.
L'été dernier, plusieurs grandes
entreprises numériques américaines avaient fait d'Alex Jones une persona non
grata du numérique. Lui et son site d'information Infowars, souvent qualifié de
complotiste, avaient été bannis simultanément de YouTube (où le compte InfoWars
comptabilisait 1,5 milliard de vues cumulées), Apple, Spotify, Pinterest,
LinkedIn et bien sûr Facebook (Twitter n'avait pris la même décision que
plusieurs semaines après).
Dans le détail, les vidéos de quatre comptes siglés «Infowars» ont été
supprimées du réseau social de Mark Zuckerberg et les pages de tous ses comptes
ont été supprimées. Des millions d'abonnés s'étaient alors plaints de ce qu'ils
qualifiaient de tentative de censure politique des opinions de l'alt-right
(mouvement apparenté à l'extrême droite aux États-Unis).
Quelques mois plus tard, les
aficionados du conspirateur américain ont trouvé un autre moyen de se retrouver
sur le réseau social. Selon une récente enquête du Washington Post, une autre page Facebook
appelée NewsWars affiliée au site web NewsWars.com, lui-même contrôlé par Alex
Jones, les rassemble. Depuis le mois d'août, les vidéos postées sur le compte
Facebook de NewsWars ont cumulé près de 4 millions de vues selon les calculs du
chercheur spécialisé dans les médias sociaux Jonathan Albright, membre de
l'université américaine de Columbia. Dans le détail, 52 photos, 1.400 liens,
1.100 vidéos Facebook et 13 vidéos venant de YouTube ont été partagés sur la
page, selon lui.
Stratégie de la transparence
Cette résurgence de contenus
indésirables pose une nouvelle fois la question de l'efficacité de la
modération des discours de haine sur Facebook. Dans un souci de transparence,
la plateforme avait publié en mai dernier les
chiffres de sa modération en précisant avoir supprimé 3,5 millions de
contenus violents ou haineux au premier trimestre 2018. Un mois auparavant,
elle avait également donné les
détails de sa politique de modération interne via ses «standards de la
communauté». Le réseau avait alors défini l'incitation à la haine comme une
«attaque directe sur des personnes fondées sur ce que nous appelons des
caractéristiques protégées: les origines ethniques et nationales, la religion,
l'orientation sexuelle, le sexe, le genre, l'identité de genre, le handicap ou
la maladie». Contacté, Facebook fait aussi savoir que pour ce qui est du
discours de haine, il privilégie le signalement venant directement de ses
utilisateurs. Des machines étant en effet peu efficaces sur ce type de
problématique qui doit être analysée dans un contexte particulier lié notamment
à l'humour ou aux spécificités de la langue utilisée.
Réseaux parallèles
«Sur le cas Alex Jones, j'estime
que Facebook a tout de même été efficace. Le fait de supprimer les comptes
Infowars sur la plateforme limite fortement la toxicité de la présence de cet
individu en ligne» estime Tristan Mendès France, enseignant au CELSA spécialisé
dans les nouveaux usages du numérique .
«Une fois que les principaux
vecteurs de haine sont coupés, ils réapparaissent de manière plus discrète mais
surtout plus extrême».
Tristan Mendès France,
spécialiste des nouveaux usages numériques
Selon lui, Alex Jones utilisait
ses comptes Facebook «comme une machine à transférer une audience vers son
propre site web et sa boutique en ligne. Leur suppression représente un manque
à gagner économique non-négligeable pour lui et ses équipes». Évidemment, la
modération chez Facebook n'est pas parfaite, trop «déclarative et pas assez
transparente» selon lui, mais elle se révèle efficace dans certains cas. Le
chercheur pointe un autre problème: «Une fois que les principaux vecteurs de
haine sont coupés, ils réapparaissent de manière plus discrète mais surtout plus
extrême notamment sur des réseaux parallèles comme Vkontact (équivalent de
Facebook en Russie) ou Gab».
Ce dernier a récemment fait
beaucoup parler de lui suite à la tuerie antisémite de Pittsburgh. Son auteur
en était un adepte. Lâché par ses principaux partenaires (hébergeur, service de
paiement en ligne...), le réseau social Gab avait été contraint de suspendre
son activité. Mais dimanche dernier, la plateforme plébiscitée par
l'extrême droite américaine, a pu reprendre son service grâce à la société
Epik.com qui lui a fourni un nouveau nom de domaine. Des messages à caractère
antisémites ont refait surface dès la réouverture du site selon
Les Échos. «Quand on empêche les contenus haineux de passer par la porte,
ils rentrent par la fenêtre» conclut Tristan Mendès France.
La rédaction vous conseille
- Instagram
accusé de laxisme face aux propos haineux et à l'antisémitisme
- La
guerre secrète de la modération dans le paiement en ligne
- «Fake
news»: le cas Infowars, révélateur de l'ambiguïté des Gafa
Aucun commentaire:
Enregistrer un commentaire