vendredi 3 mai 2019

Facebook est engagé dans le djihad pour imposer l'islam sur terre


https://ibloga.blogspot.com/2017/05/dont-fuck-wit-ma-peeps-from-heat-street.html


Facebook bannit les comptes de plusieurs personnalités d’extrême-droite «dangereuses»
Après avoir interdit les contenus faisant l’apologie du nationalisme ou du séparatisme blanc suite à l’attentat de Christchurch, Facebook a annoncé hier la suppression définitive de sept comptes haineux sur la plateforme éponyme et sur son réseau social Instagram.

Facebook continue sur sa lancée et prend davantage de mesure contre les contenus haineux. Jeudi soir, la firme de Mark Zuckerberg a annoncé la suppression des comptes de sept personnalités américaines jugées comme des «individus et organismes dangereux» sur le célèbre réseau social. Elles sont également bannies d’Instagram, l’application de photos et de vidéos de Facebook.
La liste comprend des figures d’extrême droite bien connues des réseaux sociaux aux États-Unis telles Louis Farrakhan, qui prône le séparatisme noir et avait qualifié les personnes de confession juive de «termites», ou encore le fondateur du site Infowars, Alex Jones, connu pour propager des théories du complot. Il estime notamment que la tuerie de l’école de Sandy Hook, qui a fait 28 morts (dont de nombreux enfants) en 2012, est une manipulation du gouvernement américain. Ce dernier avait déjà été banni de Facebook l’année dernière mais nombreuses de ses pages étaient restées actives. Il disposait également d’un compte sur Instagram. Facebook précise que tous comptes, pages, groupes et événements associés au nom des personnes bannies seront également supprimés: par exemple, sur Facebook, la page officielle du site Infowars n’est plus disponible.
Dilemmes et cafouillage
«Nous avons toujours interdit les individus ou organisations qui promeuvent ou se livrent à la violence et à la haine, quelle que soit l’idéologie» a indiqué le réseau social. Pourtant, si la violence et la haine sont bien interdites par les règles de Facebook, ce dernier peine à appliquer une modération efficace sur le sujet. Dernière polémique en date: l’attentat de Christchurch, où un suprémaciste blanc a tué cinquante personnes dans deux mosquées, en Nouvelle-Zélande. L’attaque avait été filmée puis diffusée en direct sur Facebook. Le géant du numérique avait alors été vivement critiqué: il avait fallu un certain temps avant que la vidéo et toutes ses copies soient supprimées du réseau social. Face à ces problèmes de modération, le 27 avril, Facebook annonçait l’interdiction des contenus faisant l’apologie du nationalisme blanc ou du séparatisme blanc sur son réseau social ainsi que sur Instagram.
Avec le bannissement de ces sept personnalités très controversées, Facebook souhaitait frapper un grand coup. Néanmoins, le réseau social a été victime d’un gros cafouillage: lors de l’officialisation de sa décision, relayée par plusieurs médias prévenus en avance, les comptes concernés n’étaient en fait pas encore supprimés. Laissant le temps aux personnes en questions de prévenir leurs abonnés. «Je m’apprête à être banni. S’il vous plaît, inscrivez-vous à liste de diffusion (lien dans la description de mon profil) avant que mon compte disparaisse», a par exemple écrit Milo Yiannopoulos, figure de «l’alt-right», un mouvement américain d’extrème-droite.

Facebook effectively gave these folks a heads up. In response to his ban, Milo got this up... on Instagram. pic.twitter.com/fSFcebvOjX

La modération de la haine n’est pas seulement un sujet délicat pour Facebook: c’est le cas pour toutes les plateformes en ligne. Dans une longue enquête publiée le 25 avril dernier, le site américain Motherboard révélait par exemple les difficultés rencontrées par Twitter pour supprimer les contenus liés au suprémacisme blanc. De son côté, pour savoir quels contenus supprimer après les attentats de Christchurch, Facebook a expliqué avoir fait appel à une vingtaine d’experts pour comprendre les concepts de suprémacisme, de nationalisme et de séparatisme. La modération est définitivement un sujet compliqué.
La rédaction vous conseille

Après l’attentat de Christchurch, Facebook interdit l’apologie du nationalisme blanc
Par   Kesso Diallo Mis à jour le 28/03/2019 à 14:49 Publié le 28/03/2019 à 14:49
Après avoir interdit le suprémacisme blanc sur sa plateforme, Facebook a décidé d’étendre son interdiction au nationalisme et au séparatisme.
Facebook va plus loin pour endiguer les propos haineux. Dès le 1er avril, les contenus faisant l’apologie du nationalisme blanc ou du séparatisme blanc seront interdits sur le réseau social et sur Instagram (dont Facebook est aussi propriétaire). Le géant du numérique l’a annoncé mercredi 27 mars au site Motherboard, soit quelques jours après l’attentat de Christchurch, où un terroriste d’extrême droite a tué une cinquantaine de personnes dans deux mosquées en Nouvelle-Zélande.
Le suprémacisme blanc déjà interdit sur Facebook
Cette décision a été prise après que Facebook ait consulté une vingtaine d’experts sur les trois concepts que sont le suprémacisme, le nationalisme et le séparatisme. «Nous avons estimé que les points communs entre le nationalisme blanc, le séparatisme blanc et le suprémacisme blanc sont tellement importants qu’il est impossible de les distinguer sérieusement. Et ce, parce que le langage et la rhétorique utilisés et l’idéologie qu’ils représentent se chevauchent tellement qu’on ne peut pas les distinguer». Par ailleurs, Facebook a annoncé que les utilisateurs effectuant des recherches liées à ces thèmes seraient redirigés vers le site de l’association Life After Hate («La Vie après la Haine»). Cette dernière a été fondée par Arno Michaellis, un ancien suprémaciste blanc luttant désormais contre l’extrémisme et la violence.
Facebook interdisait déjà le suprémacisme blanc sur sa plateforme, mais il tolérait le nationalisme et le séparatisme. L’année dernière, Motherboard avait obtenu des documents internes au géant où celui-ci indiquait que le nationalisme blanc «ne semble pas toujours associé au racisme (du moins pas explicitement)». Ces trois concepts se chevauchent, mais ils sont sensiblement différents. Le nationalisme ne prône pas la supériorité des Blancs, mais leurs intérêts, contrairement au suprémacisme. Le séparatisme, lui, correspond à une volonté de séparer les Blancs des autres, avec un État qui leur serait exclusivement réservé.
Facebook a souvent été critiqué pour sa politique de modération. Cette dernière est jugée inégale. Sur le sujet du terrorisme islamique, le réseau social a fait de nombreux efforts, éradiquant la majorité des contenus de propagande de ce type de ses pages. Néanmoins, d’autres publications violentes, notamment ayant trait à l’extrême droite, mais aussi au harcèlement ou aux discours racistes, sexistes, homophobes ou antisémites, ne sont pas toujours modérées de la même manière, faute de règles claires et de moyens de contrôle efficaces.
La rédaction vous conseille
 Par   Alexis Zema Mis à jour le 03/05/2019 à 16:57 Publié le 03/05/2019 à 16:57



Banni par Facebook, Alex Jones a trouvé le moyen de relayer ses discours sur le réseau
Par  Harold Grand Publié le 06/11/2018 à 18:47
Le conspirationniste américain Alex Jones n'a, en théorie, plus aucun moyen de diffuser ses discours de haine sur Facebook. Pourtant, ses soutiens continuent de diffuser ses messages sur le réseau social.
L'été dernier, plusieurs grandes entreprises numériques américaines avaient fait d'Alex Jones une persona non grata du numérique. Lui et son site d'information Infowars, souvent qualifié de complotiste, avaient été bannis simultanément de YouTube (où le compte InfoWars comptabilisait 1,5 milliard de vues cumulées), Apple, Spotify, Pinterest, LinkedIn et bien sûr Facebook (Twitter n'avait pris la même décision que plusieurs semaines après). Dans le détail, les vidéos de quatre comptes siglés «Infowars» ont été supprimées du réseau social de Mark Zuckerberg et les pages de tous ses comptes ont été supprimées. Des millions d'abonnés s'étaient alors plaints de ce qu'ils qualifiaient de tentative de censure politique des opinions de l'alt-right (mouvement apparenté à l'extrême droite aux États-Unis).
Quelques mois plus tard, les aficionados du conspirateur américain ont trouvé un autre moyen de se retrouver sur le réseau social. Selon une récente enquête du Washington Post, une autre page Facebook appelée NewsWars affiliée au site web NewsWars.com, lui-même contrôlé par Alex Jones, les rassemble. Depuis le mois d'août, les vidéos postées sur le compte Facebook de NewsWars ont cumulé près de 4 millions de vues selon les calculs du chercheur spécialisé dans les médias sociaux Jonathan Albright, membre de l'université américaine de Columbia. Dans le détail, 52 photos, 1.400 liens, 1.100 vidéos Facebook et 13 vidéos venant de YouTube ont été partagés sur la page, selon lui.
Stratégie de la transparence
Cette résurgence de contenus indésirables pose une nouvelle fois la question de l'efficacité de la modération des discours de haine sur Facebook. Dans un souci de transparence, la plateforme avait publié en mai dernier les chiffres de sa modération en précisant avoir supprimé 3,5 millions de contenus violents ou haineux au premier trimestre 2018. Un mois auparavant, elle avait également donné les détails de sa politique de modération interne via ses «standards de la communauté». Le réseau avait alors défini l'incitation à la haine comme une «attaque directe sur des personnes fondées sur ce que nous appelons des caractéristiques protégées: les origines ethniques et nationales, la religion, l'orientation sexuelle, le sexe, le genre, l'identité de genre, le handicap ou la maladie». Contacté, Facebook fait aussi savoir que pour ce qui est du discours de haine, il privilégie le signalement venant directement de ses utilisateurs. Des machines étant en effet peu efficaces sur ce type de problématique qui doit être analysée dans un contexte particulier lié notamment à l'humour ou aux spécificités de la langue utilisée.
Réseaux parallèles
«Sur le cas Alex Jones, j'estime que Facebook a tout de même été efficace. Le fait de supprimer les comptes Infowars sur la plateforme limite fortement la toxicité de la présence de cet individu en ligne» estime Tristan Mendès France, enseignant au CELSA spécialisé dans les nouveaux usages du numérique .
«Une fois que les principaux vecteurs de haine sont coupés, ils réapparaissent de manière plus discrète mais surtout plus extrême».
Tristan Mendès France, spécialiste des nouveaux usages numériques
Selon lui, Alex Jones utilisait ses comptes Facebook «comme une machine à transférer une audience vers son propre site web et sa boutique en ligne. Leur suppression représente un manque à gagner économique non-négligeable pour lui et ses équipes». Évidemment, la modération chez Facebook n'est pas parfaite, trop «déclarative et pas assez transparente» selon lui, mais elle se révèle efficace dans certains cas. Le chercheur pointe un autre problème: «Une fois que les principaux vecteurs de haine sont coupés, ils réapparaissent de manière plus discrète mais surtout plus extrême notamment sur des réseaux parallèles comme Vkontact (équivalent de Facebook en Russie) ou Gab».
Ce dernier a récemment fait beaucoup parler de lui suite à la tuerie antisémite de Pittsburgh. Son auteur en était un adepte. Lâché par ses principaux partenaires (hébergeur, service de paiement en ligne...), le réseau social Gab avait été contraint de suspendre son activité. Mais dimanche dernier, la plateforme plébiscitée par l'extrême droite américaine, a pu reprendre son service grâce à la société Epik.com qui lui a fourni un nouveau nom de domaine. Des messages à caractère antisémites ont refait surface dès la réouverture du site selon Les Échos. «Quand on empêche les contenus haineux de passer par la porte, ils rentrent par la fenêtre» conclut Tristan Mendès France.
La rédaction vous conseille


Aucun commentaire:

Enregistrer un commentaire

Articles riposte laïque à faire

- reprendre une à une les règles de soumission de l'islam (faire un chapitre pour chacune) - invasion islamique de l'inde à reman...