Chine : Apple supprime les logiciels qui permettent de contourner la censure (30.07.2017)
« Un service de propagande se dit toujours être un média d’information » (28.07.2017)
Contre Daech, la guerre se joue sur le Net (14.07.2017)L’Allemagne vote une loi obligeant les réseaux sociaux à supprimer les contenus haineux (03.07.2017)
Facebook lève un peu plus le voile sur ses pratiques de modération (30/06/2017)
Who should decide what is hate speech in an online global community ? (Richard Allan)
Facebook : « Nous voulons faire d’Internet une “no-go zone” pour les terroristes » (16/06/2017)
M. Macron et Mme May s’accordent sur un plan d’action antiterroriste et le calendrier du Brexit (13/06/2017)
Islamisme sur Internet : le gouvernement et des géants du web organisent la contre-propagande (14.03.2016)
Chine : Apple supprime les
logiciels qui permettent de contourner la censure (30.07.2017)
Obéissant aux autorités, le
groupe américain a retiré de son App Store chinois les VPN qui permettent de se
connecter sur des réseaux à l’étranger.
LE MONDE | 30.07.2017 à
08h22 • Mis à jour le 31.07.2017 à 06h36 | Par Simon
Leplâtre (Shanghaï, correspondance)
La Chine est en guerre contre les
VPN, ces « réseaux privés virtuels », qui permettent de contourner la censure
du web, et a trouvé un allié – contraint – de poids avec Apple. Samedi 29
juillet, les VPN, qui étaient jusqu’alors proposés dans l’App Store chinois en
ont tous été retirés. La Chine avait engagé depuis quelques semaines une guerre
contre ces outils, mais il s’agit là, et de loin, de la mesure la plus radicale
à ce jour.
Apple a confirmé avoir accédé aux
demandes de Pékin. « Nous avons reçu l’ordre de retirer des applications de VPN
en Chine, qui ne respectent pas les nouvelles régulations. Ces applications
restent disponibles partout ailleurs. »
Grâce à une connexion à des
serveurs dans différents pays du monde, les VPN permettent à leurs utilisateurs
de se connecter sur des réseaux à l’étranger, rendant plus difficile le traçage
des connexions tout en permettant d’échapper à la censure d’Internet en Chine.
Dans le pays, la plupart des sites utilisés couramment en Occident sont
interdits : Google, YouTube, Facebook, mais aussi beaucoup de médias, dont Le
Monde.
Campagne pour « nettoyer
l’Internet chinois »
Le contrôle de la société et des
médias s’est fortement resserré sous le règne du président Xi Jinping, au
pouvoir depuis fin 2012. Mais l’année 2017 est particulièrement tendue en
Chine, en amont d’un important congrès prévu pour l’automne, qui doit confirmer
le président pour un nouveau mandat et renouveler une partie des plus hauts
dirigeants.
Lire aussi : En Chine, Apple censure l’application du «
New York Times »
La société Express VPN, l’un des
leaders du marché pour la Chine, a dénoncé sur son blog, samedi, l’attitude
d’Apple qu’elle juge « surprenante et regrettable ». « Nous sommes déçus par ce
développement qui représente la mesure la plus drastique prise par le
gouvernement chinois contre les VPN. Nous sommes par ailleurs troublés de
constater qu’Apple aide la Chine dans ses efforts de censure », a expliqué le
fournisseur de VPN.
Les autorités chinoises s’étaient
déjà attaquées régulièrement à des services de VPN, mais plutôt à ceux proposés
par des entreprises chinoises, à très bon marché. Jusqu’ici, les services plus
performants, coûtant environ 8 dollars par mois, comme Express VPN, Astrill,
Star VPN, avaient été épargnés.
Les VPN offrent une bouffée d’air
aux expatriés, mais aussi à de nombreux Chinois : les jeunes anglophones, les
Chinois libéraux en quête d’informations fiables ou encore nombre d’entreprises
et de laboratoires de recherche qui suivent l’actualité internationale dans
leurs domaines et collaborent avec leurs homologues étrangers.
Annoncée début 2017, la campagne
gouvernementale pour « nettoyer l’Internet chinois » s’est attaquée aux VPN en
juillet. Les opérateurs de télécommunications chinois ont reçu l’ordre de
suspendre le service de plusieurs VPN « non autorisés ». Mais les conditions
pour obtenir une licence ne sont pas claires, et Pékin semble bien en guerre
contre tous les opérateurs de VPN.
Le ministère de l’industrie et
des technologies de l’information a voulu rassurer les entreprises, mardi 25
juillet, précisant que les VPN internes utilisés par les grands groupes
pourraient continuer à fonctionner, à condition de recevoir des autorisations.
Ces circuits indépendants proposés par les grandes entreprises publiques de
télécoms coûtent plus de 1 000 euros par mois.
Lire aussi :
« Les multinationales redoutent une application partiale » de la
nouvelle loi chinoise sur la cybersécurité
Apple sous pression en Chine
La collaboration d’Apple avec le
régime autoritaire chinois a suscité des critiques. Certains ont notamment fait
le parallèle avec la position adoptée par le champion de l’informatique
américain face aux demandes du FBI : Apple avait refusé d’ouvrir l’accès aux
données cryptées de certains suspects dans des enquêtes en 2016.
« Nous avions envoyé un amicus
brief (une contribution volontaire) pour soutenir Apple lors de sa bataille
avec le FBI au sujet de l’accès aux données cryptées. Nous sommes extrêmement
déçus qu’Apple ait cédé à la pression de la Chine », a ainsi déclaré, au New
York Times, Sunday Yokubaitis, le président de Golden Frog, dont l’outil
VyprVPN a été supprimé de l’App Store chinois. « Nous voyons l’accès à
l’Internet en Chine comme une question de droits humains, et je m’attendrais à
ce qu’Apple privilégie les droits humains plutôt que ses profits », a-t-il
ajouté.
En ne coopérant pas avec la
Chine, Apple mettrait en danger ses activités dans le pays. La Chine sait
frapper les grandes entreprises étrangères, par exemple avec des enquêtes pour
pratiques anti-compétitives arrivant à point nommé (Microsoft en a fait
l’expérience en 2014 et 2016), quand celles-ci ne coopèrent pas, ou font de
l’ombre à la concurrence locale.
Dans une moindre mesure, Apple
avait déjà goûté à la censure de Pékin en avril 2016, forcé de fermer ses
services de livres électroniques, iBooks, et de films, iTunes Movies. En vertu
d’une nouvelle loi de protection des données, qui a pris effet en juin 2017,
les entreprises opérant sur le territoire chinois sont désormais tenues de
conserver leurs données dans le pays, et de les tenir à la disposition des
autorités sur demande. La semaine dernière, Apple a annoncé la construction
d’un data center dans le sud de la Chine pour se mettre en conformité avec ce
nouveau texte.
Lire aussi :
Apple : une trésorerie record mais des ventes en baisse
Apple est en difficulté en Chine,
qui constituait son deuxième marché en 2015, aujourd’hui dépassé par l’Europe.
Le pays continue de représenter un cinquième des revenus du groupe, malgré une
baisse de 14 % au premier trimestre. Mais la marque à la pomme souffre depuis
plus d’un an face à la montée de marques locales, comme Huawei, Oppo ou Vivo,
proposant des smartphones de qualité pour une fraction du prix d’un iPhone.
« Un service de propagande se dit toujours être un média d’information » (28.07.2017)
Après l’annonce par La République en marche (LRM) de la création d’un « média » propre, le professeur de science politique Francis Balle souligne, dans un entretien au « Monde », que cette volonté caractérise une tentation permanente des hommes politiques français.
LE MONDE | 28.07.2017 à 12h43 | Propos recueillis par Raphaël Georgy
« Dans la volonté de renouveau de La République en marche il y a l’idée que toutes les institutions sont en crise. On peut imaginer que la presse n’échappe pas à cette volonté ». (Photo : Réunion des chefs d'Etat et de gouvernement des pays membres du groupe du G20 à Hambourg (Allemagne), vendredi 7 juillet.
Francis Balle, professeur émérite en science politique à Paris-II, est spécialiste en communication politique et des rapports entre médias et société. Dans cet entretien, il réagit au souhait du parti présidentiel de « se constituer comme un média » avec l’objectif de relayer les initiatives de la formation du Président et les messages de ses adhérents sur le terrain.
Que pensez-vous du choix du terme « média » pour désigner le futur organe de communication officiel du parti LRM ?
Un service de propagande se dit toujours « service d’information ». C’est aux journalistes de faire la part des choses en disant qu’il s’agit d’un organe officiel d’information, car ce qui est offert est nécessairement entaché d’une certaine partialité.
La porte-parole de La République en marche justifiait l’existence de cet organe en expliquant qu’il ira là où les journalistes professionnels ne vont pas. Cette volonté de substitution aux médias d’information est-elle saine ?
Il n’y a rien de répréhensible, c’est tout à fait légitime et c’est même souhaitable que les hommes publics attirent l’attention des journalistes et des électeurs sur les sujets qu’ils considèrent comme importants. Simplement, il ne faut pas en être dupe. Lorsqu’un homme public veut absolument traiter d’un sujet qui n’est pas important aux yeux des journalistes et de ses lecteurs, ils doivent exercer eux-mêmes leur pression et riposter en amenant l’homme public vers un terrain où il ne se sent pas en situation de confort.
LRM semble tirer profit de la vague de désaffection des citoyens à l’égard des médias d’information…
Toutes les enquêtes de crédibilité montrent que les lecteurs croient de moins en moins ce que les journaux leur disent et le crédit des journalistes ne s’améliore guère. Dans la volonté de renouveau de La République en marche il y a l’idée que toutes les institutions sont en crise. On peut imaginer...
Contre Daech, la guerre se joue sur le Net (14.07.2017)
Par Jean-Marc Leclerc
Mis à jour le 14/07/2017 à 17:28 Publié le 14/07/2017 à 17:21
Vidéos aux messages subliminaux, mots d'ordre cryptés,
guerre sainte numérisée… L'imagination des prêcheurs de haine est sans
limites.
Macron veut accentuer la lutte contre la propagande
djihadiste. La traque des contenus illicites s'est complexifiée.
Le président Macron l'a redit jeudi à son invité Donald
Trump, en visite à Paris: «Nos vues sont parfaitement alignées, avec une
détermination entière à prendre toutes les dispositions pour éradiquer les
terroristes et limiter, partout où nous le pouvons, la propagande de ces derniers.»
Déjà, durant la campagne présidentielle, le chef de file d'En marche! avait
prévenu: les grands acteurs du Web, de Facebook à Twitter, en passant par Apple
et ses messageries, vont devoir mieux coopérer pour contrecarrer Daech ...
Condamnation d'un médecin auteur d'un message homophobe sur Facebook (06.07.2017)
Libé
Un médecin généraliste auteur d'un commentaire homophobe sur Facebook (on vous en parlait ici) a été condamné par la chambre disciplinaire de l'Ordre des médecins, selon LCI. Il sera interdit d'exercice pendant un mois et écope d'une amende de 1000 euros. Dans son commentaire publié sur la page Facebook «Les médecins ne sont pas des pigeons», il écrivait notamment : «Le patient est homosexuel. Pas un homo de type "fofolle" avec des manières surjouées, plutôt un monsieur tout le monde.»
Commentaire : Je ne vois pas d'injure ou insulte ici. C'est une description utilisant les mots passés dans le langage courant. Ou alors ... La Cage aux Folles (1978) devrait recevoir une interdiction. C'est un film homophobe, d'après l'Ordre des médecins.
Par contre, c'est le fait même de parler de son patient en précisant son orientation sexuelle qui est condamnable. Cela ne regarde personne et le médecin trahit ainsi le serment d'Hippocrate.
Par contre, c'est le fait même de parler de son patient en précisant son orientation sexuelle qui est condamnable. Cela ne regarde personne et le médecin trahit ainsi le serment d'Hippocrate.
L’Allemagne vote une loi obligeant les réseaux sociaux à supprimer les contenus haineux (03.07.2017)
Les parlementaires ont adopté ce texte vendredi, qui contraint les plateformes à supprimer ces contenus en vingt-quatre heures. Ils s’exposent sinon à une amende de 50 millions d’euros.
LE MONDE | 03.07.2017 à 11h03
Plusieurs pays envisagent d’obliger les réseaux sociaux à se montrer plus efficaces dans la modération des contenus. JEFF CHIU / AP
L’Allemagne menaçait les réseaux sociaux de légiférer depuis plusieurs mois : la première étape a désormais été franchie. Vendredi 30 juin, les parlementaires allemands ont voté une loi imposant à ces plateformes de supprimer certains contenus moins de vingt-quatre heures après leur signalement par les internautes. Le texte concerne les propos racistes ou antisémites, les incitations à la haine, la propagande terroriste, la pédopornographie mais aussi les fausses informations.
Les contrevenants s’exposent à une amende pouvant aller jusqu’à 50 millions d’euros. La loi prévoit aussi la possibilité de condamner la personne nommée responsable de ce sujet dans l’entreprise, jusqu’à 5 millions d’euros. Qui plus est, ces plateformes devront fournir, tous les six mois, un rapport sur le nombre de signalements reçus et la façon dont elles les ont traités. Cette loi doit encore être approuvée par la chambre haute du Parlement avant d’entrer en vigueur.
Inquiétudes pour la liberté d’expression
L’Allemagne, dont la loi condamne déjà fortement les appels à la haine, les menaces et la diffamation, a vu déferler ces derniers mois sur les réseaux sociaux des messages racistes et haineux liés au contexte migratoire et aux attentats. L’inquiétude a grandi après l’élection de Donald Trump à la Maison Blanche, qui a aussi fait émerger un débat sur l’influence des fausses informations, massivement partagées sur les réseaux sociaux. Une question qui inquiète l’Allemagne, à quelques mois des élections législatives de septembre.
Dans un communiqué, Facebook a estimé que la loi allemande, si elle entrait en vigueur, n’allait « pas améliorer » la situation, évoquant « une absence de consultation qui ne fait pas justice à l’importance du sujet ». « Nous continuerons à faire tout ce que nous pouvons », a affirmé l’entreprise, en rappelant qu’elle embauchait 3 000 personnes supplémentaires dans son équipe de modération, jusqu’ici composée de 4 500 personnes.
La question est complexe : si certaines associations de défense des minorités se réjouissent de cette loi, d’autres critiquent le fait que l’on délègue à des entreprises privées l’application de la censure, et redoutent une atteinte à la liberté d’expression. « Les menaces de mort et les insultes, l’incitation à la haine ou la négation de l’Holocauste ne font pas partie de la liberté d’expression, estime de son côté le ministre de la justice allemand, Heiko Maas, à l’origine de ce texte. Elles constituent au contraire une atteinte à la liberté d’opinion d’autrui. »
La première ministre britannique veut légiférer
D’autres pays envisagent, eux aussi, de légiférer. Theresa May, la première ministre britannique, a fait savoir qu’elle souhaitait que les géants du Web puissent être condamnés à de lourdes amendes s’ils ne supprimaient pas rapidement les contenus extrémistes.
Mais mercredi dernier, lors d’une conférence sur le terrorisme et les réseaux sociaux, le nouveau contrôleur indépendant de la législation antiterroriste, récemment nommé par le gouvernement britannique, également conseiller de la reine, a fermement critiqué cette idée :
« Je ne vois pas en quoi cela pourrait aider que notre Parlement criminalise les responsables des entreprises tech qui “n’en font pas assez”. Quelle est la sanction appropriée ? Nous ne vivons pas en Chine, où l’Internet peut tout simplement être coupé chez des millions de personnes si le gouvernement le décide. Notre société démocratique ne peut pas être traitée de cette manière. »
Dans des propos rapportés par le Times, Max Hill craint aussi que ce type de législation agace les géants du Web et les éloigne des autorités, alors même que leur coopération sur ces sujets lui paraît indispensable. Il redoute également que les contenus problématiques finissent par être publiés sur d’autres réseaux plus obscurs, compliquant le travail des services de renseignement et des enquêteurs.
Facebook lève un peu plus le voile sur ses pratiques de modération (30/06/2017)
Dans un long texte publié cette semaine, le réseau social explique comment il travaille sur le sujet sensible et très politique des messages appelant à la haine.
LE MONDE | 30.06.2017 à 12h44 • Mis à jour le 30.06.2017 à 15h13 | Par Damien Leloup
A la conférence Facebook F8, le 18 avril.
Deux milliards d’utilisateurs, et des dizaines de milliers de messages haineux : Facebook, qui a annoncé cette semaine qu’il avait atteint un nouveau record de nombre d’utilisateurs, a également dévoilé pour la première fois quelques chiffres sur sa modération, un domaine sur lequel le groupe était jusqu’à présent resté très discret.
Dans un long message publié mardi 27 juin, le grand groupe du Web explique avoir modéré en moyenne 66 000 messages chaque semaine signalés comme « hate speech » (discours de haine), une catégorie qui regroupe les incitations à la violence et à la haine, ou encore les insultes sexistes, racistes ou homophobes. Soit 288 000 messages en moyenne par mois.
Mais le réseau social a également donné quelques clés de lecture de ces chiffres, en détaillant sa politique de modération sur ces sujets – et les questions qui ne sont toujours pas complètement tranchées à ce sujet. « La première difficulté pour arrêter les discours de haine est de définir des limites, écrit Richard Allan, l’un des responsables de la politique publique de l’entreprise. Des personnes peuvent être en désaccord sur des sujets comme la politique étrangère d’un Etat, ou la moralité des enseignements de certaines religions, et nous voulons qu’ils puissent débattre de ces sujets sur Facebook. Mais où se situe la ligne qui sépare le débat du discours de haine ? »
Messages et contexte
En pratique, Facebook explique utiliser un principe général, et des règles spécifiques dans de nombreux cas particuliers. De manière globale, le réseau social considère comme haineux tout discours qui s’attaque à des personnes en fonction de « caractéristiques protégées », dont le sexe, l’origine ethnique, la nationalité, la religion, l’orientation sexuelle… Mais ce principe se heurte fréquemment à des situations locales particulières. En Italie, « le mot “frocio” (“pédé”) » est par exemple considéré comme du discours de haine lorsqu’il est adressé à une personne, mais il est aussi utilisé par les militants des droits LGBT pour dénoncer l’homophobie », explique Facebook, qui procède à des suppressions au cas par cas en fonction du contexte.
Le contexte est, affirme Facebook, le principal élément qui doit guider les règles de modération. En Allemagne, où la multiplication de messages racistes ou haineux contre les migrants avait inquiété le gouvernement après l’accueil par le pays de nombreux migrants syriens, le réseau social affirme avoir fait évoluer ses règles pour « supprimer à la fois les appels à la violence contre les migrants ou les messages déshumanisant, comme ceux qui les comparaient à des animaux, à de la saleté ou à des ordures », tout en laissant « la possibilité pour les gens d’exprimer leur opinion sur l’immigration elle-même ».
De même, le réseau social explique faire des exceptions pour des mots ou des expressions qui sont a priori contraires à ses règles, mais qui peuvent aussi être utilisées pour « de l’autodérision, ou des citations de paroles de chansons ».
L’intelligence artificielle n’est pas la panacée
Une grande partie de ces règles avaient déjà été dévoilées par plusieurs journaux européens ces dernières années. La Süddeutsche Zeitung et, plus récemment, le Guardian avaient publié plusieurs documents utilisés pour la formation des modérateurs de Facebook, soit 4 500 personnes dans le monde, auxquelles s’ajouteront dans l’année avenir 3 000 salariés supplémentaires, a annoncé Facebook. Ce 28 juin, le site ProPublica avait également publié plusieurs extraits de documents.
Lire aussi : Violence, menaces, suicide… des documents internes précisent la politique de modération de Facebook
« Il est clair que la manière dont nous appliquons nos règles n’est pas parfaite, reconnaît Facebook. Nous sommes souvent confrontés à des cas difficiles à trancher – et nous nous trompons trop souvent. » Surtout parce que ces questions sont complexes, argumente Facebook, et que la surmodération comme la sous-modération posent, légitimement, des problèmes aux utilisateurs.
Lire aussi : Censure a priori et liberté d’expression
En matière de modération, il n’existe pas de baguette magique ni de solution parfaite, dit le réseau social. Même l’intelligence artificielle, souvent mise en avant par le groupe comme par des gouvernements comme l’outil ultime pour gérer les millions de messages publiés chaque jour sur les réseaux sociaux, est loin d’être une solution, au moins pour l’instant, reconnaît Facebook. « La technologie continuera d’être un élément important dans nos efforts pour nous améliorer. Mais si nous continuons d’investir dans ces avancées prometteuses, nous sommes encore loin de pouvoir nous reposer sur l’intelligence artificielle pour gérer des sujets aussi complexes et mouvants que la lutte contre les discours de haine », écrit Richard Allan.
En savoir plus sur http://www.lemonde.fr/pixels/article/2017/06/30/facebook-leve-un-peu-plus-le-voile-sur-ses-pratiques-de-moderation_5153738_4408996.html
Hard Questions: Hate Speech
Facebook : « Nous voulons faire d’Internet une “no-go zone” pour les terroristes » (16/06/2017)
Le réseau social a annoncé, jeudi, qu’il utilisait des technologies de détection de la propagande terroriste pour sa modération.
LE MONDE | 16.06.2017 à 10h39 • Mis à jour le 16.06.2017 à 11h29 | Par Damien Leloup et Morgane Tual
Monika Bickert est directrice des politiques publiques de Facebook, et Brian Fishman est chargé de la lutte contre le terrorisme sur le réseau social. Jeudi 15 juin, Facebook a publié un long texte dans lequel il détaille ses techniques de lutte contre la propagande, et notamment des outils de modération partiellement automatisés, basés sur l’intelligence artificielle.
Lire aussi : Sous pression, Facebook détaille ses mesures contre l’apologie du terrorisme
Pourquoi avez-vous décidé de dévoiler vos méthodes de lutte contre la propagande terroriste maintenant ? Jusqu’alors, Facebook laissait entendre que ces méthodes étaient plus efficaces si elles n’étaient pas connues.
Monika Bickert : Il y a deux raisons. D’abord parce que nous avons malheureusement vu se multiplier les attaques terroristes, et cela a fait émerger des discussions dans la communauté sur le rôle de chacun pour combattre le terrorisme. Que peut-on faire, les uns les autres ? Que font les réseaux sociaux ? Il nous tient à cœur de préserver nos communautés, qu’elles se sentent en sécurité. C’est pourquoi il est important d’expliquer ce que l’on fait pour ça.
La deuxième raison, c’est que nous travaillons sur ces technologies depuis longtemps, et elles ont progressé cette année. Puisqu’on a vu que ça commençait à devenir efficace, on a voulu le faire savoir.
Ces technologies sont-elles déjà utilisées ?
Brian Fishman : Nous utilisons une série d’outils automatisés – dans certains cas, nous supprimons automatiquement les contenus, comme les vidéos de décapitation. Dans d’autres cas, le contexte est important : une photo du drapeau de Daech peut être utilisée pour de la propagande, mais ellepeut aussi illustrer un article de presse. Dans ces cas où le contexte compte, ces outils servent à prioriser ces contenus pour nos équipes de modération.
M. B. : C’est très différent de la question de la pédopornographie, pour laquelle l’image est toujours criminelle, elle contrevient toujours à nos règles, même si la personne veut la partager avec une bonne intention, comme permettre l’identification de l’enfant. C’est plus facile d’utiliser cette technologie dans cette situation. On doit utiliser les ordinateurs pour ce qu’ils savent bien faire, et les humains pour ce qu’ils savent bien faire.
B. F. : Nos techniques, les terroristes essaient de les contourner, nous devons constamment les mettre à jour.
L’automatisation concerne-t-elle aussi le contenu écrit ?
B. F. : Nous utilisons des outils de compréhension du langage naturel pour détecter de potentielles violations, qui sont transmises à nos équipes de modération. Mais nous n’avons pas assez confiance dans cette technologie pour l’autoriser à prendre une décision sans humain dans la boucle.
Pour lutter contre le terrorisme, Facebook dit avoir besoin de croiser les données de WhatsApp, Facebook et Instagram. Pourtant, lors du rachat de WhatsApp, ses utilisateurs avaient reçu la promesse que leurs données ne seraient pas partagées…
M. B. : Nous gardons toutes nos obligations sur le partage de données à l’esprit. Nos avocats ont des discussions avec les autorités compétentes pour s’assurer que nous respectons la loi. Ce sont des aspects sur lesquels nous commençons seulement à travailler, ce n’est pas un système opérationnel. Mais débarrasser Facebook de la propagande terroriste ne nous suffirait pas. Nous voulons faire de tout Internet une no-go zone pour les terroristes. Nous devons faire tout ce qui est en notre pouvoir sur toutes nos plates-formes, y compris Instagram et WhatsApp.
Comment définissez-vous la propagande ou les « contenus terroristes » ?
M. B. : Aucun groupe qui a la violence pour but, ou qui s’est rendu coupable d’actes violents, n’est autorisé à avoir une présence sur Facebook. Même si c’est pour parler de choses qui n’ont pas de lien avec la violence. Par exemple, si Boko Haram créait une page sur Facebook pour discuter de cuisine, nous fermerions cette page. Nous n’autorisons pas non plus l’apologie de ces groupes, de leurs membres ou de leurs actions. Quand on réfléchit à ce qu’est la propagande terroriste, c’est tout ce qui aide la cause ou le but de ces groupes. Si quelqu’un dit : « Daech c’est génial, rejoignez-les », c’est contraire à nos règles. Si quelqu’un publie, après une attaque comme celle de Magnanville, un message « c’était marrant » ou « je suis content que ça soit arrivé », nous considérons que c’est un soutien à un groupe terroriste, et nous supprimons aussi ces messages.
S’agissant de la pédopornographie, il existe une alliance entre Facebook, YouTube, Twitter… Une collaboration similaire est-elle prévue contre le terrorisme ?
M. B. : Nous essayons déjà de partager nos meilleures pratiques et des empreintes d’images avec d’autres entreprises. Nous avons commencé il y a deux ans : nous travaillons avec une vingtaine de réseaux sociaux qui discutent régulièrement entre eux.
B. F. : Ces discussions se déroulent depuis très longtemps de manière informelle. Mais avec Twitter, Microsoft et YouTube, nous partageons les empreintes de vidéos et d’images terroristes. A chaque fois qu’une nouvelle empreinte est placée dans la base de données, nous vérifions tous que cette vidéo n’est pas présente sur nos plates-formes. Dans certains cas, nous ne trouvons rien, dans d’autres, nous découvrons qu’une vidéo ou une photo était parvenue à se glisser entre les mailles du filet. Nous avons beaucoup de systèmes différents, et il n’y a pas de réponse unique. Nous ne sommes pas parfaits, nous ne promettons pas que toute la propagande terroriste va disparaître du jour au lendemain, mais nous travaillons à faire de Facebook un endroit hostile pour les terroristes.
Partagez-vous aussi des informations sur les utilisateurs problématiques ?
M. B. : Nous sommes toujours à la recherche de nouvelles manières de collaborer avec d’autres entreprises. Mais nous devons aussi faire très attention au respect de la vie privée, et nous assurer que nous agissons de manière responsable. On me demande souvent : « Est-ce que les réseaux sociaux en ont vraiment quelque chose à faire ? » Oui, bien sûr. Ce n’est bon pour personne d’avoir des terroristes dans sa communauté en ligne. Tout le monde veut se débarrasser de ces contenus.
Allez-vous changer les règles de modération de Facebook ?
M. B. : Nous ne changeons pas nos règles. Nous mettons juste en place des moyens de trouver ces contenus plus rapidement, pour mieux faire respecter ces règles.
La propagande terroriste sur Facebook, nous n’en voulons pas. La technologie va nous aider à la trouver plus rapidement, et nous voulons le faire sur tous nos services. Et nous continuerons de travailler avec nos partenaires, les associations, les universitaires qui travaillent sur ces sujets, pour comprendre comment nous pouvons avoir une longueur d’avance sur une menace en évolution constante.
Nous travaillons aussi sur différentes initiatives sur la manière dont les gens peuvent lutter contre la radicalisation, nous avons fait des recherches pour voir comment le contre-discours peut fonctionner, en France comme en Europe.
« Il n’existe pas de filtre magique »
Paris et Londres ont présenté, mardi 13 juin, un plan d’action conjoint contre la propagande terroriste en ligne. Les gouvernements français et britannique disent notamment vouloir automatiser la suppression de ces contenus. « Nous le faisons déjà. Nous investissons dans des technologies qui suppriment rapidement ces contenus, et nous le faisons depuis des années », répond Monika Bickert, directrice des politiques publiques de Facebook, interrogée sur ce sujet.
« C’est important de dire que ce n’est pas aussi facile que d’appuyer sur un bouton, qu’il n’existe pas de filtre magique qui supprimera ces contenus », ajoute-t-elle, précisant que Facebook entretient « un dialogue continu » avec les gouvernements. « Si nous voyons quelque chose qui représente une menace imminente, nous le communiquons aux autorités compétentes, en France comme ailleurs, dit-elle. Nous avons des personnes issues des forces de l’ordre qui travaillent dans notre équipe légale, et qui gèrent ces relations. Pour les affaires de terrorisme, il y a parfois des demandes urgentes ; nous sommes en mesure d’y répondre vingt-quatre heures sur vingt-quatre, sept jours sur sept. »
En savoir plus sur http://www.lemonde.fr/pixels/article/2017/06/16/facebook-nous-voulons-faire-d-internet-une-no-go-zone-pour-les-terroristes_5145461_4408996.html
M. Macron et Mme May s’accordent sur un plan d’action antiterroriste et le calendrier du Brexit (13/06/2017)
Lors de leur conférence de presse conjointe, M. Macron a annoncé « un plan d’action » conjoint et « très concret » pour renforcer la lutte antiterroriste.
Le Monde.fr avec AFP et Reuters | 13.06.2017 à 21h16 • Mis à jour le 14.06.2017 à 06h33
(photo)
Rencontre entre le président Emmanuel Macron et la première ministre britannique Theresa May à l’Elysée, le 13 juin.
C’est le premier déplacement à l’étranger de Theresa May depuis son échec aux législatives anticipées du 8 juin au Royaume-Uni. Et la première ministre britannique l’a assuré, au côté du chef de l’Etat français, qui la recevait à Paris, mardi 13 juin : « Le calendrier pour les négociations du Brexit est maintenu et elles commenceront la semaine prochaine », comme cela était prévu.
De son côté M. Macron, comme le ministre des finances allemand, Wolfgang Schäuble, l’avait déjà fait dans la journée, a lancé que « la porte [était] toujours ouverte » pour que le Royaume-Uni reste dans l’Union européenne « tant que la négociation du Brexit n’est pas achevée ». Mais « une fois commencée, il est beaucoup plus difficile de revenir en arrière », a-t-il ajouté, soutenant par ailleurs « respecter la volonté du peuple britannique ».
Lire aussi l’analyse : Le chaos post-électoral contraintLondres à reporter le début des négociations sur le Brexit
Mme May, en pleine tourmente après ses élections ratées, va devoir aborder ces négociations en position fragilisée, contrastant avec le triomphe presque insolent de la stratégie électorale du nouveau président français, dont les partisans sont en position de rafler une large majorité absolue dimanche 18 juin, au second tour des législatives françaises.
Interrogée pour savoir si son propre affaiblissement politique la ferait revenir sur l’hypothèse d’un « Brexit dur », Mme May a affirmé qu’il existait « une volonté commune au sein du peuple britannique », puisqu’il « a voté pour quitter l’UE », « que leur gouvernement le fasse, et en fasse un succès ». Ce processus mènera à « un arrangement, concernant le Brexit, qui servira les intérêts du Royaume-Uni et ceux des 27 membres de l’Union européenne », a-t-elle ajouté.
Plan d’action antiterroriste
Autre sujet en toile de fond de la soirée des dirigeants français et britannique : la lutte antiterroriste. Lors de leur conférence de presse conjointe dans le jardin de l’Elysée, M. Macron a annoncé « un plan d’action » conjoint et « très concret » pour renforcer ce domaine, quelques jours après les attentats de Londres (le 3 juin) et de Manchester (le 22 mai). Celui-ci « vise d’abord à renforcer les engagements et les obligations des opérateurs en ligne afin de supprimer les contenus qui promeuvent dans tous types de médias la haine et le terrorisme », a expliqué M. Macron.
« Il y a aujourd’hui des engagements qui ont été pris, ils ne sont pas suffisants », a-t-il ajouté. Il faut donc « améliorer les moyens d’accès aux contenus cryptés dans des conditions qui préservent la confidentialité des correspondances afin que les messageries ne puissent pas être l’outil des terroristes ou des criminels ».
Londres et Paris souhaitent également « accentuer la coopération internationale avec les Etats-Unis, notamment pour améliorer l’accès aux preuves numériques dans les enquêtes qui sont menées où que soient localisées ces données ».
Cette question avait été abordée en mai lors du sommet du G7 en Sicile. Les chefs d’Etats et de gouvernements avaient notamment appelé les fournisseurs d’accès à Internet et les réseaux sociaux à se montrer plus actifs pour supprimer les contenus extrémistes sur la Toile.
Avec la France « nous sommes convenus de faire plus pour lutter contre le terrorisme en ligne », a indiqué Mme May à Paris, mardi. « Ce qui est fondamental, c’est que nous allons explorer la possibilité de contraindre juridiquement les sociétés à retirer les contenus, si ce n’est pas fait. »
Les deux dirigeants ont ensuite assisté à une rencontre de foot amicale entre leurs équipes nationales, précédée par un hommage auxvictimes des attentats de Londres et Manchester.
Islamisme sur Internet : le gouvernement et des géants du web organisent la contre-propagande (14.03.2016)
SOURCE AFP - LES ECHOS | LE 14/03/16 À 19H12
Une structure sera créée pour diffuser des vidéos émanant de la société civile.
Lutter contre la propagande par la propagande. C'est en substance ce qu'ont décidé le gouvernement et les géants du Web comme Facebook. Les deux parties sont tombées d'accord pour créer en France une « structure » pour mener des campagnes de communication afin de contrer la propagande djihadiste, a indiqué le service d'information du gouvernement (SIG). Une proposition dévoilée alors que 283 sites internet djihadistes ont été bloqués en un an.
Cette structure, dont la nature n'est pas encore définie, « devrait voir le jour dans les mois qui viennent », mais les modalités de l'engagement des grands groupes web (Facebook, Twitter, Google, Apple, Microsoft) restent à définir, a ajouté Matignon. L'initiative a été lancée lors d'une réunion entre le Premier ministre Manuel Valls et ces groupes en décembre,selon une information d'Europe 1.
S'inspirer de l'exemple canadien
« Nous sommes d'accord sur le principe d'une structure qui soutient les organisations de la société civile engagées dans la lutte contre la radicalisation en ligne », a confirmé Facebook, sans autre précision. Ce réseau social est l'un des vecteurs utilisés par les djihadistes pour la propagande et le recrutement. Ce futur organisme pourrait s'inspirer notamment de l'Institut pour le dialogue stratégique (ISD), une organisation internationale de lutte contre la propagande djihadiste basée à Londres, qui travaille avec Facebook.
L'ISD va par exemple lancer au Canada un programme éducatif : les professeurs de lycée diffuseront des vidéos, notamment des témoignages de djihadistes repentis, pour en débattre avec les adolescents, a expliqué lundi Erin Marie Saltman, experte du « contre-discours » à l'ISD. Ce programme doit être étendu ensuite à l'Allemagne et à la Grande-Bretagne.
Un message de la société civile pour être audible
Cette experte était venue à Paris pour présenter son action lors d'une journée organisée par Facebook avec une vingtaine d'associations luttant contre l'extrémisme. L'objectif était de les aider à mieux maîtriser les codes de communication pour rendre leurs messages sur internet plus visibles et plus efficaces, qu'il s'agisse de témoignages de repentis, de messages contre la haine ou de récits de victimes du terrorisme. Une initiative qu'a déjà menée Facebook en France et dans d'autres pays d'Europe.
Car associations et experts sont unanimes : les messages provenant des autorités sont décrédibilisés. Pour être audibles, ils doivent émaner de la société civile. « Il faut que le message, son émetteur et la plateforme choisie soient tous les trois crédibles », a souligné Erin Marie Saltman.
La nécessité d'établir une contre-propagande
Selon elle, il est particulièrement difficile de lutter contre les discours de haine sur des systèmes de messageries comme WhatsApp ou la messagerie cryptée Telegram, particulièrement prisée des djihadistes. D'où la nécessité d'élaborer une contre-propagande.
Faute de pouvoir automatiquement les détecter, Facebook s'appuie sur les signalements de ses utilisateurs (31 millions en France) ou des autorités pour lutter contre les contenus haineux ou extrémistes.
Source AFP