Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
Sous l'Anémone
25 juin 2020

Il y a tellement de déchets sur Facebook...

Jeudi, Facebook a publié son troisième rapport sur l'application des normes communautaires, qui comprend, pour la première fois, des données sur les appels et le contenu restauré, ainsi que des données sur les produits réglementés sur la plateforme. Au total, la société suit désormais les mesures de neuf politiques sur la grande quantité de contenu de son site Web: nudité et activité sexuelle des adultes, intimidation et harcèlement, nudité et exploitation sexuelle des enfants, faux comptes, discours de haine, marchandises réglementées, spam , la propagande et la violence terroristes mondiales et le contenu graphique. "Nous avons la responsabilité de protéger la liberté d'expression des gens dans tout ce que nous faisons", a déclaré le PDG de Facebook, Mark Zuckerberg, lors d'un appel aux journalistes peu après la publication de la mise à jour des normes communautaires. "Mais en même temps, nous avons également la responsabilité de protéger les gens sur Facebook et d'empêcher que des dommages ne se manifestent dans tous nos services." En bref, la société dit qu'elle capture d'énormes volumes de contenu nuisible, mais ses chiffres montrent également qu'il y en a beaucoup plus que vous ne l'avez probablement jamais imaginé. Voici quelques détails supplémentaires sur toutes les ordures sur Facebook, selon sa mise à jour des normes communautaires: Le site compte 1,56 milliard d'utilisateurs actifs quotidiens et 2,38 milliards d'utilisateurs actifs mensuels. La société a désactivé 2,19 milliards de faux comptes au premier trimestre 2019. Le réseau social estime qu'environ 5% des comptes actifs mensuels sont faux. Facebook a supprimé 4 millions de messages de discours de haine au cours du même trimestre. Il dit qu'il ne peut pas encore partager la prévalence »du discours de haine. Justin Osofsky, vice-président de Facebook de l'équipe des opérations mondiales, a déclaré lors d'un appel à la presse que Facebook aura un programme pilote où certains de ses examinateurs de contenu se spécialiseront dans le discours de haine. Il y a eu au moins 21 millions de cas de nudité et d'exploitation sexuelle d'enfants sur Facebook au cours des trois derniers trimestres. Facebook a pris des mesures concernant environ 900 000 éléments de contenu de vente de médicaments, dont 83,3% ont déclaré avoir détecté de manière proactive. Au cours de la même période, il a pris des mesures concernant 670 000 pièces de contenu de vente d'armes à feu, dont 69,9% ont été détectées de manière proactive. Facebook dit que lorsqu'il prend des mesures sur un élément de contenu, il avertit la personne qui l'a publié et dans la plupart des cas, leur offre la possibilité de nous dire s'ils pensent que nous avons fait une erreur - bien qu'il admette également que son «application n'est pas parfaite . " Notre budget pour les systèmes de sûreté et de sécurité de Facebook en 2019 est supérieur au total des revenus de notre entreprise l'année avant notre introduction en bourse en 2012 », a déclaré Zuckerberg aux journalistes jeudi. Un porte-parole de Facebook avait précédemment clarifié, dans un rapport dans Variety, que Zuckerberg faisait référence aux états financiers de 2011 de l'entreprise. Cette année-là, Facebook a généré 3,7 milliards de dollars de revenus. Dans son article de blog, Facebook a déclaré que ses deux principaux paramètres sont la «prévalence» et le «contenu mis en œuvre». La prévalence vise à décrire la quantité de contenu nuisible qui imprègne encore Facebook pour que les gens puissent la voir et la quantité de contenu que la société n'a pas encore identifiée. "Le contenu a agi" indique combien de choses Facebook a supprimées. Facebook dit avoir rassemblé ces données "en échantillonnant périodiquement le contenu consulté sur Facebook, puis en les examinant pour voir quel pourcentage viole nos normes". Bien sûr, il n'y a aucun moyen de savoir avec certitude que les statistiques de Facebook sont exactes, car, bien, seul Facebook a un accès illimité à son propre réservoir de contenu. (La société a tenu à dire qu'elle avait créé un groupe consultatif sur la transparence des données pour vérifier indépendamment le travail de Facebook, mais ce groupe n'a pas accès à toutes les données de Facebook sur sa plateforme.) Facebook vante également une mesure de «taux proactif», qui est censée indiquer la quantité de contenu (poubelle) détectée par son IA dans un domaine politique particulier, avant qu'un humain ne le signale. À cet égard, Facebook a déclaré qu'il pouvait désormais détecter de manière proactive 65% du contenu, contre 24% il y a un peu plus d'un an. Sur Twitter, l'ancien chef de la sécurité de Facebook, Alex Stamos, a refait surface un tweet suggérant que les milliards de comptes désactivés signalés par la société reflètent une augmentation spectaculaire des attaques sur Facebook et une action efficace de la société pour les contrôler.

Publicité
Publicité
Commentaires
Sous l'Anémone
  • On m'appelle le Poisson Bleu, il est donc normal que Sous l'Anémone soit mon repère, le lieu où je peux converser en totale liberté sans rien craindre des autres. Ici c'est chez moi, à coeur ouvert.
  • Accueil du blog
  • Créer un blog avec CanalBlog
Publicité
Archives
Publicité