Facebook a mesuré l’impact de la désinformation sur la pandémie
(Source: Glen Carrie / Unsplash)
- Les chercheurs de Facebook ont été capables de mesurer à l’interne les impacts néfastes de Facebook sur la pandémie.
- Ils ont conclu dans la dernière année que la désinformation dominait des segments précis de leur plateforme, créant des effets de «chambre d’écho» – lorsque des groupes n’entendent plus que ce qui correspond à ce qu’ils disent eux-mêmes – ce qui a renforcé l’hésitation face aux vaccins.
À l’interne, les chercheurs de Facebook ont pu documenter à quel point des messages émanant, par exemple, de l’Organisation mondiale de la santé (OMS), pouvaient être submergés par des commentaires anti-vaccins.
Mais rien n’avait jusqu’ici filtré à l’extérieur de la compagnie, en dépit des demandes répétées d’universitaires et de politiciens pour obtenir davantage de données sur la façon dont les fausses nouvelles sur la crise sanitaire se disséminaient.
Les révélations se succèdent depuis la mi-octobre sur ce que les dirigeants de Facebook savaient des impacts néfastes de leurs algorithmes sur la politique américaine ou internationale.
- Ces révélations émanent principalement de dizaines de milliers de pages de documents, les «Facebook papers», distribués à des médias par une ancienne employée de Facebook, Frances Haugen.
«Ces documents révèlent à quel point Facebook étudiait la désinformation sur le coronavirus et sur les vaccins à travers sa plateforme», affirme le Washington Post dans un article publié la semaine dernière.
- Or, dans les messages publics et dans les témoignages de son président devant les élus, Facebook s’est toujours contentée de mettre l’accent sur les aspects positifs de sa réponse à la pandémie, comme le nombre de comptes fermés ou de messages effacés.
- La compagnie a systématiquement refusé de divulguer ses propres études ou a carrément nié leur existence.
- Ce qui, aujourd’hui, fournit du carburant aux politiciens qui voudraient qu’une loi impose une plus grande transparence aux géants du numérique.
Les documents internes de Facebook révèlent que la compagnie peut:
- mesurer la vitesse à laquelle une fausse information se répand ou l’ampleur qu’elle peut atteindre;
- identifier les personnes qu’on a appelées les «super-propagateurs»; et
- cibler un nombre relativement petit de désinformateurs pour avoir un impact sur la quantité de désinformation en circulation.
Pourtant, en mars dernier, lorsque le Center for Countering Digital Hate, un organisme militant américain, avait identifié 12 «super-propagateurs», l’idée de bloquer ces usagers avait été mise en doute par la direction de Facebook.
- Il n’est pas clair aujourd’hui si la suggestion de l’organisme a été suivie.
- En août, la compagnie a tout au plus dénoncé les «failles» de l’étude, sans dire que ses propres recherches à l’interne confirmaient qu’un petit pourcentage de gens était responsable d’un fort pourcentage de désinformation.
Les nouvelles icônes de Facebook amplifient-elles le problème?
Dans une étude sur ces désinformateurs les plus actifs, les employés de Facebook ont noté que les commentaires anti-vaccins partent avec une longueur d’avance:
- Ils sont renforcés dans l’algorithme par des «j’aime» et des «j’adore».
Par contre, les usagers qui se risquent à émettre un commentaire favorable aux vaccins sont accueillis par les icônes «colère», «triste» ou moqueuses («ha ha»), lesquelles ont pour conséquence de diminuer la valeur qu’acquiert le commentaire dans l’algorithme.