Les documents internes de l’entreprise montrent son inertie face aux dysfonctionnements occasionnés par son défaut de maîtrise de la troisième langue du réseau social.
Pourquoi y a-t-il eu davantage de contenus identifiés comme violents et terroristes sur Facebook, Instagram et Messenger durant le ramadan en 2019 et en 2020 ? Des salariés de Facebook qui ont repéré ce phénomène statistique dans six pays à majorité musulmane, dont trois arabophones, sont intrigués. Sur leur forum interne, ils évoquent une hypothèse, sans pouvoir totalement la confirmer : les messages issus du Coran postés pendant cette période contiennent des mots, comme « martyr » ou « combat », qui ont été automatiquement associés par les algorithmes de Facebook à des propos violents ou terroristes.
Sollicité, Facebook affirme « ne pas avoir de preuve de modération indue liée au ramadan ». Cette anecdote d’un système mal calibré prenant des décisions erronées est pourtant relatée dans l’un des nombreux documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde. Elle illustre de manière criante les carences du réseau social en matière de modération des contenus arabophones et son inertie pour y mettre fin.
Pourquoi y a-t-il eu davantage de contenus identifiés comme violents et terroristes sur Facebook, Instagram et Messenger durant le ramadan en 2019 et en 2020 ? Des salariés de Facebook qui ont repéré ce phénomène statistique dans six pays à majorité musulmane, dont trois arabophones, sont intrigués. Sur leur forum interne, ils évoquent une hypothèse, sans pouvoir totalement la confirmer : les messages issus du Coran postés pendant cette période contiennent des mots, comme « martyr » ou « combat », qui ont été automatiquement associés par les algorithmes de Facebook à des propos violents ou terroristes.
Sollicité, Facebook affirme « ne pas avoir de preuve de modération indue liée au ramadan ». Cette anecdote d’un système mal calibré prenant des décisions erronées est pourtant relatée dans l’un des nombreux documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde. Elle illustre de manière criante les carences du réseau social en matière de modération des contenus arabophones et son inertie pour y mettre fin.
Sur Facebook, le fiasco de la modération en langue arabe
Facebook Files | Les documents internes de l’entreprise montrent son inertie face aux dysfonctionnements occasionnés par son défaut de maîtrise de la troisième langue du réseau social.
www.lemonde.fr