Le métier de modérateur des posts Facebook oblige à regarder les plus grandes cruautés

Trabalho de moderar publicações do Facebook obriga a assistir às maiores crueldades

On commence par mentionner que la lecture est dérangeante, les personnes les plus sensibles ne devraient pas lire cet article. Le rapport provient d’un ancien employé de Meta qui avait pour tâche de regarder les vidéos publiées sur Facebook pour modérer si elles pouvaient ou non être publiées sur le réseau. Les morts, les crimes qu’il a vus, lui ont enlevé son humanité, l’ont rendu malade à cause de ce qu’il a été forcé de regarder.

Le métier de modérateur des posts Facebook oblige à regarder les plus grandes cruautés

Facebook : Des modérateurs regardent des images de morts des plus cruelles dans l’humidité

Ce n’est pas un travail de rêve, certes, selon l’histoire, c’est un cauchemar pour la vie. Dans les coulisses de Facebook, des milliers de modérateurs protègent les utilisateurs du contenu graphique, filtrant les messages qui enfreignent leurs règles. La BBC s’est entretenue avec un modérateur basé au Kenya qui intente une action en justice contre la société mère Meta.

Lors de son premier jour de travail à filtrer les messages, le Sud-Africain Trevin Brownie, au début de la vingtaine, a vu un homme se suicider.

le problème n’était pas [tirar a própria vida]. Le problème était le gamin de trois ans qui était dans la vidéo avec cet homme. Le garçon jouait par terre avec ses jouets, sans se rendre compte de ce qui se passait.

Il a fallu deux ou trois minutes à l’enfant pour se rendre compte que quelque chose n’allait pas et appeler son père. Puis il s’est mis à pleurer. Finalement, un adulte est entré dans la pièce et l’enregistrement s’est arrêté.

Nous sommes obligés de voir de la pédopornographie, de la zoophilie, de la nécrophilie, des violences contre les personnes, des violences contre les animaux, des viols. En tant qu’utilisateur, vous ne voyez pas ce genre de choses sur Facebook. C’est mon travail en tant que modérateur de m’assurer que les gens ne voient pas ce genre de choses.

Vous atteignez un point, après avoir vu 100 décapitations, où vous commencez à espérer que la prochaine sera plus horrible. C’est une sorte de dépendance.

A rapporté Trevin Brownie, ancien employé de Facebook

Je me sentais mal. J’ai vomi parce que je ne comprenais pas pourquoi les gens faisaient des choses comme ça.

Il a également mentionné le jeune animateur.

Si l’on imagine ce qu’on peut parfois encore voir, avant l’enlèvement (qui n’a rien de spécial par rapport au pire qu’il faut y placer) on se rend compte que l’être humain est capable de tout.

Image de Trevin Brownie, ancien employé de Facebook chargé de modérer et de filtrer les vidéos

Trevin Brownie | Bbc

Il y a des choses que vous voyez sur les réseaux sociaux que vous n’oubliez jamais.

Le Sud-Africain rapporte qu’au cours de son travail, il a vu le pire de l’humanité – de la maltraitance des enfants à la torture et aux attentats-suicides.

Son expérience, croit-il, a atténué ses sentiments. Le tremblement de sa voix et sa gentillesse suggèrent qu’il se soucie toujours profondément des autres, mais Brownie pense qu’une partie de son humanité a disparu.

Parce que je suis fondamentalement très habitué à mourir et à voir la mort. C’est devenu une normalité pour moi.

L’ancien employé de Facebook affirme que les décès ne l’affectent plus comme il pense qu’ils le devraient.

Pour ce travailleur, son travail de modération est comme une défense pour l’usager, une sorte de protection pour l’être humain et sa santé mentale. La société d’aujourd’hui vit et consomme du contenu en ligne et est façonnée par ce contenu. Pendant la pandémie, ce contenu a façonné l’être humain, beaucoup ont été gênés par de fausses nouvelles et sont morts.

En janvier, le principal centre de modération de Facebook en Afrique de l’Est, exploité par une société appelée Sama, a annoncé qu’il cesserait de fournir des services de révision de contenu aux sociétés de médias sociaux. Dans les mois qui ont suivi, la société a licencié 260 modérateurs, dont Brownie, se concentrant plutôt sur la description de vidéos pour aider à former des systèmes de vision par ordinateur IA.

1684757405 737 Le metier de moderateur des posts Facebook oblige a regarder

Action en justice contre Meta

Trevin Brownie fait partie d’un groupe de 184 modérateurs, soutenus par le groupe de campagne Foxglove, qui intentent une action en justice contre Meta, la société mère de Facebook, Sama, et le nouvel entrepreneur de Meta, la société luxembourgeoise Majorel.

Meta a tenté de se retirer de la poursuite, mais une décision d’avril dernier note qu’elle pourrait être poursuivie pour licenciement abusif. Une décision provisoire contre Meta et Sama indique déjà que les contrats des modérateurs ne peuvent pas être résiliés et qu’ils doivent continuer à être payés jusqu’à ce que l’affaire soit tranchée.

Les modérateurs affirment avoir été licenciés en représailles pour s’être plaints des conditions de travail et avoir tenté de former un syndicat. Ils allèguent en outre qu’ils ont été injustement discriminés et qu’on leur a refusé de travailler chez Majorel « au motif qu’ils avaient auparavant travaillé dans les installations [da Sama] », lit la requête déposée auprès du tribunal.

Des SMS partagés avec l’équipe juridique des modérateurs, et vus par la BBC, montrent que les modérateurs intéressés à postuler à un emploi chez Majorel se sont fait dire par un recruteur externe que : « L’entreprise n’accepte pas les candidats de Sama. Pas absolu ».

Meta a refusé de commenter, citant la poursuite du procès. Mais l’entreprise exige de ses sous-traitants qu’ils fournissent une assistance continue sur place, avec des professionnels formés, et qu’ils aient accès à des soins de santé privés dès le premier jour de travail.

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video