Instagram pourrait bientôt reconsidérer la façon dont il modère les corps trans

Le conseil de surveillance de Meta s'occupe de deux affaires concernant la censure de créateurs homosexuels.
  Instagram pourrait bientôt reconsidérer la façon dont il modère les corps trans SOPA Images/Getty Images

Le conseil de surveillance de Meta se prépare à examiner une affaire concernant l'identité de genre et la nudité sur Instagram, dont le résultat affectera l'expérience des utilisateurs des personnes trans et non binaires partout.

Le Conseil de surveillance, un organisme externe qui gère les questions de décisions d'application de contenu sur Facebook et Instagram, annoncé mardi qu'il examinerait quatre nouveaux cas. Un des cas aborde deux cas distincts dans lesquels un couple trans et non binaire a vu ses images supprimées du compte conjoint qu'il gère. La première image, de 2021, montrait les deux personnes nues à partir de la taille, avec du ruban adhésif de couleur chair sur leurs mamelons. Dans la deuxième image, publiée en 2022, une personne couvre les mamelons de l'autre avec ses mains. Les légendes des deux images expliquaient comment la personne torse nu sur les deux images subirait bientôt une opération chirurgicale, notant 'leurs plans pour documenter le processus chirurgical et discuter des problèmes de santé trans' et incluant une annonce de collecte de fonds. Le Conseil de surveillance a gardé les messages et les comptes anonymes.

Meta a supprimé les deux messages, citant le Norme communautaire de sollicitation sexuelle , une politique concernant le contenu sexuel sur les propriétés de Meta, y compris Facebook et Instagram. Cette norme restreint le contenu qui « facilite, encourage ou coordonne les rencontres sexuelles ou les services sexuels commerciaux entre adultes », ainsi que « le langage sexuellement explicite pouvant conduire à une sollicitation sexuelle ». Malgré le fait qu'aucun des deux messages n'incluait un tel langage, trois utilisateurs ont signalé le premier message pour 'pornographie et automutilation'. Bien que les modérateurs humains qui ont examiné ces plaintes aient initialement constaté que la publication n'était pas en violation, le contenu a été signalé une quatrième fois et un modérateur distinct a supprimé la publication.

Le deuxième message a été jugé 'potentiellement violant' par Meta modération IA , bien que les examinateurs humains l'aient trouvé non-violant. Même après que le message ait été signalé deux fois pour un contenu potentiellement enfreint, les rapports ont été automatiquement fermés. Mais lorsque l'IA de Meta a examiné le message une troisième fois et l'a trouvé potentiellement enfreignant, un réviseur distinct a décidé de supprimer le message.

Bien que le couple ait tenté de faire appel à Meta pour rétablir les postes, la société a refusé de bouger. Ce n'est qu'après que le couple a fait appel devant la Commission que Meta a considéré ces suppressions comme des 'erreurs d'application' et les a restaurées. Maintenant, le Conseil sollicite les commentaires du public concernant l'affaire.

Le Conseil a écrit dans son annonce de mardi qu'il apprécierait particulièrement les commentaires sur la question de savoir si les politiques de Meta sur la nudité et la sollicitation sexuelle respectent suffisamment les droits des utilisateurs trans et non binaires. Le Conseil d'administration sollicite également des commentaires sur la question de savoir si Meta a mis en place des procédures suffisantes pour traiter le contenu non violant signalé et sur la manière d'atténuer le risque de suppression par erreur, entre autres sujets. La date limite pour soumettre des commentaires publics est le mardi 9 août à 11h00 HAE.

La nouvelle survient au milieu d'une surveillance accrue dirigée contre Meta, à la fois pour ses restrictions sur le contenu lié à l'avortement dans un Publier- Chevreuil époque et pour sa utilisation de l'IA dans la modération de contenu . La dénonciatrice de Facebook, Frances Haugen, a récemment critiqué la dépendance de l'entreprise à l'IA, au lieu de payer équitablement les modérateurs de contenu humain, affirmant que l'IA ne pouvait 'être que si précise'.

'Les personnes qui y travaillent l'appellent l'apprentissage automatique, car ce n'est pas intelligent', a déclaré Haugen dans des commentaires rapportés par Interne du milieu des affaires .

Ce manque de précision a aussi un coût humain. UN rapport récent de GLAAD a constaté que Meta, ainsi que toutes les autres grandes plateformes de médias sociaux, ne parvient toujours pas à protéger ses utilisateurs LGBTQ+. L'organisation a appelé le géant des médias sociaux à publier des données complètes sur la manière dont ses politiques protégeant les utilisateurs LGBTQ+ sont appliquées, considérant que le contenu anti-LGBTQ+ circule toujours autour de Facebook et Meta en échappant aux yeux des modérateurs, humains ou non.

Depuis l'adoption de la législation 'anti-traite' SESTA-FOSTA en 2018, les personnes LGBTQ+ sur Internet sont confrontées augmentation de la censure et de l'interdiction de l'ombre . En effet, les lois ont supprimé les protections cruciales selon lesquelles les plateformes ne pouvaient être tenues responsables du contenu généré par les utilisateurs, faisant une exception pour le contenu lié au « trafic sexuel », qui était également faussement confondu avec travail du sexe consensuel . Mais comme le montre l'affaire Meta, les corps queer et trans simplement existants sont trop souvent considérés comme sexuellement inappropriés, tout cela en plus des difficultés auxquelles sont confrontées les véritables travailleuses du sexe queer et trans.