L’IA surveille les employés pour détecter les « crimes de pensée » dans des applications comme Slack et Zoom

L'IA surveille les employés pour détecter les « crimes de pensée » dans des applications comme Slack et Zoom

Un certain nombre de grandes entreprises américaines utilisent des systèmes de surveillance par IA pour analyser les communications des employés dans des applications professionnelles populaires telles que Slack, Teams et Zoom…

Un modèle d’IA prétend être capable d’analyser le contenu et les sentiments des textes et des images publiés par les employés, rapporte CNBC.

Certains de ces outils sont utilisés de manière relativement inoffensive, par exemple pour évaluer les réactions globales des employés à des éléments tels que les nouvelles politiques de l’entreprise.

« Il n’y aura pas de noms de personnes, pour protéger la vie privée », a déclaré Jeff Schumann, PDG d’Aware. Au contraire, dit-il, les clients verront que « peut-être que la main-d’œuvre de plus de 40 ans dans cette partie des États-Unis constate les changements [a] la politique est très négative en raison de son coût, mais tout le monde en dehors de ce groupe d’âge et de ce lieu la voit positivement parce qu’elle les impacte d’une manière différente.

Mais d’autres outils – dont un autre proposé par la même entreprise – peuvent signaler les publications d’individus spécifiques.

Les dizaines de modèles d’IA d’Aware, conçus pour lire du texte et traiter des images, peuvent également identifier l’intimidation, le harcèlement, la discrimination, la non-conformité, la pornographie, la nudité et d’autres comportements.

Chevron, Delta, Starbucks, T-Mobile et Walmart ne sont que quelques-unes des entreprises qui utilisent ces systèmes. Aware affirme avoir analysé plus de 20 milliards d’interactions entre plus de trois millions d’employés.

Bien que ces services s’appuient sur des outils de surveillance non basés sur l’IA utilisés depuis des années, certains craignent qu’ils ne soient entrés dans le territoire orwellien.

Jutta Williams, co-fondatrice de Humane Intelligence, une organisation à but non lucratif responsable de l’IA, a déclaré que l’IA ajoute une nouvelle ride potentiellement problématique aux soi-disant programmes de risque interne, qui existent depuis des années pour évaluer des choses comme l’espionnage industriel, en particulier dans les communications par courrier électronique.

Parlant de manière générale de l’IA de surveillance des employés plutôt que de la technologie d’Aware en particulier, Williams a déclaré à CNBC : « Une grande partie de cela devient un crime de pensée. » Elle a ajouté : « Cela revient à traiter les personnes comme un inventaire d’une manière que je n’ai jamais vue. » […]

Amba Kak, directeur exécutif de l’AI Now Institute de l’Université de New York, s’inquiète de l’utilisation de l’IA pour aider à déterminer ce qui est considéré comme un comportement à risque.

« Cela a un effet dissuasif sur ce que les personnes disent sur le lieu de travail », a déclaré Kak, ajoutant que la Commission fédérale du commerce, le ministère de la Justice et la Commission pour l’égalité des chances en matière d’emploi ont tous exprimé leurs inquiétudes à ce sujet, même si elle n’en parlait pas spécifiquement. La technologie d’Aware. « Il s’agit autant de problèmes de droits des travailleurs que de problèmes de confidentialité. »

Une autre préoccupation est que même les données agrégées peuvent être facilement désanonymisées lorsqu’elles sont rapportées à un niveau granulaire, « comme l’âge, l’emplacement, la division, l’ancienneté ou la fonction de l’employé ».

Photo d’Andres Siimon sur Unsplash

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video