Les grandes entreprises utiliseraient cet outil d’IA pour suivre les messages Slack et Teams de plus de 3 millions d’employés. Les experts en matière de confidentialité sont alarmés.

Les grandes entreprises utiliseraient cet outil d’IA pour suivre les messages Slack et Teams de plus de 3 millions d’employés.  Les experts en matière de confidentialité sont alarmés.

  • Des entreprises comme Starbucks et Walmart utilisent l’IA pour suivre les messages de leurs employés, selon CNBC.
  • L’outil d’IA d’Aware vise à aider les clients à surveiller les attitudes des travailleurs et à identifier les menaces potentielles.
  • La startup affirme que les données des employés sont pour la plupart gardées anonymes. Les experts ne semblent pas convaincus.

Envisagez-vous d’envoyer un SMS à votre collègue sur Slack pour faire des commentaires obscènes sur un coéquipier ? Réfléchissez-y à deux fois, sinon vous risquez que l’intelligence artificielle signale votre message comme une violation potentielle de l’entreprise.

Aware, une startup de logiciels, utilise l’IA pour lire les messages des employés envoyés sur des plateformes de communication d’entreprise telles que Slack, Microsoft Teams et Workplace by Meta. Son objectif : surveiller le comportement des salariés pour tenter de comprendre le risque.

Certaines des plus grandes entreprises américaines, notamment Starbucks, Chevron, T-Mobile, Walmart et Delta, utilisent Aware pour évaluer jusqu’à 20 milliards de messages individuels adressés à plus de 3 millions d’employés, a déclaré la société, selon CNBC.

Mais même si la surveillance du lieu de travail n’a rien de nouveau, certains experts ont exprimé leurs inquiétudes quant au fait que l’utilisation de la technologie naissante de l’IA pour suivre les employés peut conduire à une prise de décision erronée – et à un cauchemar en matière de confidentialité.

Aware, Starbucks, Chevron, T-Mobile, Walmart, n’ont pas immédiatement répondu à une demande de commentaires de Trading Insider confirmant les détails avant la publication. Delta a déclaré à BI qu’elle utilisait Aware sur sa plate-forme interne de médias sociaux pour « la surveillance de routine des tendances et des sentiments » et pour la gestion des dossiers juridiques.

Les employeurs utilisent l’outil d’IA d’Aware, en partie, pour évaluer la manière dont les membres de leur base réagissent aux changements dans la politique de l’entreprise ou aux campagnes de marketing, a déclaré à CNBC Jeff Schumann, co-fondateur et PDG d’Aware. De cette façon, les employeurs pourraient voir comment les attitudes des employés diffèrent en fonction de caractéristiques telles que leur âge et leur lieu de résidence, a-t-il déclaré.

Aware est également utilisé pour identifier les risques potentiels sur le lieu de travail. Formée aux interactions avec les employés, la suite de grands modèles de langage de la startup a la capacité d’analyser le texte et les images présents dans les conversations pour signaler les incidents liés à ce qu’une entreprise qualifie d’intimidation, de discrimination, de harcèlement, de pornographie, de nudité et d’autres comportements dits toxiques. , a déclaré Schumann.

« Il suit toujours le sentiment des employés en temps réel, ainsi que la toxicité en temps réel », a-t-il déclaré à propos de l’outil d’IA.

Le PDG a déclaré que les données recueillies par Aware sur les sentiments et la toxicité des travailleurs n’incluent pas leurs noms. Mais dans des cas extrêmes, la confidentialité peut être révoquée.

Aware dispose d’une fonctionnalité appelée eDiscovery, qui permet à l’IA d’extraire le nom d’un individu si la technologie signale certains mots-clés et déclarations dans un message Slack ou Teams comme une violation de la politique. Si l’IA identifie le message comme un « risque extrême », l’employeur peut envoyer le nom de l’auteur présumé aux ressources humaines, a déclaré Schumann à CNBC.

« Certains des cas les plus courants sont la violence extrême, l’intimidation extrême, le harcèlement, mais cela varie selon le secteur », a déclaré le PDG. Les incidents tels que les délits d’initiés, a-t-il ajouté, seraient suivis à l’aide de cet outil.

Alors que le PDG d’Aware a déclaré à CNBC que ses modèles d’IA ne sont pas utilisés par les entreprises pour prendre des décisions et ne servent pas non plus de base à des mesures disciplinaires, certains experts en matière de confidentialité semblent être en désaccord.

« Aucune entreprise n’est essentiellement en mesure de donner des garanties générales quant à la confidentialité et à la sécurité des LLM et de ce type de systèmes », a déclaré à CNBC Amba Kak, directeur exécutif de l’AI Now Institute de l’Université de New York.

« Comment faites-vous face à votre accusateur quand on sait que l’explicabilité de l’IA est encore immature ? » Jutta Williams, cofondatrice de Humane Intelligence, une organisation à but non lucratif, a déclaré au média, faisant référence au fait que les conclusions d’AI ne dressent pas un tableau complet d’un incident particulier sur le lieu de travail.

Alors que Starbucks, Chevron, T-Mobile, Walmart et Delta n’ont pas informé BI s’ils divulguaient leurs pratiques de surveillance à leurs employés, certaines lois d’État, comme le projet de loi S2628 du Sénat de New York, exigent que les employeurs informent leurs employés de leurs pratiques de surveillance numérique. .

L’utilisation de l’IA pour suivre les employés est l’une des dernières façons dont les grandes entreprises semblent surveiller leurs employés – d’autant plus que les employeurs imposent des mandats de retour au bureau.

En février dernier, les employés du pilote automatique de Tesla à New York auraient affirmé que le constructeur automobile surveillait leurs frappes au clavier pour s’assurer qu’ils travaillaient activement. Certains ont déclaré à Bloomberg qu’on leur avait refusé des pauses toilettes à cause du système.

Un peu moins d’un an auparavant, une enquête de Trading Insider révélait que JPMorgan Chase utilisait un outil interne pour suivre la présence au bureau, les appels et les calendriers de ses employés – ce qui, selon un employé, favorisait une culture de « paranoïa », de « méfiance ». et « manque de respect ».

Dans les cas les plus extrêmes, les mécanismes de suivi sur le lieu de travail étaient liés au licenciement d’employés.

Avez-vous une histoire de surveillance sur le lieu de travail que vous aimeriez partager ? Contactez Aaron Mok de BI à amok@insider.com via un e-mail non professionnel.

A lire également