Rev rejoint une longue liste d’entreprises technologiques, d’Instacart à Microsoft, qui se précipitent pour mettre à jour leurs conditions d’utilisation afin d’utiliser les données des personnes pour entraîner l’IA.

Rev rejoint une longue liste d'entreprises technologiques, d'Instacart à Microsoft, qui se précipitent pour mettre à jour leurs conditions d'utilisation afin d'utiliser les données des personnes pour entraîner l'IA.
  • De plus en plus d’entreprises mettent discrètement à jour leurs politiques de confidentialité afin d’utiliser les données utilisateur collectées pour former des modèles d’IA.
  • L’outil de transcription Rev est l’une des dernières entreprises à modifier ses conditions d’utilisation pour une utilisation dans l’IA.
  • D’autres à le faire incluent les entreprises technologiques les plus notables qui se précipitent pour participer à l’engouement pour l’IA.

L’époque de toute activité nécessitant une connexion Internet ne bénéficiant pas à l’IA touche à sa fin.

Au cours des derniers mois, des entreprises aussi diverses que Twitterou X, Microsoft, Instacart, Meta et Zoom se sont empressés de mettre à jour leurs conditions d’utilisation et/ou politiques de confidentialité pour permettre la collecte d’informations et de contenus auprès de personnes et de clients sous forme de données à former. modèles d’intelligence artificielle générative.

Les tweets, les recherches sur le Web et apparemment même les courses à l’épicerie sont désormais l’occasion pour les entreprises de créer des outils plus prédictifs comme Bard et ChatGPT, qui appartient à OpenAI et reçoit un soutien considérable de Microsoft. Zoom, après un le public est bouleversé à l’idée que les appels vidéo soient transmis à un grand modèle de langage utilisé pour entraîner l’IA, est la seule entreprise à par la suite changement sa politique d’utilisation mise à jour pour indiquer explicitement que les vidéos des utilisateurs ne seraient pas utilisées de cette façon.

De telles réactions négatives n’ont pas empêché de plus en plus d’entreprises de décider que leurs plates-formes devraient servir de terrain de formation à l’IA. L’un des derniers à avoir modifié ses conditions d’utilisation est Rev, un service populaire de transcription de conversations et d’appels téléphoniques enregistrés qui fait également des choses comme les sous-titres pour les vidéos. Dans le dernière version des conditions d’utilisation de Rev, la société a ajouté une section qu’elle appelle « Votre contenu, y compris les résultats des services ». Cet article indique désormais qu’il dispose non seulement d’une large licence pour utiliser tout le contenu téléchargé sur sa plate-forme « que ce soit publiquement ou en privé », mais qu’il peut également utiliser les informations « pour améliorer les services, par exemple pour former et maintenir le discours ASR de Rev. modèle vers texte et d’autres modèles d’intelligence artificielle Rev.

Les conditions de Rev semblent avoir été mises à jour courant juin pour inclure cette langue, selon une copie trouvée via Internet Archive. Les utilisateurs n’ont été invités à consulter les conditions mises à jour qu’en septembre, dans un e-mail de la société annonçant son partenariat avec OpenAI en tant que « nouveau sous-traitant tiers ». OpenAI traite désormais les données de Rev pour « une nouvelle fonctionnalité à venir ». Rev n’a pas révélé ce qui avait exactement changé dans ses termes. Un porte-parole de Rev a déclaré que les conditions avaient été mises à jour ce mois-ci et que son modèle était « informé par une collection diversifiée de données vocales ».

« Rev utilise désormais les données de manière perpétuelle, pas seulement lorsqu’il est un client actif, et elles sont utilisées de manière anonyme pour former l’IA exclusive de Rev », a déclaré le porte-parole. Le porte-parole a également affirmé qu’un client Rev peut « refuser de partager ses données à des fins de formation » en envoyant un e-mail à support@rev.com. Il n’existe pas de formulaire dédié pour une telle demande et aucune garantie qu’elle sera honorée.

En août d’Instacart mise à jour de ses termes et conditionsla plateforme d’épicerie en ligne a ajouté un libellé interdisant à quiconque d’utiliser son contenu ou ses données pour « créer, entraîner, tester ou améliorer » des outils d’IA, ou les grands modèles de langage et d’apprentissage automatique qui les sous-tendent.

Plus d’entreprises j’ai essayé de faire ce qu’ils peuvent pour empêcher que leurs données soient récupérées et enregistrées afin d’élargir les ensembles de données nécessaires à la formation des modèles d’IA. Cependant, Instacart a également ajouté un langage qui lui a laissé une fenêtre pour faire exactement cela avec les données de ses propres clients, affirmant que sa licence lui permet désormais de « … autrement améliorer nos algorithmes d’apprentissage automatique, dans le but d’exploiter, de fournir et d’améliorer. les services. » Cette langue n’était pas dans ses termes précédents, selon une version consultée via Internet Archive. Instacart n’a pas non plus précisé ces modifications dans sa mise à jour.

Un porte-parole d’Instacart a déclaré que la société se préparait à déployer une sorte d’outil d’IA sur sa plateforme.

« Nous intégrons des expériences d’IA générative dans nos produits pour répondre aux questions des clients en matière d’épicerie et les aider à prendre des décisions liées à l’alimentation », a déclaré le porte-parole. « Nos conditions mises à jour précisent que l’IA générative fait désormais partie de l’offre d’Instacart, sous réserve des restrictions d’utilisation abusive et des autres dispositions générales de nos conditions, et les normes pour ces fonctionnalités restent les mêmes que pour l’ensemble de notre produit. »

Même lorsque les entreprises divulguent ce qu’elles ont modifié dans une mise à jour d’un accord de conditions ou d’une politique de confidentialité couvrant l’utilisation des données pour l’IA, elles restent souvent vagues. de Microsoft Conditions mises à jour, pour lequel il a souligné les changements entrant en vigueur le 30 septembre, a ajouté une nouvelle section en cinq points sur les services d’IA. Le seul concernant les données utilisateur indique : « Dans le cadre de la fourniture des services d’IA, Microsoft traitera et stockera vos entrées dans le service ainsi que les sorties du service, à des fins de surveillance et de prévention des utilisations ou sorties abusives ou nuisibles du service. service. » Les quatre autres points concernent l’interdiction par Microsoft de toute utilisation de ses services d’IA pour d’autres outils d’IA.

Google offre également l’accès à un version archivée de ses termes, mis à jour en juillet. Pourtant, l’entreprise reste tout aussi vague sur ce qu’elle fait des données des utilisateurs en matière d’IA. Il peut utiliser les données dans la mesure où sa licence le permet pour « exploiter et améliorer les services », y compris la création de « nouvelles caractéristiques et fonctionnalités ». Dans sa politique de confidentialité, également mise à jour en juillet, Google mentionne une fois son outil d’IA générative Bard, affirmant que la société « utilisera des informations accessibles au public pour aider à former les modèles d’IA de Google et à créer des produits et des fonctionnalités tels que Google Translate, Bard et les capacités Cloud AI ». « 

Twitter, désormais X sous la propriété d’Elon Musk, est l’une des plateformes les plus directes à expliquer comment elle utilise les données des utilisateurs qu’elle collecte pour l’IA, comme l’a fait Musk. depuis des mois, je construis un nouveau projet d’IA. « Nous pouvons utiliser les informations que nous collectons et les informations accessibles au public pour aider à former nos modèles d’apprentissage automatique ou d’intelligence artificielle aux fins décrites dans cette politique », déclare la société dans son rapport. politique de confidentialité mis à jour ce mois-ci.

Meta, anciennement connu sous le nom de Facebook, a mis à jour sa politique de confidentialité en juin. La politique maintenant informe les utilisateurs que « votre activité et les informations que vous fournissez sur nos produits et services » sont utilisées pour entraîner ses modèles d’IA génératifs, comme c’est le cas pour tout ce qui est écrit ou dit lors de l’utilisation d’un outil d’IA comme Llama 2 ou CM3leon. Ainsi, tout, des mises à jour de statut aux photos Instagram en passant par les invites, peut désormais faire partie des ensembles de données de formation à l’IA de Meta. L’entreprise impose à l’utilisateur la responsabilité d’empêcher ses données de formation d’absorber des informations personnelles qu’une personne ne souhaite peut-être pas utiliser pour enseigner à un outil d’IA comment mieux répondre aux invites, affirmant que les gens devraient « être attentifs » à ce qu’ils disent. instructions.

« En tant que bonne pratique, n’incluez aucune information personnelle, comme votre adresse personnelle ou votre numéro de téléphone », conseille Meta. Fin août, il a créé un formulaire simple permettant aux utilisateurs de « demander » de refuser que leurs données soient utilisées pour entraîner des modèles d’IA. L’entreprise ne dit pas si elle se conformera à une telle demande.

Êtes-vous un employé technique ou quelqu’un d’autre ayant des idées à partager ? Contactez Kali Hays à khays@insider.comsur l’application de messagerie sécuriséeSignal au 949-280-0267, ou via Twitter DM à @hayskali. Contactez-nous en utilisant un appareil non professionnel.

A lire également