Un responsable de Stability a démissionné après avoir déclaré que l’IA générative « exploite les créateurs ». Cela pourrait causer des problèmes aux entreprises d’IA.

Un responsable de Stability a démissionné après avoir déclaré que l'IA générative « exploite les créateurs ».  Cela pourrait causer des problèmes aux entreprises d’IA.
  • Ed Newton-Rex, directeur de Stability AI, a radicalement quitté la startup animée d’IA cette semaine.
  • Il s’est opposé à l’argument de Stability selon lequel il devrait être possible de former gratuitement l’IA à l’aide d’œuvres protégées par le droit d’auteur.
  • Un énorme combat se prépare pour savoir si les géants de la technologie devraient payer pour les données nécessaires au développement de l’IA.

Une lutte fait rage pour savoir si les géants de la technologie devraient payer pour les données protégées par le droit d’auteur nécessaires à l’entraînement de leur IA – et une démission spectaculaire cette semaine suggère que cette bataille est sur le point de devenir personnelle.

Ed Newton-Rex, responsable de l’audio chez Stability AI, a quitté la startup mercredi et a lancé une bordée extraordinaire contre son ancien employeur après que Stability ait fait valoir qu’il ne devrait pas avoir à payer les créateurs pour former ses modèles d’IA sur leur travail.

C’est un argument partagé par de nombreux rivaux du géant technologique de Stability, qui ont averti que des milliards pourraient être effacés du secteur en plein essor de l’IA s’ils n’obtiennent pas ce qu’ils veulent.

Les modèles d’IA générative comme ChatGPT et Stable Diffusion sont formés à l’aide d’énormes quantités d’informations récupérées sur Internet, notamment des œuvres d’art, des paroles de chansons et des livres.

Les artistes et les créateurs affirment que ces modèles ont été formés à l’aide de leurs œuvres sans autorisation et qu’ils sont maintenant utilisé pour les remplaceravec plusieurs sociétés d’IA poursuivant en justice comme La stabilité et OpenAI.

La démission de Newton-Rex, qui a construit un créateur de musique IA formé à l’aide de musique sous licence alors qu’il était chez Stability, montre que leurs craintes sont partagées par certains de ceux qui construisent actuellement des modèles d’IA.

« Des entreprises valant des milliards de dollars forment, sans autorisation, des modèles d’IA génératifs sur les œuvres des créateurs, qui sont ensuite utilisés pour créer de nouveaux contenus qui, dans de nombreux cas, peuvent rivaliser avec les œuvres originales », a écrit Newton-Rex. dans un post sur X annonçant sa démission.

« Pour être clair, je suis partisan de l’IA générative. Elle présentera de nombreux avantages — c’est pourquoi j’y travaille depuis 13 ans. Mais je ne peux que soutenir une IA générative qui n’exploite pas les créateurs par des modèles de formation — ce qui peuvent les remplacer dans leur travail sans autorisation », a-t-il déclaré.

Le Bureau américain du droit d’auteur est étudie actuellement de nouvelles règles pour l’IA générativeet les grandes entreprises technologiques ont clairement indiqué dans leurs soumissions au régulateur qu’elles n’étaient pas d’accord avec le point de vue de Newton-Rex, des sociétés comme Meta et Google arguant que cela imposerait un « responsabilité écrasante » sur les constructeurs d’IA.

Ils ont beaucoup à perdre. Le géant du capital-risque et « techno-optimiste » autoproclamé Andreessen Horowitz a averti que des milliards de dollars pourraient être effacés de l’industrie si les géants de l’IA étaient obligés de payer pour les données sur lesquelles fonctionnent leurs modèles.

Giorgio Franceschelli, un informaticien qui a beaucoup écrit sur l’IA et le droit d’auteur, a déclaré à Trading Insider qu’il était raisonnable d’affirmer que la formation d’un modèle d’IA générative à l’aide d’œuvres protégées par le droit d’auteur était dans les limites de l’utilisation équitable, en le comparant à l’apprentissage humain à partir de peintures. sur Google et en essayant de les reproduire à la main.

Cependant, il a déclaré que les arguments avancés par les géants de la technologie pour justifier la suppression du matériel protégé par le droit d’auteur ne correspondaient pas au principe d’utilisation équitable.

Même si c’est techniquement légal, a déclaré Franceschelli, c’est moralement répréhensible.

« C’est peut-être légal, mais c’est toujours une erreur de former des modèles de cette manière », a-t-il déclaré.

« Ces modèles ne sont pas, comme nous, formés sur du matériel protégé par le droit d’auteur afin d’améliorer leurs opportunités ; c’est uniquement dans le but d’améliorer leurs capacités, qui sont à leur tour exploitées par les entreprises pour en tirer profit, et par les utilisateurs pour gagner de l’argent. des résultats qui peuvent menacer le marché des auteurs de données de formation.

Le fait que des critiques comme celle de Franceschelli trouvent désormais écho chez ceux qui construisent des modèles d’IA génératifs suggère que la démission de Newton-Rex pourrait être un moment déterminant pour l’IA.

Peut-être de manière inquiétante pour les entreprises qui se précipitent pour développer l’IA, l’ancien employé de Stability a appelé d’autres personnes ayant des doutes similaires sur les outils sur lesquels ils travaillent à s’exprimer.

« Je suis sûr que je ne suis pas la seule personne au sein de ces sociétés d’IA générative à ne pas penser que l’affirmation d’une « utilisation équitable » est juste pour les créateurs. J’espère que d’autres prendront la parole, que ce soit en interne ou en public », a-t-il déclaré. .

Stability AI n’a pas immédiatement répondu à une demande de commentaire de Trading Insider.

A lire également