Dans la ruée vers l’adoption de l’IA, l’éthique et la responsabilité passent au second plan dans de nombreuses entreprises

Dans la ruée vers l’adoption de l’IA, l’éthique et la responsabilité passent au second plan dans de nombreuses entreprises

Les entreprises se précipitent pour déployer la technologie de l’IA générative dans leur travail depuis le lancement de ChatGPT en 2022.

Les dirigeants se disent enthousiasmés par la façon dont l'IA augmente la productivité, analyse les données et réduit le travail fastidieux.

Selon le rapport 2024 Work Trends de Microsoft et LinkedIn, qui a interrogé 31 000 travailleurs à temps plein entre février et mars, près de quatre chefs d'entreprise sur cinq estiment que leur entreprise doit adopter la technologie pour rester compétitive.

Mais l’adoption de l’IA sur le lieu de travail présente également des risques, notamment des dommages à la réputation, financiers et juridiques. Le défi de les combattre est qu’ils sont ambigus, et de nombreuses entreprises tentent encore de comprendre comment les identifier et les mesurer.

Les programmes d'IA gérés de manière responsable devraient inclure des stratégies de gouvernance, de confidentialité des données, d'éthique, de confiance et de sécurité, mais les experts qui étudient les risques affirment que les programmes n'ont pas suivi le rythme de l'innovation.

Les efforts visant à utiliser l'IA de manière responsable sur le lieu de travail évoluent « loin d'être aussi rapides qu'ils devraient l'être », a déclaré à Trading Insider Tad Roselund, directeur général et associé principal du Boston Consulting Group. Ces programmes nécessitent souvent un investissement considérable et un minimum de deux ans pour être mis en œuvre, selon le BCG.

Il s'agit d'un investissement et d'un engagement de temps importants, et les dirigeants d'entreprise semblent plutôt se concentrer sur l'allocation de ressources pour développer rapidement l'IA de manière à augmenter la productivité.

« La mise en place de bonnes capacités de gestion des risques nécessite des ressources et une expertise considérables, que toutes les entreprises ne peuvent pas se permettre ou ne disposent pas aujourd'hui », a déclaré Nanjira Sam, chercheuse et analyste politique. a déclaré au MIT Sloan Management Review. Elle a ajouté que « la demande d’experts en gouvernance de l’IA et en risques dépasse l’offre ».

Les investisseurs doivent jouer un rôle plus crucial dans le financement des outils et des ressources nécessaires à ces programmes, selon Navrina Singh, la fondatrice de Credo AI, une plateforme de gouvernance qui aide les entreprises à se conformer aux réglementations en matière d'IA. Le financement des startups d’IA générative a atteint 25,2 milliards de dollars en 2023, selon une étude. rapport de l'Institut pour l'intelligence artificielle centrée sur l'humain de Stanfordmais on ne sait pas exactement combien est allé aux entreprises qui se concentrent sur l'IA responsable.

« L'environnement du capital-risque reflète également une concentration disproportionnée sur l'innovation en matière d'IA par rapport à la gouvernance de l'IA », a déclaré Singh à Trading Insider par courrier électronique. « Pour adopter l'IA à grande échelle et rapidement de manière responsable, un accent égal doit être placé sur les cadres éthiques, les infrastructures et les outils pour garantir une intégration durable et responsable de l'IA dans tous les secteurs. »

Des efforts législatifs ont été en cours pour combler cette lacune. En mars, le L'UE a approuvé la loi sur l'intelligence artificielle, qui répartit les risques des applications d’IA en trois catégories et bannit celles présentant des risques inacceptables. Pendant ce temps, l’administration Biden a signé en octobre un décret ambitieux exigeant une plus grande transparence de la part des grandes entreprises technologiques développant des modèles d’intelligence artificielle.

Mais avec le rythme de l’innovation dans le domaine de l’IA, les réglementations gouvernementales pourraient ne pas suffire à l’heure actuelle pour garantir que les entreprises se protègent.

« Nous risquons un déficit de responsabilité substantiel qui pourrait stopper les initiatives d'IA avant qu'elles n'atteignent la production, ou pire, conduire à des échecs qui entraîneraient des risques sociétaux involontaires, des dommages à la réputation et des complications réglementaires si elles étaient mises en production », a déclaré Singh.


A lire également