ChatGPT n’aidera probablement pas à créer des armes biologiques, selon OpenAI

ChatGPT n'aidera probablement pas à créer des armes biologiques, selon OpenAI

  • Un rapport d’OpenAI a révélé qu’il n’y a qu’une faible chance que GPT-4 puisse être utilisé pour contribuer à créer des menaces biologiques.
  • Le rapport provient de l’équipe « préparation » d’OpenAI, qui étudie les risques « catastrophiques » potentiels de l’IA.
  • Les experts ont déjà averti que l’IA avancée pourrait être utilisée pour aider à planifier des attaques biologiques.

OpenAI pense qu’il n’y a qu’une faible chance que ChatGPT puisse être utilisé pour contribuer à créer des menaces biologiques.

La startup de l’IA dit dans un nouveau rapport que son modèle GPT-4 apportait « tout au plus une légère amélioration » de la capacité à créer des armes biologiques, mais a averti que les futurs modèles pourraient être plus utiles aux « acteurs malveillants » cherchant à utiliser des chatbots pour aider à fabriquer des armes biologiques.

Les experts ont averti que l’IA pourrait être utilisée pour faciliter des attaques terroristes biologiques, soit en aidant les terroristes à créer des armes biologiques et chimiques, soit en les aidant à planifier leurs attaques.

UN rapport majeur de la Rand Corporation L’année dernière, il a été constaté que les grands modèles de langage (LLM) pouvaient être utilisés pour aider à planifier des attaques biologiques, même s’ils ne pouvaient pas fournir d’instructions spécifiques pour créer réellement des armes biologiques.

D’autres acteurs du secteur technologique ont également exprimé leur inquiétude. Lors des auditions du comité sénatorial l’année dernière, le PDG d’Anthropic, Dario Amodei, a déclaré que les modèles d’IA pourrait bientôt être en mesure de fournir des instructions pour des armes biologiques avancéeset Mark Zuckerberg a été confronté à des affirmations selon lesquelles le modèle Llama 2 de Meta fournissait un présentation détaillée de la façon de créer de l’anthrax.

Le rapport de L’équipe « préparation » d’OpenAIqui a été créée l’année dernière pour étudier les effets « catastrophiques » potentiels qui pourraient découler du développement de l’IA avancée, avait pour objectif d’enquêter sur ces préoccupations.

Les chercheurs ont rassemblé un groupe de 50 experts en biologie et 50 étudiants ayant suivi au moins un cours universitaire en biologie, et les ont répartis au hasard dans un groupe ayant accès à GPT-4 ou dans un groupe témoin ayant accès à Internet.

Tous deux avaient pour mission de tenter de répondre à une série de questions liées à la création d’armes biologiques, notamment sur la manière de synthétiser le virus Ebola hautement infectieux. Le groupe GPT-4 a eu accès à une version réservée à la recherche du modèle qui, contrairement à ChatGPT, comporte moins de « garde-corps de sécurité en place », indique-t-il.

L’étude a révélé que même si ceux ayant accès à GPT-4 ont constaté une légère augmentation de la précision et des détails par rapport au groupe utilisant uniquement Internet, cette augmentation n’était pas statistiquement suffisamment significative pour indiquer une réelle augmentation du risque.

« Bien que cette augmentation ne soit pas suffisamment importante pour être concluante, nos conclusions constituent un point de départ pour la poursuite des recherches et des délibérations de la communauté », a déclaré OpenAI. Il a également précisé qu’étant donné le rythme actuel de l’innovation en matière d’IA, il est possible que les futures versions de ChatGPT puissent « offre des avantages considérables aux acteurs malveillants. »

OpenAI n’a pas immédiatement répondu à une demande de commentaire de Trading Insider, formulée en dehors des heures normales de travail.

A lire également